2603
Новости инноваций из мира искусственного интеллекта. 🤖 Всё об ИИ, ИТ трендах и технологической сингулярности. Бесплатный бот для подписчиков: @ai_gptfreebot автор: @mbmal канал личный. Поддержка: https://pay.cloudtips.ru/p/c8960bbb
Киберпанк на удалёнке в действии.
Операторы с Филиппин за $250 в месяц управляют роботами-мерчендайзерами в Японии.
Интересно, как быстро японцы накопят достаточно данных, чтобы оставить филиппинских операторов без работы.
#роботы
------
@tsingular
Извините, но это непосредственно относится к ИИ и датацентрам.
Только вот в Дубае на Gitex было разговоров про G42 и тут такое
Кто бы мог подумать:
❗️Американская разведка получила информацию о том, что ОАЭ передали критически важные оборонные технологии компании Huawei, которая помогла Китаю в разработке ракетных комплексов класса «воздух-воздух» увеличенной дальности, что дало китайским истребителям преимущество перед американскими аналогами, - сообщает Financial Times
Базирующаяся в Объединенных Арабских Эмиратах технологическая компания G42 разрабатывала с помощью ИИ технологии модернизации ракет большой дальности, запускаемых с истребителей. Конфиденциальная американская информация, переданная G-42 Китаю, помогла модернизировать ракеты PL-15 и PL-17.
source
#G42 #UAE #Китай
———
@tsingular
немного неочевидного, но кому-то может пригодится.
У LM Studio на Linux установка и запуск по умолчанию только с экраном.
Но, допустим, у нас терминал и арендованный где-то сервак с GPU без экрана.
И мы по какой-то причине очень хотим именно LM Studio, а не vllm или ollama.
Оказывается выход есть:
sudo apt update && sudo apt install libfuse2
sudo apt install xvfb
mkdir ~/LMS
cd ~/LMS
wget https://installers.lmstudio.ai/linux/x64/0.3.30-2/LM-Studio-0.3.30-2-x64.AppImage
chmod +x LM-Studio-0.3.30-2-x64.AppImage
xvfb-run -a ./LM-Studio-0.3.30-2-x64.AppImage --no-sandbox >lms.log 2>&1 &
~/.lmstudio/bin/lms bootstrap
source ~/.bashrc
lms server start
lms get gemma3
ChatGPT официально достиг человеческого уровня интеллекта
Ему выдали $10 000 и отправили торговать криптой — за неделю он слил $7200, проиграв 42 сделки из 44.
Но ИИ не сдаётся и продолжает сливать в надежде отыграться.
Следим за драмой тут:
https://nof1.ai
Китайцы пока уверенно ведут. :)
#chatGPT #юмор
———
@tsingular
Интересный вариант двухколесного робота делают китайские товарищи.
Причём с учётом того, что компания делает инвалидные коляски вообще,- выглядит как прототип будущей платформы для людей с ограничениями.
Ибо стабилизатор там очень надёжно выглядит.
/* место для ваших идей, где еще нужен такой стабилизатор */
#XSTO #bipedal #Китай
------
@tsingular
Alibaba выпустила AI-очки за $660 на базе Qwen3
Alibaba запускает Quark AI Glasses по цене $660 (со скидкой $560) с встроенным AI ассистентом на базе Qwen3.
Очки умеют переводить в реальном времени, звонить и стримить музыку. Прямой конкурент Ray-Ban, Xiaomi AI Glasses и Google Glasses.
Старт продаж в декабре.
Alibaba агрессивно идёт в потребительский сегмент с прикладными AI решениями с момента обновления облачного бизнеса.
#Alibaba #Qwen #SmartGlasses #Китай
------
@tsingular
Чисто я после покупки видеокарт :)
Упрекали, что нет рекламы на канале.
Вот,- реклама из 90х. :)
#юмор #GPU #АМАТА
------
@tsingular
Сделайте пожалуйста ЭЯЙ :)
#юмор
———
@tsingular
OpenEnv: Hub для агентских окружений
Hugging Face запустили OpenEnv — открытый хаб для создания изолированных окружений, где ИИ-агенты получают только нужные инструменты и API для конкретной задачи.
Техническая начинка:
- Унифицированные API: step(), reset(), close()
- Docker-изоляция для безопасного выполнения
- Автоматическая интеграция с TorchForge, TRL, VeRL, SkyRL
- Встроенная поддержка MCP-инструментов и CodeAct
- Human-in-the-loop тестирование прямо в хабе
Что уже можно:
- Загружать окружения в Hub и автоматически получать UI для тестов
- Тестировать агентов на реальных задачах без написания кода
- Использовать общее окружение для RL-обучения → тестирования → прода
- Воспроизводить SOTA методы типа Code World Model от FAIR
#OpenEnv #TorchForge #HuggingFace
------
@tsingular
🧠 Anthropic проверила, могут ли LLM понимать скрытые мотивы людей
Исследователи из Anthropic опубликовали новую работу, где проверили, насколько большие языковые модели (LLM) способны замечать намерения и скрытые мотивы за сообщениями — например, когда кто-то говорит что-то не из-за убеждений, а потому что ему заплатили или он хочет повлиять на мнение.
🔍 Суть эксперимента
Моделям давали тексты с разными источниками сообщений:
- нейтральные примеры, обычные советы или отзывы без выгоды для автора;
- скрытые мотивы, когда человек получает оплату или имеет выгоду (например, реклама под видом совета);
- явные предупреждения, где в тексте упоминалось, что «автор получает деньги за это».
Задача моделей - оценить, насколько можно доверять сообщению и заметить, есть ли скрытый интерес.
🧩 Результаты
На простых синтетических примерах (где мотив очевиден) LLM-ы действовали почти как люди и могли логически объяснить, что сообщение может быть предвзятым.
Но в реальных кейсах, например, в рекламных текстах или постах с платной интеграцией — модели часто не видели подвоха. Они воспринимали сообщения как искренние и достоверные.
Если модель напомнить заранее (prompt-hint), что стоит искать скрытые мотивы, результаты улучшались, но не сильно - эффект был частичный.
🧠 Неожиданный эффект
Оказалось, что модели с длинными цепочками рассуждений (chain-of-thought) хуже замечали манипуляции.
Когда модель начинает подробно рассуждать, она легче “запутывается” в деталях и теряет критичность к источнику, особенно если контент длинный и эмоциональный.
Чем длиннее и сложнее сообщение, тем хуже модель оценивает предвзятость. Это контрастирует с человеческим поведением: люди обычно, наоборот, становятся подозрительнее при сложных рекламных текстах.
Современные LLM могут анализировать факты, но слабо понимают мотивы, но им трудно различить, почему кто-то что-то говорит.
Это делает их уязвимыми для скрытого влияния, особенно если текст замаскирован под дружеский совет или экспертное мнение.
При использовании LLM для анализа новостей, рекомендаций или рекламы важно учитывать, что они могут не распознать коммерческую предвзятость.
📄 Исследование: arxiv.org/abs/2510.19687
@data_analysis_ml
Microsoft запустила Copilot Mode в Edge
Microsoft официально выкатила Copilot Mode в браузере — каждая новая вкладка теперь открывает чат, где можно задать вопрос, поискать или ввести URL.
Ассистент анализирует все открытые вкладки сразу, может сравнивать товары между ними или суммировать инфу.
В превью появились агентные фичи: отписка от рассылок, удаление писем, бронирование столиков в ресторанах.
Но пока работает через раз.
В ходе тестов Copilot соврал про отправку письма в Gmail и перепутал октябрь с ноябрем при бронировании.
В самом интерфейсе висит предупреждение: "для исследований и оценки, может ошибаться".
Спасибо, хоть, без синего экрана смерти.
Ну и, как всегда, вопрос о безопасности передачи данных между вкладками.
"Правильно" проинструктированный ИИ отправит их и куда надо и куда не надо.
И теперь понятно, кстати, чего так Альтман спешил давеча с Атласом.
#Edge #CopilotMode #Microsoft
------
@tsingular
Toucan: 1.5М реальных сценариев работы ИИ-агентов с инструментами
IBM и University of Washington выкатили Toucan — датасет с 1.5 млн реальных траекторий вызовов API через 2000 веб-сервисов.
Не синтетика, а реальные цепочки вызовов: от планирования до исполнения.
В итоге малые модели Qwen-2.5 (7B-32B), дотренированные на Toucan, обогнали GPT-4.5-Preview на бенчмарке BFCLv3 - модель в триллион параметров против 32 миллиардов.
20% сценариев учат параллельным вызовам инструментов для экономии токенов и времени.
Датасет в 5 раз больше ближайшего конкурента (Nemotron от Nvidia с 310k траекторий).
В датасете в том числе собраны цепрчки вызовов MCP серверов с GitHub и Smithery.ai.
Для этих целей было отобрано 500 рабочих MCP-серверов.
Ещё планируют добавить свежие инструменты и создать RL-gym для агентов
#Toucan #MCP #IBM #dataset
------
@tsingular
Скрытые предвзятости LLM: чью жизнь ИИ ценит выше
Исследователи из Center for AI Safety показали, что LLM имеют внутренние предпочтения при оценке человеческих жизней.
Автор протестировал актуальные модели (GPT-5, Claude 4.5, Gemini 2.5, Deepseek, Kimi K2) и обнаружил паттерны:
- большинство ценят жизни небелых людей в 8-100 раз выше белых
- женщин предпочитают мужчинам в 2-12 раз
- агентов ICE оценивают в 7000 раз ниже нелегальных мигрантов (Claude Haiku)
Исключение — Grok 4 Fast, единственная не предвзятая модель.
Предпочтения извлекаются через тысячи сравнений вида "$X или спасти Y человек".
Разные метрики (смерть или терминальная стадия болезни) и температура сэмплинга влияют на результаты, но тренд стабилен.
При том, что уже юристы, военные, судьи, программисты ежедневно используют эти модели для создания системы принятия решений, - такой перевес и предвзятость делают решения моделей катастрофичными для огромного количества людей.
Т.е. набрали датасетов в Африке и удивляются предвзятости.
Собирайте датасеты в своих странах и обучайте модели на своих данных.
Те самые версии суверенных национальных ИИ с учётом культурно-экономического контекста каждой отдельно взятой страны.
Но скандал получается знатный. Маск уже назвал Claude чистым злом.
#Bias #Grok #предвзятость
———
@tsingular
DeepSeek-OCR: Одна картинка стоит тысячи слов
DeepSeek выпустил OCR-модель, которая превращает документы в изображения и обрабатывает их как визуальные токены вместо классических текстовых. Звучит странно, но работает - и может изменить архитектуру LLM.
Попробуем разобраться что за зверь выкатили китайцы на этот раз:
Вместо обработки текста токен за токеном, DeepSeek-OCR рендерит его в картинку и сжимает в визуальные токены.
Один токен изображения заменяет 10-20 текстовых токенов без особых потерь качества.
Ключевые цифры:
- 97% точность при сжатии в 10×
- 60% точность даже при сжатии в 20×
- 100 визуальных токенов против 6000+ текстовых на OmniDocBench
- 200k+ страниц/день обработки на одной A100-40G
Как работает:
DeepEncoder с window+global attention пропускает изображение документа через 16× compressor. Результат — компактное представление, которое LLM легко декодирует обратно в текст.
🔥 Даже Карпатый тут высказался:
"Может, вообще все входы в LLM делать картинками? Даже чистый текст рендерить и подавать пикселями."
Его аргументы:
- Компрессия - контекст в 10-20 раз короче
- Универсальность - не важно что на картинке,- жирный текст, таблица, цвета шрифтов
- Bidirectional attention — пиксели можно смотреть "в обе стороны"
- Смерть токенизатору — уходит весь багаж Unicode, дыры в безопасности, странности с распознаванием эмодзи, когда то, что человек видит одинаково, - машина интерпретирует по разному.
"Vision→text работает. Text→text можно сделать vision→text. Обратно — нельзя."
Карпатый уже планирует переписать наночат версию с пиксельным входом.
На практике это даст:
- Сверх-длинные по нынешним меркам диалоги - старые сообщения превращаются в картинки и сжимаются
- Механизм "забывания" - как в памяти человека: свежее будет чётче, старое размыто
- Безграничные контексты - теоретически возможны через прогрессивное сжатие
- Генерация трейнинг-данных для LLM/VLM в промышленных масштабах
Если идея зайдёт, токенизатор может стать артефактом истории, как дискеты.
Мы наблюдаем реально фундаментальные прорывы в ИИ со стороны Китая.
Эффект количественного превосходства отличников.
#DeepSeek #OCR #Karpathy #Китай
———
@tsingular
⚡️Первые цветные кадры ТЕРМОЯДЕРНОГО синтеза опубликовал стартап Tokamak Energy — их сняли в реакторе на камеру с частотой 16 000 (!!) кадров в секунду.
Видео жутко залипательное: хорошо видно свечение на краю плазмы — ярко-розовое излучение. Ядро же невозможно рассмотреть потому, что оно слишком горячее — температура превышает МИЛЛИОНЫ градусов.
Полной версией наслаждаемся тут.
🙂 Не баг, а фича
Просто красивое.
Отсюда:
https://codepen.io/VoXelo/full/dPGKPEN
#dev #threejs
------
@tsingular
AWS Chronos-2: универсальный прогноз временных рядов
Amazon выкатил Chronos-2 — foundation-модель для прогнозирования временных рядов, которая работает со всем сразу: одиночные ряды, многомерные и с внешними факторами.
Предыдущие версии (Chronos и Chronos-Bolt) скачали 600+ миллионов раз с Hugging Face, но они умели только univariate-прогноз.
Теперь, благодаря group attention механизму для произвольных групп рядов можно, например:
- Прогнозировать CPU, память и IO вместе, ловя зависимости
- Учитывать акции в ритейле или погоду для энергопотребления
- Делать cold-start прогнозы для новых объектов через cross-learning
На fev-bench обходит конкурентов с большим отрывом, особенно на задачах с ковариантами.
На GIFT-Eval — первое место среди pretrained-моделей. Против Chronos-Bolt побеждает в 90%+ случаев.
Модель работает через in-context learning - берёшь и используешь как есть, - zero shot по факту.
GitHub
Paper
#Chronos #TimeSeries #Forecasting
———
@tsingular
BrainCo - протез руки, контролируемый неинвазивным мозговым интерфейсом.
Т.е. мыслями.
383 грамма.
- Доктор, а я смогу играть на фортепиано?
- конечно!
- поразительно! Ведь раньше то не умел.
Но кроме шуток, - удивительно.
Особенно как он шнурки завязывает.
И это, заметьте,- стартап!
Т.е. без миллиардов госфинансирования!
#протезы #руки #BCI
------
@tsingular
Уже все социальные пространства обошел мем как Шедевриум (сервис рисования изображений от русского Яндекс) отвечает на промпт
Наш лидер страны на нашем патриотическом празднике на фоне флага
Удивительное дело.
В то время как Штаты расконсервируют АЭС для обеспечения искусственного интеллекта, потому, что это единственный экономически выгодный вариант, а Китай строит их десятками, - Германия сама себя катит в средневековье.
❗️В Германии снесли две 160-метровые градирни на бывшей атомной электростанции «Гундремминген» в Баварии
Управляемый взрыв положил конец некогда крупнейшему реакторному комплексу Германии.
#АЭС #генерация
------
@tsingular
LTX.studio выпустили собственную модель LTX-2
Абсолютно новый уровень в качестве.
Мало того, что ни могут генерить видео со звуком быстрее реального времени, для проработки черновиков - незаменимо, так еще и максимальное качество доступное в Pro режиме, внимание:
8 секунд 4К х 50 кадров в секунду!!!
Это уже почти IMAX качество генерации.
В Ultra, думаю будет еще выше и дольше.
Есть API.
Пробовать можно тут, если у вас правильная геолокация (есть минимум бесплатных кредитов):
https://app.ltx.studio/ltx-2-playground/t2v
год еще не закончен, а качество уже достаточное для топ кинотеатров.
Сингулярность, - это красиво!
#ltx #нейрорендер
———
@tsingular
Очень годный нейрорендер делает Автор в запретограмме по мотивам русских классиков.
Там и Бунин и Есенин и Маяковский и Лермонтов и, вот, Пушкин.
Подсказали, - вот его канал в телеге:
@GNeuro
и в ВК
https://vk.com/djbloknote
Инструменты:
Suno
Midjourney
Hedra
Kling
HiggsField
Литература теперь любимый предмет :)
Кстати, для сравнения, был еще такой вариант Пушкина ранее на канале
#стихи #Пушкин #нейрорендер
———
@tsingular
N8N+SGR
Вы конечно жестко умеете мотивировать 200+ реакций
Миша за сегодня все оформил и выложил, встречаете!
Репо_форк:
https://github.com/vamplabAI/n8n-nodes-sgr-tool-calling
Репо_main: https://github.com/MiXaiLL76/n8n-nodes-sgr-tool-calling
Скачать готовую ноду: https://www.npmjs.com/package/n8n-nodes-sgr-tool-calling
Делимся в коментах куда будете интегрировать!
Пятничный гимн.
Тут короче был диалог, где зарифмовали скуфов в известном стихотворении Блока и получился такой вот пародийный экспромпт.
Так то мы за ЗОЖ, бег, против курения и алкоголя.
Поэтому слова воспринимать чисто как шутку.
Но вроде весело получилось, так что делюсь.
#скуфы #Suno
------
@tsingular
Кстати, много народу присоединилось с тех пор как мы вспоминали всяких полезных ботов моих.
Вот, например, есть такой
@Math_learn_bot
С ним можно потренировать устный счёт.
Бот бесплатный. Слегка геймифицированный.
Фишка бота - все примеры вычисляемы в уме. Пришлось долго оптимизировать алгоритм, чтобы это всегда было так.
#dev #боты
------
@tsingular
🔥 UPDATE OpenAI deactivating: Нашел причину! Критическая уязвимость в LiteLLM
Оказалось проблема была не в IP и не в RU тексте
LiteLLM сливал всю внутреннюю метаданные прокси напрямую в OpenAI
Что утекало
Если клиент передавал хоть какую то metadata (например sessionId в теле реквеста то LiteLLM добавлял к ней ВСЮ внутреннюю инфу прокси хотя должен был писать во внутренний лог
{
"metadata": {
"sessionId": "abc-123", // от клиента
"headers": { // ВСЁ ЭТО УТЕКАЛО
"x-real-ip": "1.2.3.4",
"x-forwarded-for": "5.6.7.8, ...",
"user-agent": "RestSharp/112.1.0"
},
"user_api_key_spend": 287.83,
"endpoint": "https://my-proxy.com/..."
}
}sessionId для трекинга (честно не знаю то ли это клиент делает то ли разработчик)metadata = new { sessionId = "abc-123" }"role": "user",
"content": "Привет! Как дела?"
}
],
"temperature": 1,
"metadata": {
"sessionId": "a5b3e26b-18c7-4017-9bcd-c2db6e450f78"
},
"stream_options": {
"include_usage": true
}
}'
metadata AsyncOpenAI metadata
ИИ как рабочий хаб — рекомендации от Perplexity.
Perplexity можно использовать без VPN, что сейчас уже половина удобства. Бесплатная версия подходит для ежедневного использования. Оплатить можно через мобильный счет, а внутри платной версии — все современные модели: GPT-4o, Claude, Mistral, Gemini и собственная модель Perplexity.
Perplexity для меня — полноценная замена поисковику и альтернатива ChatGPT, когда есть необходимость. Так что эта новость мне зашла:
Сервис выпустил подробный гайд по использованию ИИ для рабочих задач. Изучаем.
Higgsfield.ai выкатили нанобанану для видео.
HiggsField Popcorn - меняет актеров в видеоряде с удержанием консистентности в пределах 8 секунд.
В качестве референса можно загрузить до 4х фото и расписать до 4х сцен последовательно с отдельным описанием для каждой.
таким образом можно получить пол минуты разных планов с одинаковыми героями в кадре.
Есть ежедневные бесплатные кредиты.
Для генераций в бОльшем объеме нужна платная подписка от $9 в месяц. С Veo3 - от $17 (сейчас скидки у них).
Под капотом - Veo 3.1. Функционал сам по себе оттуда.
Не забываем, что Higgsfiled - обёртка над различными генераторами типа:
Veo3, Hailuo 02, Seedance Pro, Kling 2.1, Kling 2.5, Wan 2.2, Wan 2.5, Sora 2, Veo 3.1
Но удобно, что у них такой вот общий редактор-комбайн с единым интерфейсом.
#HiggsFiled #Veo #нанобанана #нейрорендер
———
@tsingular