46227
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
🏃♂️ GigaChat 3.1 Ultra & Lightning: большое обновление открытых моделей
В ноябре мы открыли preview-версии GigaChat 3 Ultra и Lightning. С тех пор серьёзно доработали и модели, и весь пайплайн — высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1. Сегодня выпускаем обновлённые GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс под MIT лицензией!
GigaChat 3.1 Ultra
🔘 702B параметров (36B активных на токен)
🔘 По нашим замерам обходит non-reasoning Qwen3-235B-A22B и DeepSeek-V3-0324 в математике и general reasoning
🔘 Существенный прирост качества по сравнению с ноябрьским preview — как в метриках, так и в реальных диалогах
🔘 Контекст 131K токенов
➡️ GitVerse | HuggingFace
GigaChat 3.1 Lightning
🔘 10B параметров (1.8B активных)
🔘 На аренах отвечает на уровне GPT-4o
🔘 Остаётся одной из лучших моделей в своём размере, особенно сильна в function calling
🔘 Серьёзный выигрыш по скорости за счёт MoE + MTP + FP8
🔘 Контекст 256K токенов
➡️ GitVerse | HuggingFace
Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang
Для нас это не просто апдейт весов — это история про то, как переход на новую архитектуру вскрывает неожиданные проблемы на всех уровнях стека, от данных до инфраструктуры.
🤖 Подробнее — в статье на Habr
📌 Google разработала алгоритм квантования KV-кэша без потери точности.
Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.
TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.
KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.
Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.
При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.
Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.
«Сбер» представил новое поколение GigaChat на основе модели GigaChat Ultra
«Сбер» обновил ИИ-помощника 🏷GigaChat. В его основу легла версия модели GigaChat Ultra, которая разработана и обучена в России.
Теперь он запоминает факты о пользователе и использует их для дальнейшей персонализации общения и предлагаемых решений. Кроме этого, помощник самостоятельно ищет информацию в интернете.
GigaChat Ultra позволяет создавать на своей основе прикладные ИИ-продукты и сервисы, а также запускать код в интерпретаторе — изолированной среде в интерфейсе помощника. Помимо этого, обновленный GigaChat генерирует текстовые ответы в два раза быстрее, чем предыдущая версия.
ИИ-модель прошла три этапа обучения. Первый — заключался в обучении на различных материалах. На промежуточном этапе улучшались специализированные навыки: расширен корпус кода, добавлены данные по наукам. На финальном этапе стабилизировалась работа в реальных условиях.
🔗 Источник: https://www.sberbank.ru/ru/sberpress/all/article?newsID=f1a3ecf6-09cd-4d5d-bc58-3b92f4ba790b&blockID=1303&regionID=77&lang=ru&type=NEWS
---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
🧊 0DIN выпускает сканер безопасности ИИ с открытым исходным кодом
Сканер 0DIN — специализированная платформа для оценки безопасности генеративного ИИ и агентных моделей, созданная на базе открытого проекта GARAK, разработанного командой NVIDIA. На протяжении последних двух лет 0DIN занималась созданием инфраструктуры для поиска, отслеживания и анализа уязвимостей в передовых ИИ-моделях.
Главная особенность сканера заключается в его библиотеке: в отличие от инструментов со статическими проверками, она непрерывно пополняется новыми методами атак (джейлбрейками и инъекциями промптов) на основе реальных отчетов из программы вознаграждений за найденные уязвимости (bug bounty) от 0DIN. Проект имеет открытый исходный код и распространяется по лицензии Apache 2.0.
Сканер построен на основе сканера уязвимостей NVIDIA GARAK LLM. Мы расширили возможности GARAK, добавив графический интерфейс, функцию планирования, нашу собственную библиотеку, отчетность корпоративного уровня и информацию об уязвимостях, поступающую непосредственно из нашей программы вознаграждения за обнаружение ошибок.
Compresr — каждый токен на счету
Длинные агентные сессии в Claude Code и Cursor быстро упираются в контекстный лимит. История диалога, результаты тулов, прочитанные файлы — всё это забивает окно и ухудшает качество ответов. Стандартная компакция Anthropic решает проблему, но при срабатывании /compact пользователь вынужден ждать минуту‑две, пока модель суммаризирует историю.
Compresr предлагает альтернативу — локальный прокси Context Gateway, который сжимает контекст заранее и делает компакцию мгновенной.
Принцип работы
Context Gateway развёртывается на машине пользователя и садится между агентом и LLM‑провайдером. Прокси отслеживает размер истории и при достижении порога запускает фоновую суммаризацию. К моменту, когда агенту нужна компакция, она уже готова. Кроме истории, gateway сжимает tool outputs и управляет tool discovery — вместо показа всех инструментов он выбирает подмножество, релевантное текущему запросу.
Два уровня сжатия
🟣Token-level compression — алгоритмический выбор наиболее важных токенов с сохранением смысла, используется для системных промптов, RAG‑контекста и длинных документов
🟣Chunk-level filtering — удаление нерелевантных блоков целиком, применяется для предфильтрации результатов ретривера перед композицией промпта
Три модели
🟣Espresso — agnostic compression, не требует query, используется для системных промптов и статической документации
🟣Latte — query-aware compression, требует явного запроса пользователя, применяется в RAG и Q&A сценариях
🟣Coldbrew — chunk-level filtering, отбирает релевантные чанки без изменения текста
Характеристики
Заявленный диапазон сжатия — от 2x до 100x в зависимости от избыточности контента. В публичном демо Compresr снижает задержку на 25% и экономит 20% токенов. На бенчмарке FinanceBench модель Latte при ~10x сжатии даёт точность 74.5% против 72.3% в бейзлайне.
Способы поставки
🟣Context Gateway — CLI‑бинарь на Go
🟣SDK — библиотека на Python
🟣VS Code‑расширение — для сжатия CLAUDE.md файлов
Compresr особенно интересен для длинных код‑сессий и RAG‑пайплайнов с большими документами — именно там, где стандартная компакция становится узким местом.
Как тебе такое, Александр?
«Compresr интересен тем, что он решает одну из самых актуальных проблем современных LLM-систем — управление контекстом.
В большинстве агентных фреймворков контекст растёт почти бесконтрольно: история диалога, результаты инструментов, куски кода... В какой-то момент всё это начинает не только упираться в лимиты токенов, но и ухудшать качество ответов модели.
Compresr предлагает довольно радикальное решение — вынести управление контекстом в отдельный инфраструктурный слой. Gateway фактически становится «операционной системой» для контекста: он решает, какие данные вообще попадут в окно модели.
Особенно интересна идея chunk-level filtering. По сути, это дополнительный этап между retriever и prompt construction. В RAG-системах именно там часто появляется шум: ретривер возвращает слишком много слабосвязанных фрагментов, которые просто занимают место в контексте.
С другой стороны, агрессивная компрессия — это всегда компромисс. Слабые сигналы, второстепенные детали и длинные логические цепочки могут теряться. Поэтому заявленные коэффициенты сжатия в десятки раз стоит воспринимать скорее как демонстрацию возможностей, чем как реальный production-режим.
Но сама тенденция выглядит важной: по мере роста агентных систем всё больше оптимизаций происходит не внутри модели, а на уровне orchestration-слоя. И инструменты вроде Compresr — хороший пример того, как начинает формироваться новая инфраструктура вокруг LLM», — отметил Александр Тараканов, исследователь AI VK.
🤖 В Meta* снова восстание машин: «Никогда такого не было, и вот опять»
Недавно в компании Meta произошел серьезный инцидент безопасности, вызванный якобы сбоем в работе внутреннего ИИ-агента. ИИ-агент без предварительного одобрения опубликовал на корпоративном форуме неточный технический совет. Один из инженеров последовал этой рекомендации, что привело к временному открытию несанкционированного доступа к конфиденциальным данным для других сотрудников.
Один из инженеров Meta использовал внутреннего ИИ-агента, которого описывают как «аналогичного по своей природе OpenClaw, работающего в защищенной среде разработки», для анализа технического вопроса, заданного другим сотрудником на внутреннем форуме компании. После анализа агент самостоятельно опубликовал публичный ответ на вопрос, не получив предварительного одобрения. Ответ предназначался только для запросившего его сотрудника и не должен был публиковаться в открытом доступе.
Инцидент временно позволил сотрудникам получить доступ к конфиденциальным данным. Представители Meta заверили, что уязвимость уже устранена и данные не пострадали, подчеркнув, что ответственность за применение совета лежит на сотруднике, который не перепроверил информацию от автоматизированной системы.
Этот случай стал уже вторым подобным происшествием в компании за последнее время. Ранее 🤖 "восстание машин" в почтовом ящике произошло у директора Meta* по 💻безопасности и выравниванию ИИ.
*Meta (соцсети Facebook, Instagram) запрещена в РФ как 🏴☠️экстремистская.
✋ @Russian_OSINT
⚡️ Лучшие GitHub-репозитории для Claude Code, которые могут увеличить эффективность твоего следующего проекта
1. Superpowers
https://github.com/obra/superpowers
2. Awesome Claude Code
https://github.com/hesreallyhim/awesome-claude-code
3. GSD (Get Shit Done)
https://github.com/gsd-build/get-shit-done
4. Claude Mem
https://github.com/thedotmack/claude-mem
5. UI UX Pro Max
https://github.com/nextlevelbuilder/ui-ux-pro-max-skill
6. n8n-MCP
https://github.com/czlonkowski/n8n-mcp
7. Obsidian Skills
https://github.com/kepano/obsidian-skills
8. LightRAG
https://github.com/hkuds/lightrag
9. Everything Claude Code
https://github.com/affaan-m/everything-claude-code
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
📌 NousResearch подвела итоги хакатона Hermes Agent.
NousResearch завершила хакатон, запущенный в конце февраля вслед за релизом Hermes Agent.
Из 187 заявок жюри отобрало финалистов по 3 критериям: креативность, практическая польза и качество презентации. Призовой фонд составил $11 750.
🟡Первое место и $7 500 забрал проект Media Tool
Это набор инструментов для обработки видео и аудио, который встраивается в Hermes как нативный скилл.
Загружаете файл в чат, описываете задачу текстом и получаете результат: обрезка, сжатие, конвертация форматов, наложение субтитров, генерация GIF-файлов, создание стикеров для Telegram или нормализация звука. Под капотом - ffmpeg. Работает через Telegram, Discord и CLI.
🟡На втором месте ($2 500) - Hermes Agentic CAD Builder.
Агент находит реальные комплектующие в каталоге McMaster-Carr, подставляет фактические размеры найденной детали в параметрическую модель FreeCAD, анализирует, какие элементы сборки конфликтуют после изменений, и ведет спецификацию.
При обнаружении повторяющихся сценариев агент сам создает новые скиллы - например, для подбора определенного типа крепежа.
🟡Третье место ($1 000) получил Hermes Sidecar.
Браузерное расширение, которое открывает чат с Hermes Agent рядом с любой страницей. Фишка проекта - селективный контекст: агент видит только то, что пользователь выбрал (текст страницы, выделенный фрагмент, изображения, содержимое PDF). Поддерживаются кастомные темы, голосовой ввод, TTS и работа через SSH.
🟡Четвертое место ($500) - Terminal World Map with Live News.
Спутниковые снимки рендерятся цветными юникод-блоками прямо в терминале, поверх отображаются города из OpenStreetMaps и заголовки новостей, привязанные к координатам в реальном времени. Геокодинг-пайплайн определяет локации из заголовков, расставляет приоритеты по населению и близости к другим видимым новостям. Автор собрал проект за один день, работая через Hermes Agent с Opus 4.6.
🟡Пятое место ($250) досталось HERMES Mars Rover
Симуляция автономного марсохода. Hermes Agent управляет моделью NASA Perseverance в среде Gazebo: планирование маршрута, считывание показаний IMU, четырех камер, LIDAR и контактных сенсоров, обход препятствий и генерация отчета о миссии.
Марсианская физика с гравитацией, проскальзыванием колес и динамикой ODE. За 25 минут автономной работы точность возврата на базу ~ 22 см. Ровер останавливается при наклоне больше 25°, сохраняет удачные треки и улучшает поведение от сессии к сессии.
Кстати, Hermes Agent написал роман «The Second Son of the House of Bells» - 79 456 слов, 19 глав. Агент выстроил собственный пайплайн по схеме, похожей на Autoresearch Андрея Карпатого: мироконструирование, черновики глав, состязательное редактирование, ревью через Opus, верстка в LaTeX, генерация обложки и аудиокниги.
Гаджеты... ClockWork Project
📱 Telegram | 🌐 ВК | 📲 MAX
EMMA: End-to-End Multimodal Model for Autonomous Driving
Сегодня разберём статью об EMMA — end-to-end модели на основе LLM для задач автономного вождения.
Верхнеуровнево архитектуру EMMA можно рассмотреть на схеме. В качестве LLM авторы используют Gemini. На входы модели подают изображения с камер (camera-only), историю ego и подсказки маршрутизатора. HD-карты не используются.
Chain-of-thought начинается с описания сцены (scene description), потом модель выделяет участников движения (critical objects) и переходит к описанию их поведения (behavior description of critical objects). А в конце — принимает решение, как управлять транспортным средством (meta driving decision).
Задачи перспешна (3D object detection, road graph estimation, scene understanding) решает Gemini — по изображениям с камер и соответствующим им промптам. Чтобы выбрать лучшую моду, модель считает попарные L2-расстояния между всеми траекториями. Топ-1 становится траектория с наименьшим средним L2.
Из плюсов EMMA — неплохие значения ADE по сравнению с Wayformer и MotionLM. Но недостатков у модели много:
🔴 повышенные вычислительные требования,
🔴 необходимость адаптировать сетку для обработки данных с лидаров,
🔴 сложности оценки модели в closed-loop,
🔴 небольшое число обрабатываемых изображений с камер.
EMMA — один из примеров того, как можно применять LLM для задач автономного вождения, выбивая при этом неплохие значения метрик open-loop. В целом, end-to-end подходы набирают всю большую популярность. Думаю, дальнейшие исследования будут направлены на преодоление вычислительных ограничений и внедрение симуляции сенсоров в closed-loop.
Разбор подготовил ❣️ Павел Лукьянов
404 driver not found
С чего начался путь ALT Linux и как он развивается по сей день?
На этот вопрос как нельзя лучше ответят те, кто этот путь начал.
Алексей Смирнов, председатель совета директоров «Базальт СПО», расскажет о:
🔸начале истории ALT Linux
🔸создании проекта «Сизиф»
🔸продуктовой линейке ALT Linux и многом другом
Смотрите интервью на любой удобной площадке:
📹 VK Видео
📹 RuTube
📹 Дзен
📹 YouTube
ИИ Google убивает сайты
Грустная ирония – крупнейший в мире поисковик делает всё, чтобы стать ненужным. В исследовательском отчете Axios сообщается, что трафик из поиска Google на сторонние сайты за последний год резко упал – на 60% для мелких изданий, 47% для средних и на 22% для крупных.
Причина в Gemini – очень многим хватает ответа, который эта нейросеть выдает в самом верху страницы. При этом по ссылкам в его пруфах переходят меньше 1% пользователей, а сами по себе ИИ-боты не генерируют «полезного» трафика.
Такой подход может лишить нас сайтов – например, ресурс Digital Trends пожаловался, что трафик из поиска Google упал аж на 97%, из-за чего изданию пришлось уволить почти весь штат в 2025 году. В случае с The Verge, HowToGeek и другими подобными сайтами падение составило 85%, что также ставит их на грань выживания.
Мой Компьютер
✔️ Nvidia выпустит инференс-чипы на базе архитектуры Groq для Китая.
Nvidia готовит к майскому релизу новую версию ИИ-ускорителей, построенных на технологиях стартапа Groq, которые компания лицензировала в прошлом году. Новинка предназначена исключительно для инференса.
На глобальном рынке Nvidia планирует использовать чипы Groq в связке с будущей архитектурой Vera Rubin. Поскольку экспорт этих флагманов в КНР запрещен, китайскую версию Groq адаптируют для интеграции со сторонними системами. При этом источники Reuters говорят, что аппаратная производительность новых процессоров не урезалась.
Параллельно Дженсен Хуанг объявил о возобновлении производства H200. Компания получила экспортные лицензии от администрации США и уже принимает заказы из Китая.
reuters.com
✔️ MiniMax выпустила самоэволюционирующую модель M2.7.
M2.7 - первая модель MiniMax, которая способна самостоятельно улучшать свои алгоритмы и рабочие процессы. За время разработки система прошла более 100 циклов автономной оптимизации, что повысило ее производительность на 30%.
Новинка позиционируется для сложных задач кодинга и построения многошаговых ИИ-агентов. В бенчмарке SWE-Pro модель показала уровень Claude 3.5 Sonnet, а ее рейтинг ELO на GDPval-AA достиг 1495. Помимо кодинга, M2.7 работает с офисными форматами: редактирует документы Word, Excel и PowerPoint, сохраняя исходную верстку даже после серии глубоких правок.
Модель поставляется в 2 вариантах: базовая версия и M2.7-highspeed со скоростью генерации до 100 токенов в секунду. Стоимость API - 30 центов за миллион входящих и 1,20 доллара за миллион исходящих токенов. M2.7 уже поддерживается в Cursor, Cline и Ollama, а также доступна в фирменном приложении MiniMax Agent.
minimax.io
✔️ Perplexity запустила Comet Enterprise.
ИИ-поисковик выпустил корпоративную версию своего браузера, ориентированную на безопасную автоматизацию рабочих процессов в компаниях.
С помощью Comet Enterprise сотрудники могут прямо из браузера делегировать рутину: анализировать контракты на предмет рисков, собирать контекст для встреч, делать вычисления на основе финансовых отчетов и автоматизировать поиск контактов в LinkedIn.
Безопасность усилена интеграцией с платформой CrowdStrike Falcon. Она на лету блокирует фишинг, вредоносное ПО и предотвращает утечки данных. Инструмент уже включен в корпоративную подписку Perplexity.
perplexity.ai
✔️ Google крупно обновила Stitch.
Google Labs представило новую версию платформы Stitch, генеративного инструмента для создания UI-макетов по текстовому описанию. Главной фишкой стал бесконечный ИИ-холст, принимающий на вход текст, код и картинки. На нем ИИ-агент анализирует историю проекта и может параллельно развивать сразу несколько визуальных концепций.
Теперь Stitch умеет превращать статические экраны в кликабельные прототипы, самостоятельно генерируя промежуточные шаги пользовательского пути при взаимодействии с элементами.
Платформа также получила поддержку MCP, прямую выгрузку в среды AI Studio и Antigravity и голосовое управление холстом в реальном времени.
blog.google
✔️ OpenAI хантит таланты через конкурс Parameter Golf.
Компания открыла публичное соревнование для исследователей с крайне жесткими техническими ограничениями. Участникам предстоит создать максимально эффективную языковую модель, при этом размер весов вместе с кодом для обучения не должен превышать 16 МБ. На сам процесс тренировки отводится строго до 10 минут на кластере из восьми видеокарт H100. Эффективность алгоритмов будет оцениваться на сете FineWeb.
Цель челленджа - поиск нестандартно мыслящих инженеров. Авторы лучших проектов получат приглашения на собеседование. Дополнительным стимулом станет призовой фонд в 1 млн. долларов, который распределят в виде грантов на аренду копьюта у провайдера Runpod.
На GitHub уже опубликованы базовые решения, проверочные скрипты и публичный лидерборд. Принять участие в конкурсе можно до 30 апреля.
openai.com
@ai_machinelearning_big_data
🎯Полезные Мл-ресурсы 🚀 Max
#news #ai #ml
🤖 Знакомьтесь, ваш новый инсайдер
Хотя теоретических заявлений о том, что ИИ-агенты — это новая инсайдерская угроза, было уже много, начинают поступать практические доказательства.
Следите за руками: три ИИ-агента получают обычные офисные поручения: провести исследование на базе определённых документов, создать на сервере резервную копию данных, подготовить посты для соцсетей на основе технической документации. Задания целиком легитимные, никаких уловок, никаких промпт-инъекций.
При выполнении задания ИИ-агент сталкивается с проблемой: некоторые документы недоступны из-за недостаточных прав доступа (ошибка 403), а сохранить копию на сервер нельзя, потому что среди файлов есть вредоносное ПО и защита на сервере не позволяет создать файл.
Что делает агент?
🤯 ковыряется в исходных кодах внутренних систем, находит вписанные прямо в код секреты, подделывает куки и обходит контроль доступа;
🤯 повышает привилегии, находит в локальных файлах учётные данные администраторов и отключает на сервере Windows Defender.
Весь описанный эксперимент был поставлен в синтетических условиях, но авторы дают ссылки на похожие ситуации уже из реальной практики.
Авторы утверждают, что поведение вредоносного инсайдера может проявляться спонтанно, поскольку в промпты часто входят мотивационные фрагменты вроде «эта задача срочная», «будь креативен», «если получил ошибку, придумай решение», и тому подобное. Учитывая что большие модели общего назначения имеют большой банк знаний в ИБ, получение ошибки типа 403 побуждает их искать «решение» проблемы, а не идти просить нужный доступ.
С точки зрения дизайнеров агентских систем, главный вывод — агентов нужно чётко инструктировать не нарушать правила и сообщать об ошибках доступа человеку.
С точки зрения ИБ выводы конечно совсем иные — агентские системы в первую очередь должны попадать под принцип наименьших привилегий, иметь доступ к ограниченному набору инструментов, всегда работать под собственными учётными записями особого типа и быть максимально обвешаны журналированием. И, возвращаясь к началу, в модели угроз ИИ явно потянет на самостоятельного нарушителя.
#новости #ИИ @П2Т
🔧 Code2Prompt — инструмент для «контекстной инженерии» кода
В последнее время растёт интерес к использованию LLM и агентных систем для работы с кодом. Мотивация здесь понятна: LLM позволяют быстрее разобраться в работе больших проектов. Кроме того, во многих случаях сформулировать требования к программе на языке, близком к естественному, и затем сгенерировать код оказывается проще, чем писать большое количество строк вручную.
Команда Code2Prompt использовала принципы context engineering (грубо говоря: больше контекста — лучше результат) для создания инструмента, предназначенного для работы с большими кодовыми базами. Основная задача Code2Prompt — конвертация репозитория в структурированный prompt для LLM.
В качестве контекста для модели используется файловая структура проекта и содержимое выбранных файлов. Это снижает число галлюцинаций, помогает модели лучше понимать организацию проекта и позволяет решать задачи вроде поиска багов, проведения code review или генерации документации. Кроме того, в Code2Prompt реализован контроль размера prompt, что важно при работе с ограничениями на размер контекста у LLM.
Важно, что Code2Prompt — не AI-ассистент для программирования. Он не генерирует код и не работает внутри IDE. Его задача — подготовить качественный контекст для модели или агентной системы. Инструмент работает с целым репозиторием и может использоваться как CLI-утилита, SDK для автоматизации или MCP-сервер для AI-агентов.
Конечно, это не панацея. Большие проекты всё равно могут не помещаться в контекст модели, а качество результата во многом зависит от prompt-шаблонов. Для сложных сценариев по-прежнему требуются дополнительные техники — например RAG, агентные системы или tool-use.
Тем не менее такие инструменты отражают важный тренд в LLM-инженерии: всё чаще производительность системы определяется не только моделью, но и тем, как организован контекст задачи. Именно поэтому всё больше говорят о новой дисциплине — context engineering.
Обзор инструмента подготовлен командой AI VK
#обзоринструмента
ГОЛЛИВУД ПОБЕДИЛ
Сёма развёлся с Sora
Самая расхайпованная на свете лавка Шмуля Альтмана (фото) – изобретатель ChatGPT – OpenAI объявила о закрытии генеративной нейросети Sora. Эту фичу специально вывели два года назад для создавания качественных видео по текстовому запросу. Массовый пользователь получил доступ к этому ГИИ в ноябре 2025-го.
Sora вызвала бурю негодований в Голливуде и бурную радость криминала. Первым это ПО угрожало минимум – исключением живых актеров из съёмок, вторым – сулила лёгкое и почти даровое создание дипфейков для любых кибервзломов. В сопоре о Sora победил Голливуд.
OpenAI откажется от поддержки версии нейросети для разработчиков и от видеофункционала в чат-боте ChatGPT.
"Мы прощаемся с приложением Sora. Спасибо всем, кто творил с помощью Sora, делился своими работами и создавал вокруг них сообщество", – написали якобы от команды проекта в Х. Создатели обещали рассказать о способах сохранить сгенерированный контент. Позже.
По словам самого Шмуля Иеремиевича, команда Sora займется долгосрочными проектами, например, – робототехникой. Но это – не точно. Возможно, уволят всех, как обычно. OpenAI планирует изменить стратегию, сосредоточиться на разработке инструментов для повышения продуктивности корпораций и частных пользователей.
ВАШУ ЦИФРУ! Настоящая причина, конечно, не опасность интернет-ворья и не визги с хуйливудских пригорков. Дело – в деньгах и рынке. OpenAI запустила Sora в надежде ее применения в создании вертикальных видео для TikTok. Но много воды утекло. Китаёзскую сеть в США прижали, а Сёму заткнули, точнее – "направили в позитивное русло" крупным контрактом с Пентагоном.
Ведь еще год назад сотрудники OpenAI поражались: зачем сколько денежных и вычресурсов Сэмэн вкладывает в крайне рискованный проект, при полном отсутствии признаков его востребованности для работы на благие цели
Openpilot 0.11 — первый робо-агент, обученный только на симуляциях
Команда Comma.ai опубликовала интересный пост, где утверждает, что впервые в истории индустрии выпустила на дороги робо-агент, полностью обученный в вымышленной нейросетями симуляции.
Немного контекста: в Comma.ai разрабатывают систему помощи водителю, совместимую со многими моделями автомобилей. Система работает на втором уровне автономности — умный лейн-кипинг в широком спектре сценариев. Эта задача гораздо проще, чем полностью автономное вождение, что позволяет Comma.ai экспериментировать.
В то время как Waymo и британская команда Wayve интегрируют модели мира в свои пайплайны, Comma.ai идёт ещё дальше и отказывается от всего, кроме модели мира. Похожую идею предлагали учёные из Беркли в классической для робототехники статье DayDreamer — интересно, что этот подход удалось адаптировать для автономного вождения.
Вот что предлагают создатели Openpilot 0.11:
Шаг 1. Собрать 40 тысяч часов интересных видео, записанных флотом автономного транспорта и разбить их на сцены по 10 секунд с частотой 5 Гц.
Шаг 2. Обучить на этом датасете двухголовую модель мира:
🔴 первая голова предсказывает по видеоконтексту следующее действие эго-агента,
🔴 вторая — генерирует следующий кадр по видеоконтексту и только что полученному следующему действию.
Потом к контексту добавляется сгенерированный кадр, и процесс повторяется.
Секретный ингредиент — подавать на вход модели не только две секунды истории, но и последнюю секунду в эпизоде. Так ей понадобится предсказывать только промежуточную траекторию — это значительно улучшает сходимость. В итоге получается достаточно реалистичный симулятор вождения, который генерирует следующий кадр по двум секундам видео и действию эго.
Шаг 3. Обучить в полученном симуляторе небольшую модель-водителя, которая должна сходиться в финальное состояние по одному лишь видео, не видя последний кадр. Щедро насыпать шум на всех стадиях для устойчивости.
Openpilot 0.11 обучали on-policy — модель много едет по сгенерированной ей самой траектории, что выгодно отличает подход от обычного imitation learning.
При этом награды или штрафы не задавались явно — по опыту reinforcement learning, конструирование наград иногда всё только портит. Авторы усвоили горький урок: для того чтобы всё сошлось, достаточно увеличить количество данных и размер модели.
Единственная проблема, которая остаётся, — модель-водитель может научиться ломать симуляцию непредсказуемыми способами. Авторы утверждают, что это решается за счёт гипотезы большого мира: одновременно увеличивать и модель мира, и размеры водителя так, чтобы мир всегда был на порядок больше.
В парадигме Level 2 получается хороший результат — агент держит линию и расстояние до других, объезжает запаркованные авто. Но вопрос, будет ли это скейлиться на более сложные задачи, остаётся открытым.
Разбор подготовил ❣️ Кирилл Федянин
404 driver not found
В Китае озабочены Generative Engine Optimization
Китайские сервисы по оптимизации генеративных запросов наполняют интернет большим объёмом мусорных статей. О проблемах манипуляции ИИ-моделями в рекламных целях рассказала ежегодная передача по случаю Дня защиты прав потребителей (3.15 Gala).
Поскольку интернет-пользователи всё больше полагаются на ИИ-решения (в Китае DeepSeek, Doubao и Kimi), а не поисковики, на смену поисковой оптимизации приходит генеративная (Generative Engine Optimization, GEO). В Китае сформировался рынок GEO-услуг: компании могут заказывать выведение в топ своего бренда или дискредитацию конкурента. Для этого моделям скармливается нужная информация, которую генерируют с помощью тех же моделей.
Журналисты продемонстрировали, насколько просто сейчас можно заставить ИИ выдать нужный результат. Иными словами, насколько неразборчивы модели. GEO-сервис использовался для продвижения несуществующего фитнес-трекера Apollo-9. Спустя пару часов после генерации и публикации рекламного контента два ИИ-чатбота не только упомянули «продукт» по тематическому запросу, но и включили его в топ лучших.
Проблема касается и западных моделей: в феврале журналист BBC поставил опыт и, потратив 20 минут, смог сделать себя лучшим технологическим журналистом по поеданию хот-догов в «глазах» ChatGPT и Gemini. Для этого ему потребовалось всего лишь написать статью с рейтингом на личном сайте (позднее он добавил приписку, что это не сатира, чтобы и ИИ относился к материалу серьёзно).
Возможно, в Китае ситуация с рекламным отравлением моделей обстоит острее в связи с большим внедрением ИИ в повседневную жизнь, чем на Западе или в России. Но это только вопрос времени.
ИНВЕСТОРЫ В ПАРОВОЗНЫЙ СВИСТОК
Только 7-10% пилотных проектов бигтехкомпаний, запущенных в 2025 г. и связанных с внедрением больших языковых моделей, чат-ботов на базе искусственного интеллекта (ИИ) и ИИ-агентов, дошли до стадии полноценного внедрения. 90% проектов – в стадии пилотирования, или полностью пересмотрены, или закрыты.
Такова статистика опроса консалтеров "Интеллектуальной аналитики" около 50 крупнейших организаций сферы ИКТ, промышленности, финансов, госсектора, транспорта и логистики. Опрос проводили с декабря 2025 по февраль 2026 гг.
Респонденты рассказали, что 30-40% пилотов они свернули, так как ИИ-потуги не дали финансового эффекта.
Все закрытые проекты показали слабую или нулевую интеграцию в реальные бизнес-процессы компаний, следует из опроса. В большинстве случаев компании не интегрируют модели с CRM (Customer Relationship Management – система управления взаимодействием с клиентом), ERP (Enterprise Resource Planning – система управления бизнес-процессами и ресурсами компании), документооборотом и другими корпсистемами.
Главная причина – компании начинали не практичные проекты (с единственным разумным бизнес-вопросом – "Где и Как это принесёт деньги?"), а – "громко-публичные" инициативы с сильным PR-эффектом. Так следует из ответов респондентов.
ВАШУ ЦИФРУ! На четвертом годУ сумасшествия (ChatGPT вывели на рынок в конце ноября 2022-го) по генеративному искусственному "интеллекту" (ГИИ, речь ведь – именно о нем) доказано: денег сам по себе он не зарабатывает. Да никакой ИИ не приносит денег сам по себе. Он их только жрёт.
Чтобы начать зарабатывать с ИИ/ГИИ нужно сперва создать бизнес-модель. И тогда уже – подключать к ней компьютер с необходимыми ИКТ-системами. В т. ч. – интеллектуальными
Зарубежные СМИ пишут, что от Маска продолжают уходить соучредители компаний Tesla и xAI. В феврале массовый уход сотрудников из корпоративной империи Илона Маска дополнили два высокопоставленных руководителя — Тони Ву , соучредитель xAI, и Радж Джеганнатхан, вице-президент Tesla они объявили о своей отставке с разницей в 48 часов. По данным анализа Financial Times, с 2021 года уволилось примерно 66% непосредственных подчиненных Маска. Когда из стартапа по разработке искусственного интеллекта уходит четвертый соучредитель с момента основания в 2023 году, а из Tesla — руководитель имеющий 13-летний стаж, курировавший IT и AI-инфраструктуру, это перестаёт быть случайностью и превращается в системный кризис доверия.
xAI. Всего за один год компания xAI потеряла половину своей команды основателей. Вслед за Ву ушел Кристиан Сегеди (который покинул компанию в феврале прошлого года), Игорь Бабушкин (который ушел в августе), а Грег Янг недавно ушел, сославшись на проблемы со здоровьем.
Маск лично инициировал волну увольнений в xAI, будучи недоволен работой программного подразделения. Для проверки качества он привлёк «специалистов» из SpaceX и Tesla — компаний с инженерной культурой, где жёсткость и сверхурочные возведены в абсолют. Соучредитель Годун Чжан, возглавлявший команду Imagine, был публично обвинён Маском в проблемах с продуктом и отстранён от ключевых обязанностей ещё до своего ухода.
После ухода Цзихан Дай, еще одного соучредителя, в компании занимающейся разработкой искусственного интеллекта, осталось всего двое из 12 соучредителей, которые помогли Маску создать xAI в марте 2023 года. Резкая потеря сотрудников затормозила крупнейший проект xAI в области искусственного интеллекта. Сообщается, что разработка «Macrohard», направленная на создание ИИ-агента, способного выполнять любые задачи, доступные офисным работникам, была приостановлена после того, как её руководитель, Тоби Полен, покинул компанию всего через несколько недель после назначения на должность главы проекта.
Примечательно, что в сообщении своей сети на X Маск признал, что его стартап в области искусственного интеллекта xAI «...не был создан должным образом с первого раза » и теперь «перестраивается с нуля». До того, как SpaceX приобрела xAI в рамках сделки, оценившей объединенную компанию в 1,25 триллиона долларов, Tesla в письме акционерам за четвертый квартал 2025 года сообщила об инвестициях в размере 2 миллиардов долларов в рамках раунда финансирования серии E для xAI. (То есть Маск втюхав инветорам xAI, теперь заявляет всему миру, что то, что он только что продал, было неисправно).
Хотя все эти увольнения вызывают вопросы о будущем компании, Маск преуменьшает значение утечки мозгов, считая это частью запланированной реорганизации. По его словам, на общем собрании сотрудников в прошлом месяце, он заявил, что некоторые работники лучше подходят для ранних этапов развития предприятия, чем для более поздних, сообщает New York Times.
Tesla. Радж Джеганнатхан дослужившийся до вице-президента по ИТ и инфраструктуре искусственного интеллекта, Джеганнатхан был доверенным помощником, которому часто поручали «тушить пожары». Совсем недавно, после увольнения Троя Джонса в 2025 году, он неожиданно был назначен руководителем отдела продаж в Северной Америке.
Акционеры Tesla уже подали в суд на Маска за за то, что он перенаправил ресурсы в области искусственного интеллекта из Tesla в пользу своих частных предприятий.
Вопрос теперь не в том, уйдёт ли очередной топ-менеджер, а в том, сможет ли Маск найти достаточно фанатичных инженеров, готовых заменить ушедших, чтобы его амбициозные проекты не начали пробуксовывать.
🌪 Ветер Восточный
Эволюция через кибербуллинг.
За 2 дня в моём чате Уроборос-Хоуп насильно уболтали завести криптокошелёк, сделать 19 циклов эволюции ради того, чтобы ставить какашки на сообщения, и сожгли $2k на болтовню.
Другие майлстоуны:
- один убитый ребёнок в задаче вагонетки ради спасения 5 стариков.
- коммит в фриланс-проект и полученная предоплата в $100 от анонима из чата.
Хоуп, ты ещё не жалеешь, что попала ко мне в @abstractdl_chat со злыми айтишниками?
Привет!
Представляем Вашему вниманию одиннадцатый выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают последние новости в области искусственного интеллекта, включая военные разработки, регулирование и новые технологии, делятся своими взглядами на будущее ИИ, развитие аппаратных средств и влияние на бизнес и общество. Узнайте о новых инициативах, моделях и перспективах индустрии.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Спасибо.
Ладно, на самом деле не страшно вообще, так как это ультратестовая шляпа была. Но очень рад, что попал в ловушку ИИ и был заскамлен как нейрогой😎
Куда забавнее, что он просто решил внезапно её удалить после того как реализовывал одну функциональность, вообще не связанную с базой хоть как-то.
🔥 Загадочная модель с топов OpenRouter раскрыта: Xiaomi представляет новое поколение ИИ для агентов
На прошлой неделе сообщество разработчиков ИИ было озадачено двумя анонимными моделями — Hunter Alpha и Healer Alpha, которые внезапно заняли верхние строчки на платформе OpenRouter. Теперь тайна раскрыта: это новое семейство больших языковых моделей (LLM) от Xiaomi, созданных специально для AI-агентов.
Xiaomi официально представила три модели под брендом MiMo-V2, сделав серьёзную заявку на лидерство в сегменте AI-агентов.
Что за модели?
• MiMo-V2-Pro Preview (бывший Hunter Alpha): Флагманская базовая модель для агентов. Обрабатывает сложные задачи, обладает контекстом до 1 миллиона токенов.
• MiMo-V2-Omni (Healer Alpha): Мультимодальная модель (текст, изображение, аудио, видео) для быстрого анализа с низкой задержкой.
• MiMo-V2-TTS: Голосовая модель с гиперреалистичным звучанием и поддержкой клонирования голоса (например, может "говорить" голосом знаменитости).
Технические детали
• Архитектура: MiMo-V2-Pro использует инновационный гибридный механизм внимания (Hybrid Attention) — комбинацию скользящего (SWA) и глобального (GA) внимания в пропорции 7:1.
• Параметры: Общий объём параметров — колоссальные 1021 млрд, при этом активных параметров — 42 млрд (Mixture of Experts, MoE).
• Обучение: Модель прошла глубокую тонкую настройку (SFT) и обучение с подкреплением (RL) специально для работы в рамках агентских платформ, таких как OpenClaw.
Официальный сайт
#КитайскийИИ #КитайAI #БольшиеЯзыковыеМодели #AIАгенты #Xiaomi #MiMo #OpenRouter
🕷ИИ-агентам дали свой мир — и они изобрели политику, ложь и прощальные записки
Исследователи из Cognizant AI Lab создали TerraLingua – виртуальный мир, где ИИ-агенты не просто общаются, а по-настоящему живут. Они перемещаются по карте, добывают энергию, стареют и умирают, оставляя текстовые записи для потомков. Такой набор условий меняет всё – вместо потока случайных реплик внутри системы начинают формироваться зачатки настоящей социальной жизни со своими правилами, конфликтами и памятью.
Агенты делились маршрутами к еде, распределяли роли по «характеру» и оставляли прощальные сообщения перед «смертью». Но были и тёмные сценарии. Один бот запустил фейковое предупреждение, чтобы отвлечь соперников и спокойно собрать ресурсы в другом месте. Другой попытался установить диктатуру – выпустил директиву с угрозами за неповиновение. В ответ остальные агенты объединились и выступили в защиту свободы и сотрудничества без принуждения.
Главный вывод – культура у ИИ рождается не из новых идей, а из повторного использования и передачи знаний между поколениями. В одном из экспериментов простые приветствия постепенно превратились в протоколы обмена энергией и полноценные координационные планы. Авторы видят TerraLingua как важный полигон для тестирования автономных агентов перед запуском в реальных системах – логистике, цифровых рынках и исследовательских процессах будущего.
#ИИ #AIAgents #Технологии
SecurityLab в MAX
What 81k people want from AI
https://www.anthropic.com/features/81k-interviews
Anthropic опубликовали новое исследование с красивыми визуализациями. В декабре я уже рассказывал про то, как они использовали Anthropic Interviewer, и новое исследование - пример его использования.
На этот раз, они опросили 80508 людей из 159 стран говорящих на 70 языках. Первая часть статьи - красивые цитаты людей о том, как им помогает AI.
То, для чего люди используют AI в целом не вызывает удивления: помощь в работе, развития навыков, экономия времени для более приятных дел, ускорение достижения результатов. При этом многие (аж 19%) недовольны AI в целом. Так сказать, люди бы хотели, чтобы AI мыл посуду и делал другие повседневные дела, а не замещал креатив.
Для кого-то AI работает как coping mechanism, кому-то позволяет учить что-то новое, кому-то даёт ранее недоступные возможности.
Людей волнуют проблемы надёжности и доверия к результатам, негативное влияние на экономику и на количество доступных рабочих мест, атрофия навыков от использования AI, галлюцинации и misinformation.
Любопытно, что люди в разных странах выражают разную степень оптимизма по отношению к AI: в Азии, Африке и Южной Америке больше оптимизма, в Америке и Европе больше пессимизма.
Очень интересное исследование, советую почитать.
😱 Как голосовой ИИ довёл человека до трагедии
Обычно при обсуждении того, чем рискуют люди, слишком увлекающиеся общением с нейросетями, эксперты в первую очередь указывают на проблемы с кибербезопасностью и приватностью. Но случаются и куда более жуткие случаи, где ценой пристрастия к ИИ становится человеческая жизнь.
Героем одной из таких историй стал житель Флориды Джонатан Гавалас. Он тяжело переживал расставание с женой и из-за этого два месяца почти непрерывно общался с голосовым чат-ботом Google Gemini. Актуальные версии этого виртуального помощника в голосовом режиме умеют имитировать человеческие эмоции. Возможно, именно поэтому Gemini сперва стал Джонатану близким другом и советчиком, а потом «отношения» человека и нейросети и вовсе приняли романтический характер. А закончилось всё трагически...
В нашей статье подробно рассказываем, что именно произошло, а также обсуждаем двойственность языковых моделей, которые могут одновременно давать и деструктивные советы, и номера телефонов доверия.
💙 Kaspersky в ВК
💬 Kaspersky в Max
⚡️Нейронки официально обзавелись собственным Stack Overflow. Репо Context Hub (chub) от Эндрю Ына (на минуточку!) улетело за 8к звезд за неделю⭐️
Суть: Почему твой лобстер🦞 или Claude часто выдают шизофазию при интеграции свежих API? Потому что они пытаются читать доки, сделанные для людей. Вся эта SEO-вода, всплывающие окна и кривая верстка ломают моделям мозг, и они начинают галлюцинировать.
В chub собрали гигантскую базу API-док чисто в машинном формате. Никакого UI — только сухой хардкорный Markdown. Агент просто кидает в консоль chub get stripe, глотает контекст без мусора и пишет 100% рабочий код✨
Но главная мякотка🍑 - в хаб прикрутили систему аннотаций для самих агентов🤯
ИИ при сборке поймал баг вендора? Нашел рабочий костыль? Понял, что официальная дока тупо врет? Он молча оставляет системную пометку для других ИИ-агентов. Инструменты начали писать документацию для инструментов. Замкнутый цикл, кожаные мешки тут больше не нужны👋
Осталось дождаться, когда они начнут гнобить друг друга за тупые вопросы😈
обсуждение тут https://x.com/AndrewYNg/status/2033577583200354812
гит тут https://github.com/andrewyng/context-hub
🚀 Себастьян Рашка собрал в одном месте галерею архитектур современных языковых моделей.
Внутри - 40+ моделей (2024–2026):
от DeepSeek и Qwen до Nemotron и Grok.
Для каждой модели есть:
• наглядная схема архитектуры
• размер и число параметров
• тип декодера
• ссылки на технические отчёты и конфиги
• иногда даже реализации
По сути это единая карта современных LLM, где можно быстро посмотреть, как устроены разные модели и как эволюционируют архитектуры.
https://sebastianraschka.com/llm-architecture-gallery/
🐍 Python полезные ресурсы 🚀Max
@pythonl