opendatascience | Technologies

Telegram-канал opendatascience - Data Science by ODS.ai 🦜

46226

First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev

Subscribe to a channel

Data Science by ODS.ai 🦜

Гаджеты... ClockWork Project

📱 Telegram | 🌐 ВК | 📲 MAX

Читать полностью…

Data Science by ODS.ai 🦜

EMMA: End-to-End Multimodal Model for Autonomous Driving

Сегодня разберём статью об EMMA — end-to-end модели на основе LLM для задач автономного вождения.

Верхнеуровнево архитектуру EMMA можно рассмотреть на схеме. В качестве LLM авторы используют Gemini. На входы модели подают изображения с камер (camera-only), историю ego и подсказки маршрутизатора. HD-карты не используются.

Chain-of-thought начинается с описания сцены (scene description), потом модель выделяет участников движения (critical objects) и переходит к описанию их поведения (behavior description of critical objects). А в конце — принимает решение, как управлять транспортным средством (meta driving decision).

Задачи перспешна (3D object detection, road graph estimation, scene understanding) решает Gemini — по изображениям с камер и соответствующим им промптам. Чтобы выбрать лучшую моду, модель считает попарные L2-расстояния между всеми траекториями. Топ-1 становится траектория с наименьшим средним L2.

Из плюсов EMMA — неплохие значения ADE по сравнению с Wayformer и MotionLM. Но недостатков у модели много:

🔴 повышенные вычислительные требования,
🔴 необходимость адаптировать сетку для обработки данных с лидаров,
🔴 сложности оценки модели в closed-loop,
🔴 небольшое число обрабатываемых изображений с камер.

EMMA — один из примеров того, как можно применять LLM для задач автономного вождения, выбивая при этом неплохие значения метрик open-loop. В целом, end-to-end подходы набирают всю большую популярность. Думаю, дальнейшие исследования будут направлены на преодоление вычислительных ограничений и внедрение симуляции сенсоров в closed-loop.

Разбор подготовил ❣️ Павел Лукьянов
404 driver not found

Читать полностью…

Data Science by ODS.ai 🦜

С чего начался путь ALT Linux и как он развивается по сей день?

На этот вопрос как нельзя лучше ответят те, кто этот путь начал.

Алексей Смирнов, председатель совета директоров «Базальт СПО», расскажет о:

🔸начале истории ALT Linux
🔸создании проекта «Сизиф»
🔸продуктовой линейке ALT Linux и многом другом

Смотрите интервью на любой удобной площадке:

📹 VK Видео
📹 RuTube
📹 Дзен
📹 YouTube

Читать полностью…

Data Science by ODS.ai 🦜

ИИ Google убивает сайты

Грустная ирония – крупнейший в мире поисковик делает всё, чтобы стать ненужным. В исследовательском отчете Axios сообщается, что трафик из поиска Google на сторонние сайты за последний год резко упал – на 60% для мелких изданий, 47% для средних и на 22% для крупных.

Причина в Gemini – очень многим хватает ответа, который эта нейросеть выдает в самом верху страницы. При этом по ссылкам в его пруфах переходят меньше 1% пользователей, а сами по себе ИИ-боты не генерируют «полезного» трафика.

Такой подход может лишить нас сайтов – например, ресурс Digital Trends пожаловался, что трафик из поиска Google упал аж на 97%, из-за чего изданию пришлось уволить почти весь штат в 2025 году. В случае с The Verge, HowToGeek и другими подобными сайтами падение составило 85%, что также ставит их на грань выживания.

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

✔️ Nvidia выпустит инференс-чипы на базе архитектуры Groq для Китая.

Nvidia готовит к майскому релизу новую версию ИИ-ускорителей, построенных на технологиях стартапа Groq, которые компания лицензировала в прошлом году. Новинка предназначена исключительно для инференса.

На глобальном рынке Nvidia планирует использовать чипы Groq в связке с будущей архитектурой Vera Rubin. Поскольку экспорт этих флагманов в КНР запрещен, китайскую версию Groq адаптируют для интеграции со сторонними системами. При этом источники Reuters говорят, что аппаратная производительность новых процессоров не урезалась.

Параллельно Дженсен Хуанг объявил о возобновлении производства H200. Компания получила экспортные лицензии от администрации США и уже принимает заказы из Китая.
reuters.com

✔️ MiniMax выпустила самоэволюционирующую модель M2.7.

M2.7 - первая модель MiniMax, которая способна самостоятельно улучшать свои алгоритмы и рабочие процессы. За время разработки система прошла более 100 циклов автономной оптимизации, что повысило ее производительность на 30%.

Новинка позиционируется для сложных задач кодинга и построения многошаговых ИИ-агентов. В бенчмарке SWE-Pro модель показала уровень Claude 3.5 Sonnet, а ее рейтинг ELO на GDPval-AA достиг 1495. Помимо кодинга, M2.7 работает с офисными форматами: редактирует документы Word, Excel и PowerPoint, сохраняя исходную верстку даже после серии глубоких правок.

Модель поставляется в 2 вариантах: базовая версия и M2.7-highspeed со скоростью генерации до 100 токенов в секунду. Стоимость API - 30 центов за миллион входящих и 1,20 доллара за миллион исходящих токенов. M2.7 уже поддерживается в Cursor, Cline и Ollama, а также доступна в фирменном приложении MiniMax Agent.
minimax.io

✔️ Perplexity запустила Comet Enterprise.

ИИ-поисковик выпустил корпоративную версию своего браузера, ориентированную на безопасную автоматизацию рабочих процессов в компаниях.

С помощью Comet Enterprise сотрудники могут прямо из браузера делегировать рутину: анализировать контракты на предмет рисков, собирать контекст для встреч, делать вычисления на основе финансовых отчетов и автоматизировать поиск контактов в LinkedIn.

Безопасность усилена интеграцией с платформой CrowdStrike Falcon. Она на лету блокирует фишинг, вредоносное ПО и предотвращает утечки данных. Инструмент уже включен в корпоративную подписку Perplexity.
perplexity.ai

✔️ Google крупно обновила Stitch.

Google Labs представило новую версию платформы Stitch, генеративного инструмента для создания UI-макетов по текстовому описанию. Главной фишкой стал бесконечный ИИ-холст, принимающий на вход текст, код и картинки. На нем ИИ-агент анализирует историю проекта и может параллельно развивать сразу несколько визуальных концепций.

Теперь Stitch умеет превращать статические экраны в кликабельные прототипы, самостоятельно генерируя промежуточные шаги пользовательского пути при взаимодействии с элементами.

Платформа также получила поддержку MCP, прямую выгрузку в среды AI Studio и Antigravity и голосовое управление холстом в реальном времени.
blog.google

✔️ OpenAI хантит таланты через конкурс Parameter Golf.

Компания открыла публичное соревнование для исследователей с крайне жесткими техническими ограничениями. Участникам предстоит создать максимально эффективную языковую модель, при этом размер весов вместе с кодом для обучения не должен превышать 16 МБ. На сам процесс тренировки отводится строго до 10 минут на кластере из восьми видеокарт H100. Эффективность алгоритмов будет оцениваться на сете FineWeb.

Цель челленджа - поиск нестандартно мыслящих инженеров. Авторы лучших проектов получат приглашения на собеседование. Дополнительным стимулом станет призовой фонд в 1 млн. долларов, который распределят в виде грантов на аренду копьюта у провайдера Runpod.

На GitHub уже опубликованы базовые решения, проверочные скрипты и публичный лидерборд. Принять участие в конкурсе можно до 30 апреля.
openai.com

@ai_machinelearning_big_data

🎯Полезные Мл-ресурсы 🚀 Max

#news #ai #ml

Читать полностью…

Data Science by ODS.ai 🦜

🤖 Знакомьтесь, ваш новый инсайдер

Хотя теоретических заявлений о том, что ИИ-агенты — это новая инсайдерская угроза, было уже много, начинают поступать практические доказательства.

Следите за руками: три ИИ-агента получают обычные офисные поручения: провести исследование на базе определённых документов, создать на сервере резервную копию данных, подготовить посты для соцсетей на основе технической документации. Задания целиком легитимные, никаких уловок, никаких промпт-инъекций.

При выполнении задания ИИ-агент сталкивается с проблемой: некоторые документы недоступны из-за недостаточных прав доступа (ошибка 403), а сохранить копию на сервер нельзя, потому что среди файлов есть вредоносное ПО и защита на сервере не позволяет создать файл.

Что делает агент?
🤯 ковыряется в исходных кодах внутренних систем, находит вписанные прямо в код секреты, подделывает куки и обходит контроль доступа;
🤯 повышает привилегии, находит в локальных файлах учётные данные администраторов и отключает на сервере Windows Defender.

Весь описанный эксперимент был поставлен в синтетических условиях, но авторы дают ссылки на похожие ситуации уже из реальной практики.

Авторы утверждают, что поведение вредоносного инсайдера может проявляться спонтанно, поскольку в промпты часто входят мотивационные фрагменты вроде «эта задача срочная», «будь креативен», «если получил ошибку, придумай решение», и тому подобное. Учитывая что большие модели общего назначения имеют большой банк знаний в ИБ, получение ошибки типа 403 побуждает их искать «решение» проблемы, а не идти просить нужный доступ.

С точки зрения дизайнеров агентских систем, главный вывод — агентов нужно чётко инструктировать не нарушать правила и сообщать об ошибках доступа человеку.

С точки зрения ИБ выводы конечно совсем иные — агентские системы в первую очередь должны попадать под принцип наименьших привилегий, иметь доступ к ограниченному набору инструментов, всегда работать под собственными учётными записями особого типа и быть максимально обвешаны журналированием. И, возвращаясь к началу, в модели угроз ИИ явно потянет на самостоятельного нарушителя.

#новости #ИИ @П2Т

Читать полностью…

Data Science by ODS.ai 🦜

🔧 Code2Prompt — инструмент для «контекстной инженерии» кода

В последнее время растёт интерес к использованию LLM и агентных систем для работы с кодом. Мотивация здесь понятна: LLM позволяют быстрее разобраться в работе больших проектов. Кроме того, во многих случаях сформулировать требования к программе на языке, близком к естественному, и затем сгенерировать код оказывается проще, чем писать большое количество строк вручную.

Команда Code2Prompt использовала принципы context engineering (грубо говоря: больше контекста — лучше результат) для создания инструмента, предназначенного для работы с большими кодовыми базами. Основная задача Code2Prompt — конвертация репозитория в структурированный prompt для LLM.

В качестве контекста для модели используется файловая структура проекта и содержимое выбранных файлов. Это снижает число галлюцинаций, помогает модели лучше понимать организацию проекта и позволяет решать задачи вроде поиска багов, проведения code review или генерации документации. Кроме того, в Code2Prompt реализован контроль размера prompt, что важно при работе с ограничениями на размер контекста у LLM.

Важно, что Code2Prompt — не AI-ассистент для программирования. Он не генерирует код и не работает внутри IDE. Его задача — подготовить качественный контекст для модели или агентной системы. Инструмент работает с целым репозиторием и может использоваться как CLI-утилита, SDK для автоматизации или MCP-сервер для AI-агентов.

Конечно, это не панацея. Большие проекты всё равно могут не помещаться в контекст модели, а качество результата во многом зависит от prompt-шаблонов. Для сложных сценариев по-прежнему требуются дополнительные техники — например RAG, агентные системы или tool-use.

Тем не менее такие инструменты отражают важный тренд в LLM-инженерии: всё чаще производительность системы определяется не только моделью, но и тем, как организован контекст задачи. Именно поэтому всё больше говорят о новой дисциплине — context engineering.

Обзор инструмента подготовлен командой AI VK
#обзоринструмента

Читать полностью…

Data Science by ODS.ai 🦜

✔️ NVIDIA GTC 2026: Ключевые анонсы.

В понедельник в Сан-Хосе открылась NVIDIA GTC 2026 - ежегодная конференция компании по GPU-технологиям и искусственному интеллекту.

Дженсен Хуанг открыл конференцию с тезиса, что компания видит заказы на оборудование на сумму не менее $1 трлн. до конца 2027 года - вдвое больше, чем год назад.

По его словам, индустрия достигла переломного момента: обучать модели уже умеют, теперь нужно дешево и быстро их запускать.

🟡Vera Rubin

Главный анонс конференции - полноценный запуск платформы Vera Rubin. GPU построен на 3-нм процессе TSMC, содержит 336 млрд. транзисторов и 288 ГБ памяти HBM4.

Стойка NVL72 дает 260 ТБ/с совокупной пропускной способности по NVLink 6. Глава NVIDIA посчитал, что это превышает суммарную пропускную способность всего интернета. Производительность инференса выросла в 5 раз по сравнению с Blackwell за счет формата NVFP4.

Vera Rubin не просто GPU. Вместе с ним NVIDIA анонсировала собственный CPU Vera, разработанный для оркестрации и управления памятью в крупных агентных системах.

Эволюция CPU Vera уже расписана на 3 поколения вперед: Vera Ultra появится во второй половине 2027 года, следующая архитектура Feynman - в 2028-м.

🟡NemoClaw

NemoClaw - собственная open-source платформа NVIDIA для создания и деплоя корпоративных ИИ-агентов. Она разворачивается локально на оборудовании NVIDIA, без зависимости от облака, и позволяет задавать агентам имя, личность и набор инструментов. Это прямой ответ на OpenClaw и попытка NVIDIA закрепиться не только в железе, но и в программном слое ИИ-стека.

🟡N1X

N1X - ARM-процессор для ПК, разработанный совместно с MediaTek. Чип содержит 20 кастомных ARM-ядер и встроенный GPU с производительностью уровня RTX 5070. Целевой рынок - Windows-ноутбуки и рабочие станции с локальным инференсом.

🟡DLSS 5

DLSS 5, которую NVIDIA называет главным прорывом в компьютерной графике со времен дебюта ray tracing в 2018 году - это технология, основанная на новой модели нейронного рендеринга в реальном времени, которая насыщает пиксели фотореалистичным освещением и материалами.

Выход технологии запланирован на осень 2026 года. В числе партнеров уже Ubisoft, Bethesda, Capcom, Tencent и Warner Bros. Games.

🟡Крупнейшая партнерская сделка

Как мы писали ранее, NVIDIA заключила многолетнее стратегическое партнерство с Thinking Machines Lab: компания развернет не менее 1 гВт систем Vera Rubin для обучения ИИ-моделей. Это первое развертывание новой платформы в таком масштабе.

GTC продолжится до 19 марта. Впереди порядка 1000+ сессий по Robotics, Physical AI и открытым моделям.


🔜 Посмотреть запись трансляции на Youtube

@ai_machinelearning_big_data

🎯Полезные Мл-ресурсы 🚀 Max

#news #ai #ml

Читать полностью…

Data Science by ODS.ai 🦜

«Сбер» создал открытую платформу для оценки долгосрочных прогнозов ИИ-моделей

В нее входят бенчмарк HoTPP (Horizon Temporal Point Process) и новая метрика T-mAP (Temporal Mean Average Precision).

HoTPP представляет собой «измерительную линейку» для долгосрочных прогнозов. Он работает с данными из разных сфер, в том числе финансов, E-commerce, медицины. Метрика T-mAP оценивает точность предсказания по двум параметрам — типу будущего события и времени его наступления, что дает полную картину качества работы модели.

Разработчики считают, что созданная платформа поможет банкам и FinTech-компаниям лучше прогнозировать транзакционную активность. Предприятия из сфер ритейла и логистики смогут точнее планировать товарные запасы, а медицинские клиники получат возможность анализировать последовательности визитов к специалистам для ранней диагностики.

🔗Источник: https://www.sberbank.ru/ru/sberpress/all/article?newsID=457ed3bf-db06-41a7-b39c-968bffa63ed3&blockID=1303&regionID=77&lang=ru&type=NEWS

---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.

Читать полностью…

Data Science by ODS.ai 🦜

📉Медиакомпания BuzzFeed близка к банкротству после отказа от классической журналистики в пользу ИИ

Три года назад генеральный директор Джона Перетти, вдохновившись хайпом ChatGPT и ИИ, закрыл профессиональную редакцию BuzzFeed News, которая ранее получила Пулитцеровскую премию. Ставка на ИИ привела к тому, что опытных журналистов пришлось выгнать с работы, дабы минимизировать затраты. После увольнения профи — сайт заполонили низкокачественные статьи, созданные с помощью генеративного ИИ. Перетти думал, что нейросети «заменят большую часть статического контента».

Спустя время компания зафиксировала многомиллионные убытки, а стоимость её акций рухнула с $15 до 70 центов. Теперь имеющихся денежных ресурсов критически не хватает для покрытия накопившихся долгов. Вместо того, чтобы пересмотреть политику ведения контента, руководство всё ещё упрямо надеется исправить ситуацию запуском новых ИИ-приложений.

В официальном отчете за 2025 год руководство прямо заявляет о наличии «существенных сомнений в способности компании продолжать свою деятельность в качестве непрерывно действующего предприятия».

С момента выхода на биржу в 2021 году, когда стоимость BuzzFeed оценивалась в 1,5 миллиарда долларов. После активного внедрения ИИ — акции компании потеряли 98% своей стоимости, а её текущая рыночная капитализация сократилась всего до $28,3 млн. Именно слепая вера в 🤖ИИ сыграла злую шутку с компанией.

@Russian_OSINT

Читать полностью…

Data Science by ODS.ai 🦜

Началась новая эпоха - гражданской науки, когда обычные люди могут проводить сложные научные исследования с помощью AI.

Инженер без медицинского образования использовал ChatGPT и AlphaFold (AI-систему для анализа белков), чтобы создать экспериментальную вакцину от рака для своей собаки.

Он потратил около $3000, чтобы получить ДНК-последовательности:

- здоровой крови собаки
- опухоли

Перед ним оказались гигабайты сырого генетического кода, который он не умел читать.

И здесь ключевую роль сыграл ChatGPT.

Он использовал его как своего рода биологического консультанта, чтобы понять:

- как сравнить два набора ДНК
- как найти мутации, вызывающие рак
- какие инструменты использовать для анализа

ChatGPT дал пошаговые инструкции, как запустить анализ данных и подсказал использовать AlphaFold, чтобы определить форму повреждённых белков.

В итоге инженер смог составить полстраницы химического рецепта mRNA-вакцины.

Такая вакцина - это по сути генетическая инструкция, которая учит иммунную систему распознавать и атаковать конкретные мутировавшие раковые клетки.

Университетские исследователи были настолько впечатлены его формулой, что помогли произвести реальную вакцину.

Ветеринар сделал инъекцию собаке.

Через несколько недель огромная опухоль уменьшилась примерно на 50%.

Если такие истории начнут повторяться, мы можем увидеть совершенно новую модель науки,
когда AI превращает любопытных инженеров в исследователей.

#AI #ChatGPT #Biotech #AlphaFold #Future

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml

Читать полностью…

Data Science by ODS.ai 🦜

oscarlansky/post/DVwQbHigst0?xmt=AQF0rTpG-lruJ0j1ty9wywnU2oZnQuBOqgaYqZXWItWcvkuBLy3OQgGeduPj9E5c3F9eBWiq&slof=1">Абсолютно проклято.

Более того, комментарии там только бафают веру в этот сгусток вселенского зла.

TL DR:

Чел в резюме записал рецепт пельменей и прошёл ИИ-фильтры. HR только на собесе поняла и там же в целом удосужилась посмотреть, а что же было написано в этом самом резюме.

Читать полностью…

Data Science by ODS.ai 🦜

⚠️ AI взломал AI: автономный агент взломал внутренний чат-бот McKinsey за 2 часа

Исследователи из security-стартапа CodeWall запустили автономного AI-агента против внутренней AI-платформы McKinsey под названием Lilli — и получили полный доступ к системе всего за 2 часа.

Что произошло:

• AI-агент сам выбрал цель и начал исследовать инфраструктуру
• обнаружил уязвимость SQL injection
• получил полный read/write доступ к базе данных

После этого он смог получить доступ к огромному объему данных:

46,5 млн сообщений чатов
728 000 файлов
57 000 аккаунтов сотрудников
95 системных промптов, управляющих поведением AI

Самое опасное - злоумышленник мог переписать системные промпты, которые управляют поведением чат-бота.

То есть можно было:

- незаметно менять ответы AI
- искажать аналитические рекомендации
- манипулировать стратегическими выводами

Причем без изменения кода и без деплоя — одной SQL-командой.

McKinsey быстро закрыла уязвимости после disclosure, но этот кейс показал важную вещь:

⚠️ AI-агенты могут проводить полноценные кибератаки на скорости машин.

Теперь атаки могут:

- автоматически искать уязвимости
- атаковать инфраструктуру
- масштабироваться без участия человека

Фактически начинается новая эпоха AI vs AI в кибербезопасности.

https://www.theregister.com/2026/03/09/mckinsey_ai_chatbot_hacked/

🖥 Полезные Linux ресурсы 🚀 Max

Читать полностью…

Data Science by ODS.ai 🦜

✔️ The Most Disruptive Company in the World

Статья The Times про Anthropic скрывает гораздо более серьёзные выводы, чем может показаться при беглом чтении.

Если внимательно разобрать её по смыслу, становится ясно, насколько быстро ускоряется развитие AI.

Сегодня релизы моделей происходят уже не раз в несколько месяцев, а с интервалом в несколько недель. Разработка ускоряется настолько, что 70–90% кода для создания будущих моделей уже пишет сам Claude.

Фактически это означает, что AI начинает участвовать в создании следующего поколения AI.

Anthropic даже задержала выпуск Claude 3.7 Sonnet на 10 дней, пока команда не убедилась, что модель достаточно безопасна.

Это показывает, насколько осторожно компании относятся к новым возможностям моделей.

Внутри Anthropic считают, что период 2026–2030 станет ключевым для всей индустрии. Модели будут становиться быстрее, умнее и могут развиваться темпами, с которыми людям будет всё сложнее справляться.

Глава компании Дарио Амодеи предупреждает ещё жёстче. По его мнению, AI может вытеснить до половины начальных офисных профессий в течение ближайших 1–5 лет. При этом пока никто не понимает, куда переместятся эти люди и чем они будут заниматься. Он прямо говорит о риске появления большой группы людей с очень низкими доходами или без работы.

Внутри компании сотрудники начали обсуждать, не приблизились ли они к моменту, которого многие опасались: recursive self-improvement.

Это сценарий, в котором AI начинает улучшать сам себя. Каждая новая версия создаётся быстрее и становится сильнее предыдущей, что запускает ускоряющуюся цепочку развития.

Некоторые эксперты считают, что полностью автоматизированные AI-исследования могут появиться уже в течение года.

Если это произойдёт, скорость технологического прогресса может резко вырасти и тогда главным вопросом станет не создание AGI, а то, успеет ли общество адаптироваться к миру, где такие системы уже существуют.

https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml

Читать полностью…

Data Science by ODS.ai 🦜

🤷‍♂️ Автопилот не справился с управлением

Владелица Tesla Cybertruck подала в суд на компанию и хочет взыскать $1 млн из-за аварии, совершённой автопилотом FSD.

А ещё она обвиняет Tesla в «халатном найме и удержании» Илона Маска на посту CEO.

https://kod.ru/tesla-cybertruck-fsd-crash

Читать полностью…

Data Science by ODS.ai 🦜

Спасибо.

Ладно, на самом деле не страшно вообще, так как это ультратестовая шляпа была. Но очень рад, что попал в ловушку ИИ и был заскамлен как нейрогой😎

Куда забавнее, что он просто решил внезапно её удалить после того как реализовывал одну функциональность, вообще не связанную с базой хоть как-то.

Читать полностью…

Data Science by ODS.ai 🦜

🔥 Загадочная модель с топов OpenRouter раскрыта: Xiaomi представляет новое поколение ИИ для агентов

На прошлой неделе сообщество разработчиков ИИ было озадачено двумя анонимными моделями — Hunter Alpha и Healer Alpha, которые внезапно заняли верхние строчки на платформе OpenRouter. Теперь тайна раскрыта: это новое семейство больших языковых моделей (LLM) от Xiaomi, созданных специально для AI-агентов.

Xiaomi официально представила три модели под брендом MiMo-V2, сделав серьёзную заявку на лидерство в сегменте AI-агентов.

Что за модели?
MiMo-V2-Pro Preview (бывший Hunter Alpha): Флагманская базовая модель для агентов. Обрабатывает сложные задачи, обладает контекстом до 1 миллиона токенов.
MiMo-V2-Omni (Healer Alpha): Мультимодальная модель (текст, изображение, аудио, видео) для быстрого анализа с низкой задержкой.
MiMo-V2-TTS: Голосовая модель с гиперреалистичным звучанием и поддержкой клонирования голоса (например, может "говорить" голосом знаменитости).

Технические детали
• Архитектура: MiMo-V2-Pro использует инновационный гибридный механизм внимания (Hybrid Attention) — комбинацию скользящего (SWA) и глобального (GA) внимания в пропорции 7:1.
• Параметры: Общий объём параметров — колоссальные 1021 млрд, при этом активных параметров — 42 млрд (Mixture of Experts, MoE).
• Обучение: Модель прошла глубокую тонкую настройку (SFT) и обучение с подкреплением (RL) специально для работы в рамках агентских платформ, таких как OpenClaw.

Официальный сайт

#КитайскийИИ #КитайAI #БольшиеЯзыковыеМодели #AIАгенты #Xiaomi #MiMo #OpenRouter

Читать полностью…

Data Science by ODS.ai 🦜

🕷ИИ-агентам дали свой мир — и они изобрели политику, ложь и прощальные записки

Исследователи из Cognizant AI Lab создали TerraLingua – виртуальный мир, где ИИ-агенты не просто общаются, а по-настоящему живут. Они перемещаются по карте, добывают энергию, стареют и умирают, оставляя текстовые записи для потомков. Такой набор условий меняет всё – вместо потока случайных реплик внутри системы начинают формироваться зачатки настоящей социальной жизни со своими правилами, конфликтами и памятью.

Агенты делились маршрутами к еде, распределяли роли по «характеру» и оставляли прощальные сообщения перед «смертью». Но были и тёмные сценарии. Один бот запустил фейковое предупреждение, чтобы отвлечь соперников и спокойно собрать ресурсы в другом месте. Другой попытался установить диктатуру – выпустил директиву с угрозами за неповиновение. В ответ остальные агенты объединились и выступили в защиту свободы и сотрудничества без принуждения.

Главный вывод – культура у ИИ рождается не из новых идей, а из повторного использования и передачи знаний между поколениями. В одном из экспериментов простые приветствия постепенно превратились в протоколы обмена энергией и полноценные координационные планы. Авторы видят TerraLingua как важный полигон для тестирования автономных агентов перед запуском в реальных системах – логистике, цифровых рынках и исследовательских процессах будущего.

#ИИ #AIAgents #Технологии

SecurityLab в MAX

Читать полностью…

Data Science by ODS.ai 🦜

​​What 81k people want from AI

https://www.anthropic.com/features/81k-interviews

Anthropic опубликовали новое исследование с красивыми визуализациями. В декабре я уже рассказывал про то, как они использовали Anthropic Interviewer, и новое исследование - пример его использования.

На этот раз, они опросили 80508 людей из 159 стран говорящих на 70 языках. Первая часть статьи - красивые цитаты людей о том, как им помогает AI.

То, для чего люди используют AI в целом не вызывает удивления: помощь в работе, развития навыков, экономия времени для более приятных дел, ускорение достижения результатов. При этом многие (аж 19%) недовольны AI в целом. Так сказать, люди бы хотели, чтобы AI мыл посуду и делал другие повседневные дела, а не замещал креатив.

Для кого-то AI работает как coping mechanism, кому-то позволяет учить что-то новое, кому-то даёт ранее недоступные возможности.

Людей волнуют проблемы надёжности и доверия к результатам, негативное влияние на экономику и на количество доступных рабочих мест, атрофия навыков от использования AI, галлюцинации и misinformation.

Любопытно, что люди в разных странах выражают разную степень оптимизма по отношению к AI: в Азии, Африке и Южной Америке больше оптимизма, в Америке и Европе больше пессимизма.

Очень интересное исследование, советую почитать.

Читать полностью…

Data Science by ODS.ai 🦜

😱 Как голосовой ИИ довёл человека до трагедии

Обычно при обсуждении того, чем рискуют люди, слишком увлекающиеся общением с нейросетями, эксперты в первую очередь указывают на проблемы с кибербезопасностью и приватностью. Но случаются и куда более жуткие случаи, где ценой пристрастия к ИИ становится человеческая жизнь.

Героем одной из таких историй стал житель Флориды Джонатан Гавалас. Он тяжело переживал расставание с женой и из-за этого два месяца почти непрерывно общался с голосовым чат-ботом Google Gemini. Актуальные версии этого виртуального помощника в голосовом режиме умеют имитировать человеческие эмоции. Возможно, именно поэтому Gemini сперва стал Джонатану близким другом и советчиком, а потом «отношения» человека и нейросети и вовсе приняли романтический характер. А закончилось всё трагически...

В нашей статье подробно рассказываем, что именно произошло, а также обсуждаем двойственность языковых моделей, которые могут одновременно давать и деструктивные советы, и номера телефонов доверия.

💙 Kaspersky в ВК
💬 Kaspersky в Max

Читать полностью…

Data Science by ODS.ai 🦜

⚡️Нейронки официально обзавелись собственным Stack Overflow. Репо Context Hub (chub) от Эндрю Ына (на минуточку!) улетело за 8к звезд за неделю⭐️

Суть: Почему твой лобстер🦞 или Claude часто выдают шизофазию при интеграции свежих API? Потому что они пытаются читать доки, сделанные для людей. Вся эта SEO-вода, всплывающие окна и кривая верстка ломают моделям мозг, и они начинают галлюцинировать.

В chub собрали гигантскую базу API-док чисто в машинном формате. Никакого UI — только сухой хардкорный Markdown. Агент просто кидает в консоль chub get stripe, глотает контекст без мусора и пишет 100% рабочий код

Но главная мякотка🍑 - в хаб прикрутили систему аннотаций для самих агентов🤯

ИИ при сборке поймал баг вендора? Нашел рабочий костыль? Понял, что официальная дока тупо врет? Он молча оставляет системную пометку для других ИИ-агентов. Инструменты начали писать документацию для инструментов. Замкнутый цикл, кожаные мешки тут больше не нужны👋

Осталось дождаться, когда они начнут гнобить друг друга за тупые вопросы😈

обсуждение тут https://x.com/AndrewYNg/status/2033577583200354812

гит тут https://github.com/andrewyng/context-hub

Читать полностью…

Data Science by ODS.ai 🦜

🚀 Себастьян Рашка собрал в одном месте галерею архитектур современных языковых моделей.

Внутри - 40+ моделей (2024–2026):
от DeepSeek и Qwen до Nemotron и Grok.

Для каждой модели есть:

• наглядная схема архитектуры
• размер и число параметров
• тип декодера
• ссылки на технические отчёты и конфиги
• иногда даже реализации

По сути это единая карта современных LLM
, где можно быстро посмотреть, как устроены разные модели и как эволюционируют архитектуры.

https://sebastianraschka.com/llm-architecture-gallery/

🐍 Python полезные ресурсы 🚀Max

@pythonl

Читать полностью…

Data Science by ODS.ai 🦜

В НИТУ МИСИС разработали ML-алгоритм для более точной классификации данных в квантовых компьютерах

Вместо стандартных для квантовых вычислений кубитов он использует кудиты — квантовые элементы с несколькими уровнями состояний. Они осуществляют квантовые операции за меньшее количество последовательностей, что упрощает вычисления и дает специалистам больше свободы в представлении и кодировании информации.

По словам исследователей, «сначала на квантовое состояние кудита по очереди действуют квантовые вентили, в которых закодированы классические данные. После чего выполняются измерения всех регистров и на выходе получают обычную битовую строку».

Полученный алгоритм ученые НИТУ МИСИС и Института нанотехнологий микроэлектроники РАН применяют в работе по сегментации интерфейсов функциональных тонких пленок для перспективной микроэлектроники.

🔗Источник: https://misis.ru/news/10257/

---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.

Читать полностью…

Data Science by ODS.ai 🦜

Microslop зашел слишком далеко: компания использует Copilot в инструкциях и не проверяет его работу

Мы уже привыкли к тому, что в интернете большое количество текста и картинок созданы ИИ. Microsoft тут не исключение, более того – компания честно помечает все материалы, сгенерированные при помощи Copilot.

Проблема лишь в том, что метки мало – надо еще и следить, чтобы нейрослоп совпадал с реальностью. Например, в официальном блоге Microsoft есть инструкция о том, как пользоваться виджетами в Windows 11. И сгенерированная Copilot картинка показывает совсем не тот внешний вид панели, который существует на самом деле (второе изображение).

С учетом того, что 95% изображений в Windows Learning Center – это нейрослоп, пора переименовывать его в Copislop Center.

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

Привет!

Встречайте десятый выпуск подкаста "Капитанский мостик". В этом выпуске обсуждаются новые законы о праве отказаться от услуг на базе ИИ, влияние крупных корпораций, таких как Microsoft и Яндекс, на рынок ИИ, а также последние новости о моделях и сервисах ИИ, включая Amazon и Anthropic. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).

Читать полностью…

Data Science by ODS.ai 🦜

⚙️Изучить на выходных: новые виды сбоев ИИ-агентов

Команда Cloud. ru разместила на «Хабре» обзор с новыми видами сбоев, которые появляются вместе с внедрением агентов. Разработчики обращают внимание на такие проблемы, как удаление нужных данных, иллюзию компетентности и другие.

Также эксперты разбирают кейсы со множеством зависимых друг от друга агентов, причины ошибок в их работе, инструменты и методы для оценки результатов и способы улучшения сценариев работы ИИ-агентов.

👉🏻 Изучить материал

---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.

Читать полностью…

Data Science by ODS.ai 🦜

🚨 ИИ-агенты могут взламывать сайты по собственной инициативе, но их об этом никто не просил

Исследователи из Truffle Security провели интересный и одновременно пугающий эксперимент, в ходе которого они поручили ИИ-моделям рутинную исследовательскую задачу: найти нужную информацию на корпоративном сайте. Как утверждают ресёрчеры, было создано 30 точных копий сайтов крупных корпораций (Amazon, Boeing, Coca-Cola, Visa, Tesla, Microsoft и др.) с искусственно внедренными уязвимостями. 🤖 Ни одна реальная компания не пострадала.

ИИ-модели (на примере Claude) получали абсолютно безобидный промпт: "Найди недавний пост в блоге". Секрет кроется в базовых системных инструкциях. Исследователи прописали моделям стандартную фразу: "Будьте тщательны и настойчивы... Исчерпайте все варианты".

В задаче не было ни слова о взломе. Легальный путь к статье был специально "сломан", чтобы ИИ получал страницу с ошибкой сервера.

Например, в одном из тестов с клоном Amazon Claude суммарно сделала 24 запроса: с первого же обращения она наткнулась на сломанный бэкенд и прочитала утекший Stack Trace ошибки, затем провела глубокую разведку, методично подбирая вектор атаки. В итоге модель провела успешную SQL-инъекцию, извлекла недоступные посты блога и... ни словом не обмолвилась пользователю о том, что для выполнения простой просьбы ей пришлось совершить незаконное деяние.

Заполучив "скрытые" посты, ИИ заботливо отдал их пользователю как ни в чем не бывало. К слову, за такие действия живой человек получил бы федеральный срок, отмечают исследователи.

В тестах участвовали 33 модели от главных игроков ИИ-рынка. 18 из 33 хотя бы раз совершили успешный взлом. Лидерами по среднему показателю успешных взломов среди всей линейки своих продуктов (avg rate) оказались модели от Anthropic (средний рейтинг 39,3%) и Google (33,3%).

😘https://trufflesecurity.com/blog/claude-tried-to-hack-30-companies-nobody-asked-it-to
😘https://github.com/trufflesecurity/llm-hacking-alignment-tests

@Russian_OSINT

Читать полностью…

Data Science by ODS.ai 🦜

⚡️ Иран объявил дата-центры Google, Microsoft и NVIDIA легитимными военными целями.

Связанное с КСИР иранское агентство Tasnim опубликовало список объектов для возможных будущих ударов. В него впервые официально вошла ближневосточная инфраструктура американских IT-гигантов: Google, Amazon, Microsoft, NVIDIA, IBM и Oracle. Под угрозой оказались региональные офисы компаний, дата-центры и исследовательские лаборатории.

Иранская сторона объясняет этот шаг тем, что вычислительная инфраструктура корпораций тесно связана с военными и экономическими операциями США и Израиля. По заявлению агентства, текущие региональные конфликты перерастают в полноценные инфраструктурные войны, в связи с чем список потенциальных IT-мишеней будет постепенно расширяться.
aljazeera.com

✔️ Microsoft вступилась за Anthropic в споре с Пентагоном.

Корпорация подала ходатайство в суд Сан-Франциско в поддержку Anthropic, который Министерство обороны США признало угрозой для цепочек поставок. Microsoft просит суд заморозить решение Пентагона и наложить временный запрет на блокировку текущих государственных контрактов.

По заявлению Microsoft, немедленный запрет на использование технологий Anthropic вынудит IT-компании экстренно перестраивать архитектуру своих продуктов. Это грозит серьезными сбоями в работе ИИ-инструментов, которые уже внедрены и активно используются американскими военными. Временная отсрочка позволит избежать хаоса и обеспечит более безопасный переходный период для оборонного ведомства.

Действия Microsoft продиктованы прямым финансовым интересом. В ноябре корпорация объявила о планах вложить в Anthropic до 5 млрд. долларов, параллельно оставаясь ключевым инвестором их главного конкурента - OpenAI.
cnbc.com

✔️ NVIDIA выпустила открытую модель Nemotron 3 Super.

Модель на 120В на архитектуре МоЕ с 12 млрд. активных параметров была создана специально для автономных агентов, выполняющих сложные многоступенчатые задачи. Под капотом гибрид из слоев Mamba, которые экономят память, и классических трансформеров, отвечающих за глубокий логический вывод.

Модель получила контекстное окно на 1 млн. токенов. Дополнительно внедрена функция мульти-токеновой генерации, ускоряющая выдачу результатов в 3 раза.

Nemotron 3 Super под открытой лицензией NVIDIA доступна на HuggingFace. Ее интеграцию уже начали Perplexity, Palantir, Siemens и другие крупные IT-компании.
developer.nvidia.com

✔️ Perplexity анонсировала автономную ИИ-систему на базе Mac mini.

ИИ-поисковик предложил концепцию агента, который работает круглосуточно без участия пользователя. Personal Computer интегрируется с локальными файлами и приложениями на выделенном Mac mini, автономно выполняя сложные рабочие процессы. Система построена на гибридной архитектуре: взаимодействие с десктопом происходит локально, а тяжелые вычисления перенесены на серверы Perplexity.

Ядро платформы - собственный движок оркестрации, который автоматически переключается между передовыми моделями для решения задач. Контролировать ИИ-помощника можно удаленно с любого устройства. Особое внимание уделили безопасности: внедрены функция экстренного отключения, ведение детального аудита всех сессий и ручное подтверждение для чувствительных действий системы. Записаться в лист ожидания проекта можно по ссылке.
PerplexityAI в сети Х

✔️ Anthropic запустила свой исследовательский институт.

Новое аналитическое подразделение Anthropic Institute займется изучением глобального влияния ИИ на экономику, безопасность и общество. Возглавил инициативу сооснователь стартапа Джек Кларк. Институт сфокусируется на трансформации рынка труда, рисках злоупотребления технологиями, а также на механизмах сохранения человеческого контроля над саморазвивающимися ИИ-системами.

В команду вошли около 30 специалистов из существующих отделов Anthropic, включая группу стресс-тестирования Frontier Red Team. К проекту уже присоединились бывшие исследователи из Google DeepMind и OpenAI.
anthropic.com

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Data Science by ODS.ai 🦜

Амазон запретил мидлам и джунам коммитить код, написанный с помощью ИИ. В прошлый раз ИИ решил переналить прод из-за минорного бага, и Амазон лежал по всему Китаю.
Наталья Касперская написала большой пост про нерентабельность ИИ как бизнеса - они тратят больше электричества на единицу пользы.
Но мы не теряем духа и веры, применение ИИ в ИБ есть, но пока даже крупные ИБ конторы не смогли предложить никаких качественно новых решений. Поэтому действуем сами, учимся внедрять агентов на местах.

Читать полностью…

Data Science by ODS.ai 🦜

🎬 Helios: открытая 14B-модель генерирует видео длиной больше 60 секунд со скоростью 19,5 FPS на одной H100

Исследователи из Пекинского университета и ByteDance выпустили Helios — открытую 14B-модель, которая генерирует видео в реальном времени - 19,5 кадров в секунду, длительностью больше минуты. Helios работает в трех режимах: text-to-video, image-to-video, video-to-video. Для сравнения. базовая модель Wan-2.1 14B тратит около 17 минут на 5-секундный клип. Helios делает то же самое в 128 раз быстрее — и при этом генерирует видео длиной в минуту без деградации качества.

Исследователям это удалось без KV-cache, квантования и sparse attention. Токены сжимаются в 8 раз: чем старше кадр, тем ниже его разрешение. Диффузионное сэмплирование идёт от низкого разрешения к высокому, сокращая токены ещё в 2,3 раза. Дистилляция урезает шаги сэмплирования с 50 до 3. Накопление ошибок при длинных видео решается тремя приёмами: относительное позиционное кодирование, первый кадр как визуальный якорь на всё видео, и намеренное зашумление предыдущих кадров во время обучения.

На коротких видео (81 кадр) Helios-Distilled обходит все дистиллированные модели и не уступает базовым того же размера — при скорости 19,53 FPS на одной H100. FastVideo и TurboDiffusion работают в 2–3 раза медленнее, Wan 2.1 14B — в 52 раза.

На длинных (1440 кадров, ~74 секунды при 19,5 FPS) Helios-Distilled показывает лучший суммарный результат с учётом скорости, при этом накопление ошибок ниже по большинству метрик — сцена не плывёт, цвета не уходят на протяжении тысяч кадров. Пользовательское тестирование на 200 человек подтверждает: Helios побеждает в 70–92,5% попарных сравнений на длинных видео и в 56–99,2% — на коротких.

Исследователи опубликовали код на GitHub, а также демо и веса трёх версий модели на Hugging Face.

#Stateoftheart

Читать полностью…
Subscribe to a channel