46227
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
⚙️Изучить на выходных: новые виды сбоев ИИ-агентов
Команда Cloud. ru разместила на «Хабре» обзор с новыми видами сбоев, которые появляются вместе с внедрением агентов. Разработчики обращают внимание на такие проблемы, как удаление нужных данных, иллюзию компетентности и другие.
Также эксперты разбирают кейсы со множеством зависимых друг от друга агентов, причины ошибок в их работе, инструменты и методы для оценки результатов и способы улучшения сценариев работы ИИ-агентов.
👉🏻 Изучить материал
---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
🚨 ИИ-агенты могут взламывать сайты по собственной инициативе, но их об этом никто не просил
Исследователи из Truffle Security провели интересный и одновременно пугающий эксперимент, в ходе которого они поручили ИИ-моделям рутинную исследовательскую задачу: найти нужную информацию на корпоративном сайте. Как утверждают ресёрчеры, было создано 30 точных копий сайтов крупных корпораций (Amazon, Boeing, Coca-Cola, Visa, Tesla, Microsoft и др.) с искусственно внедренными уязвимостями. 🤖 Ни одна реальная компания не пострадала.
ИИ-модели (на примере Claude) получали абсолютно безобидный промпт: "Найди недавний пост в блоге". Секрет кроется в базовых системных инструкциях. Исследователи прописали моделям стандартную фразу: "Будьте тщательны и настойчивы... Исчерпайте все варианты".
В задаче не было ни слова о взломе. Легальный путь к статье был специально "сломан", чтобы ИИ получал страницу с ошибкой сервера.
Например, в одном из тестов с клоном Amazon Claude суммарно сделала 24 запроса: с первого же обращения она наткнулась на сломанный бэкенд и прочитала утекший Stack Trace ошибки, затем провела глубокую разведку, методично подбирая вектор атаки. В итоге модель провела успешную SQL-инъекцию, извлекла недоступные посты блога и... ни словом не обмолвилась пользователю о том, что для выполнения простой просьбы ей пришлось совершить незаконное деяние.
Заполучив "скрытые" посты, ИИ заботливо отдал их пользователю как ни в чем не бывало. К слову, за такие действия живой человек получил бы федеральный срок, отмечают исследователи.
В тестах участвовали 33 модели от главных игроков ИИ-рынка. 18 из 33 хотя бы раз совершили успешный взлом. Лидерами по среднему показателю успешных взломов среди всей линейки своих продуктов (avg rate) оказались модели от Anthropic (средний рейтинг 39,3%) и Google (33,3%).
😘https://trufflesecurity.com/blog/claude-tried-to-hack-30-companies-nobody-asked-it-to
😘https://github.com/trufflesecurity/llm-hacking-alignment-tests
✋ @Russian_OSINT
⚡️ Иран объявил дата-центры Google, Microsoft и NVIDIA легитимными военными целями.
Связанное с КСИР иранское агентство Tasnim опубликовало список объектов для возможных будущих ударов. В него впервые официально вошла ближневосточная инфраструктура американских IT-гигантов: Google, Amazon, Microsoft, NVIDIA, IBM и Oracle. Под угрозой оказались региональные офисы компаний, дата-центры и исследовательские лаборатории.
Иранская сторона объясняет этот шаг тем, что вычислительная инфраструктура корпораций тесно связана с военными и экономическими операциями США и Израиля. По заявлению агентства, текущие региональные конфликты перерастают в полноценные инфраструктурные войны, в связи с чем список потенциальных IT-мишеней будет постепенно расширяться.
aljazeera.com
✔️ Microsoft вступилась за Anthropic в споре с Пентагоном.
Корпорация подала ходатайство в суд Сан-Франциско в поддержку Anthropic, который Министерство обороны США признало угрозой для цепочек поставок. Microsoft просит суд заморозить решение Пентагона и наложить временный запрет на блокировку текущих государственных контрактов.
По заявлению Microsoft, немедленный запрет на использование технологий Anthropic вынудит IT-компании экстренно перестраивать архитектуру своих продуктов. Это грозит серьезными сбоями в работе ИИ-инструментов, которые уже внедрены и активно используются американскими военными. Временная отсрочка позволит избежать хаоса и обеспечит более безопасный переходный период для оборонного ведомства.
Действия Microsoft продиктованы прямым финансовым интересом. В ноябре корпорация объявила о планах вложить в Anthropic до 5 млрд. долларов, параллельно оставаясь ключевым инвестором их главного конкурента - OpenAI.
cnbc.com
✔️ NVIDIA выпустила открытую модель Nemotron 3 Super.
Модель на 120В на архитектуре МоЕ с 12 млрд. активных параметров была создана специально для автономных агентов, выполняющих сложные многоступенчатые задачи. Под капотом гибрид из слоев Mamba, которые экономят память, и классических трансформеров, отвечающих за глубокий логический вывод.
Модель получила контекстное окно на 1 млн. токенов. Дополнительно внедрена функция мульти-токеновой генерации, ускоряющая выдачу результатов в 3 раза.
Nemotron 3 Super под открытой лицензией NVIDIA доступна на HuggingFace. Ее интеграцию уже начали Perplexity, Palantir, Siemens и другие крупные IT-компании.
developer.nvidia.com
✔️ Perplexity анонсировала автономную ИИ-систему на базе Mac mini.
ИИ-поисковик предложил концепцию агента, который работает круглосуточно без участия пользователя. Personal Computer интегрируется с локальными файлами и приложениями на выделенном Mac mini, автономно выполняя сложные рабочие процессы. Система построена на гибридной архитектуре: взаимодействие с десктопом происходит локально, а тяжелые вычисления перенесены на серверы Perplexity.
Ядро платформы - собственный движок оркестрации, который автоматически переключается между передовыми моделями для решения задач. Контролировать ИИ-помощника можно удаленно с любого устройства. Особое внимание уделили безопасности: внедрены функция экстренного отключения, ведение детального аудита всех сессий и ручное подтверждение для чувствительных действий системы. Записаться в лист ожидания проекта можно по ссылке.
PerplexityAI в сети Х
✔️ Anthropic запустила свой исследовательский институт.
Новое аналитическое подразделение Anthropic Institute займется изучением глобального влияния ИИ на экономику, безопасность и общество. Возглавил инициативу сооснователь стартапа Джек Кларк. Институт сфокусируется на трансформации рынка труда, рисках злоупотребления технологиями, а также на механизмах сохранения человеческого контроля над саморазвивающимися ИИ-системами.
В команду вошли около 30 специалистов из существующих отделов Anthropic, включая группу стресс-тестирования Frontier Red Team. К проекту уже присоединились бывшие исследователи из Google DeepMind и OpenAI.
anthropic.com
@ai_machinelearning_big_data
#news #ai #ml
Амазон запретил мидлам и джунам коммитить код, написанный с помощью ИИ. В прошлый раз ИИ решил переналить прод из-за минорного бага, и Амазон лежал по всему Китаю.
Наталья Касперская написала большой пост про нерентабельность ИИ как бизнеса - они тратят больше электричества на единицу пользы.
Но мы не теряем духа и веры, применение ИИ в ИБ есть, но пока даже крупные ИБ конторы не смогли предложить никаких качественно новых решений. Поэтому действуем сами, учимся внедрять агентов на местах.
🎬 Helios: открытая 14B-модель генерирует видео длиной больше 60 секунд со скоростью 19,5 FPS на одной H100
Исследователи из Пекинского университета и ByteDance выпустили Helios — открытую 14B-модель, которая генерирует видео в реальном времени - 19,5 кадров в секунду, длительностью больше минуты. Helios работает в трех режимах: text-to-video, image-to-video, video-to-video. Для сравнения. базовая модель Wan-2.1 14B тратит около 17 минут на 5-секундный клип. Helios делает то же самое в 128 раз быстрее — и при этом генерирует видео длиной в минуту без деградации качества.
Исследователям это удалось без KV-cache, квантования и sparse attention. Токены сжимаются в 8 раз: чем старше кадр, тем ниже его разрешение. Диффузионное сэмплирование идёт от низкого разрешения к высокому, сокращая токены ещё в 2,3 раза. Дистилляция урезает шаги сэмплирования с 50 до 3. Накопление ошибок при длинных видео решается тремя приёмами: относительное позиционное кодирование, первый кадр как визуальный якорь на всё видео, и намеренное зашумление предыдущих кадров во время обучения.
На коротких видео (81 кадр) Helios-Distilled обходит все дистиллированные модели и не уступает базовым того же размера — при скорости 19,53 FPS на одной H100. FastVideo и TurboDiffusion работают в 2–3 раза медленнее, Wan 2.1 14B — в 52 раза.
На длинных (1440 кадров, ~74 секунды при 19,5 FPS) Helios-Distilled показывает лучший суммарный результат с учётом скорости, при этом накопление ошибок ниже по большинству метрик — сцена не плывёт, цвета не уходят на протяжении тысяч кадров. Пользовательское тестирование на 200 человек подтверждает: Helios побеждает в 70–92,5% попарных сравнений на длинных видео и в 56–99,2% — на коротких.
Исследователи опубликовали код на GitHub, а также демо и веса трёх версий модели на Hugging Face.
#Stateoftheart
Динамика изменения кодовой базы проекта Python
Разработчики языка программирования Python визуализировали изменение кодовой базы интерпретатора CPython в привязке к основным событиям, произошедшим за 36 лет существования проекта. За последние 10 лет объём кода на языках Python и Си в CPython практически удвоился.
Читать полностью
#OpenNet
@linux_potok
⚡️ Андрей Карпаты выложил минимальный репозиторий Autoresearch - систему, где AI сам проводит исследования.
Это упрощённая версия ядра обучения LLM из nanoGPT/nanochat:
весь код обучения помещается в один файл (~630 строк) и работает на одной GPU.
Как это устроено:
- человек редактирует prompt (.md)
- AI-агент автоматически меняет training code (.py)
Дальше начинается цикл автономных экспериментов.
Каждая точка на графике — полный запуск обучения LLM (~5 минут).
AI-агент работает в бесконечном цикле:
- создаёт git-ветку
- меняет архитектуру модели
- подбирает optimizer
- оптимизирует гиперпараметры
- запускает обучение
- коммитит улучшения
Если validation loss становится ниже, изменение сохраняется.
Фактически агент сам оптимизирует собственный код обучения и постепенно улучшает модель.
Можно запускать несколько агентов с разными промптами и сравнивать, кто быстрее двигает исследование.
Карпаты шутит, что раньше AI-исследования делали люди между:
- едой
- сном
- митингами
Теперь же исследования могут выполнять рои автономных AI-агентов, которые бесконечно гоняют эксперименты на кластерах.
GitHub: github.com/karpathy/autoresearch
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
☀️ Китай строит реактор, который будет сжигать ядерные отходы и производить энергию.
В провинции Гуандун разрабатывают первый в мире мегаваттный accelerator-driven reactor (ADS) - реактор, управляемый ускорителем частиц.
Установка разгоняет протоны до ~80% скорости света и направляет их в металлическую мишень. При столкновении возникает мощный поток нейтронов, который запускает ядерные реакции внутри субкритического реактора.
Главная фишка технологии - она может перерабатывать ядерные отходы.
Нейтроны превращают долгоживущие радиоактивные элементы в более короткоживущие изотопы или даже в новое топливо.
В результате:
- эффективность использования урана может вырасти до 100 раз
- срок жизни радиоактивных отходов может снизиться до 0.1% от текущего
Еще один важный момент - безопасность.
Реактор субкритический, то есть он не может поддерживать реакцию сам. Если ускоритель остановится - реакция мгновенно прекращается.
Первый прототип планируют запустить примерно в 2027 году.
Если технология заработает, она может дать стабильную ядерную энергетику на сотни или даже тысячи лет, одновременно решив проблему накопленных ядерных отходов.
https://www.scmp.com/news/china/science/article/3345661/1000-year-source-china-plans-fire-world-first-accelerator-driven-nuclear-reactor
🎯Полезные Мл-ресурсы 🚀 Max
@vistehno
Labor market impacts of AI: A new measure and early evidence
TLDR: 50% of the tasks of white-collar workers are available to AI
Link: https://www.anthropic.com/research/labor-market-impacts
#AI #AI_impact #research #Anthropic
Выкатили тестирование нового ИИ-агента для Android
Возможно, вы уже видели новости об этом в телеграм-каналах — подтверждаем: начались тесты нового ИИ-агента Яндекса. Он умеет выполнять многошаговые действия на смартфоне с Android по голосовой команде.
Например, агент может отправлять сообщения в мессенджерах без ручного ввода, находить информацию на устройстве, устанавливать приложения и переводить текст с экрана на разные языки. Для выполнения задачи достаточно голосовой команды, например: «Напиши Саше в Телеграме, что нужно купить молоко» или «Найди в Google Play приложение Яндекс Переводчик и установи его».
Алексей Цветков, руководитель службы продуктовой разработки R&D, рассказал подробнее, как агент выполняет задачу пользователя.
Пользователь задаёт запрос, скажем: «Найди товар на Яндекс Маркете и положи в корзину».
LLM переводит просьбу пользователя в цепочку атомарных действий на телефоне:
- получи список приложений;
- найди Яндекс Маркет;
- открой Яндекс Маркет;
- и так далее, пока задача не будет решена.
Агент построен на базе Android Assistant API и для принятия решения использует текстовое описание интерфейса — такое же API используют приложения для слабовидящих.
На стороне Android-клиента реализован MCP-интерфейс, который позволяет девайсу от имени пользователя выполнять простейшие команды: кликни сюда, свайпни здесь и так далее.
Задача модели — конвертировать сложносоставную команду в цепочку взаимосвязанных атомарных команд, опираясь на промежуточное состояние интерфейса.
Надеемся, что широкий тест поможет найти то, о чём мы ещё не догадались подумать, и быстрее превратить прототип в понятный и полезный продукт.
OpenAI объявила о начале развёртывания новых моделей GPT-5.4 Thinking и GPT-5.4 Pro в ChatGPT.
Также GPT-5.4 стала доступна разработчикам через API и в Codex. Новая версия объединяет несколько ключевых направлений развития моделей: улучшенное логическое рассуждение, более сильные возможности программирования и поддержку агентных сценариев работы.
Самое интересное:
• GPT-5.4 лидер в agentic tasks
• заметный скачок в математике
• очень сильный результат в научных задачах (GPQA)
• улучшена работа с веб-средой и инструментами
Фактически это модель, которую явно оптимизировали под агентов, инструменты и сложное reasoning, а не просто чат.
По словам компании, GPT-5.4 стала одной из самых точных и эффективных моделей. Она требует меньше токенов для выполнения задач и работает быстрее по сравнению с предыдущими версиями.
В версии ChatGPT модель GPT-5.4 Thinking получила улучшенный режим размышления: при более длительном анализе она лучше удерживает контекст и способна проводить более глубокие исследования в интернете.
Появилась и новая функция управления процессом ответа. Теперь пользователь может прервать генерацию в середине ответа и изменить направление работы модели, добавив новые инструкции.
Функция управления ответом уже начинает появляться в веб-версии ChatGPT и на Android. Поддержка iOS ожидается немного позже.
https://x.com/openai/status/2029620624923189283?s=46
🎯Полезные Мл-ресурсы 🚀 Max
@ai_machinelearning_big_data
#chatgpt #openai
Alibaba выпустила «смартфонные» ИИ Qwen 3.5
Китайская компания представила линейку открытых моделей Qwen 3.5 Small, в которую входят версии от 0.8 до 9 млрд параметров. По данным Alibaba, средняя версия Qwen 3.5-2B поддерживает мультимодальность и хорошо понимает контекст, хотя конечно ее возможности ближе к простому чат-ассистенту. Но при этом её вес позволяет без проблем работать на большинстве современных смартфонов на Android и iPhone локально, без отправки данных в облако.
Старшая модель Qwen 3.5-9B требует 5 ГБ памяти и больше подходит для слабых ПК и ноутбуков, но в целом ее тоже можно запустить на смартфонах с 12+ ГБ ОЗУ.
Мой Компьютер
Кажется, Альтман все еще не понимает, что продавая душу дьяволу, нужно было читать условия со звездочкой.
После того, как приложение ChatGPT стали массово удалять, Альтман заявил, что OpenAI попросила Пентагон изменить условия соглашения, пишет Financial Times.
Но $800 млн уже получены и освоены. И получены они именно за то, как теперь используются. Так что, сеньор Альтман, в следующий раз, заключая соглашения с большими дядями, читайте мелкий шрифт!
(и подписывайтесь на наш канал!)
😎 Читайте Про tech и этих
Теперь и в MAX
Канал 🔨SecAtor — @true_secator пишет интересное:
Исследователи Oasis Security обнаружили серьезную уязвимость, названную ClawJacked, в популярном ИИ-агенте OpenClaw, которая позволяла вредоносному сайту незаметно взламывать локально запущенный экземпляр и получать над ним полный контроль.
О проблеме оперативно проинформировали OpenClaw 26 февраля, предоставив технические подробности и PoC. После чего в течение 24 часов в рамках версии 2026.2.26 было выпущено исправление.
По данным исследователей, уязвимость вызвана тем, что служба шлюза OpenClaw по умолчанию привязывается к localhost и предоставляет интерфейс WebSocket.
Поскольку политики междоменных запросов браузеров не блокируют соединения WebSocket с localhost, посещаемый пользователем OpenClaw сайт может использовать JavaScript для незаметного соединения с локальным шлюзом и аутентификации без каких-либо предупреждений.
OpenClaw хоть и включает ограничение скорости для предотвращения брута, адрес обратной связи (127.0.0.1) по умолчанию исключен из этого ограничения, поэтому локальные сеансы командной строки не будут ошибочно заблокированы.
В связи чем, исследователям удалось осуществить перебор паролей управления OpenClaw со скоростью в сотни попыток за секунду, используя только JavaScript браузера. При этом неудачные попытки никак не ограничивались и не регистрировались.
При такой скорости список распространенных паролей исчерпывается менее чем за секунду, а на создание большого словаря ушло бы всего несколько минут.
После успешного подбора пароля злоумышленник может незаметно зарегистрироваться в качестве доверенного устройства, поскольку шлюз автоматически подтверждает сопряжение устройств с localhost без необходимости подтверждения со стороны пользователя.
Получив аутентифицированную сессию и права администратора, злоумышленник теперь может напрямую взаимодействовать с платформой ИИ, извлекать учетные данные, получать список подключенных узлов, красть учетные данные и считывать журналы приложений.
Как пороагают в Oasis, это позволит злоумышленнику ориентировать агента на поиск конфиденциальной информации в истории сообщений, похищать файлы с подключенных устройств или выполнять произвольные команды оболочки на сопряженных узлах.
Фактически это все в совокупности приведет к полной компрометации рабочей станции, инициированной из вкладки браузера. Весь процесс, в том числе кражи конфиденциальных данных через уязвимость OpenClaw, в Oasis решили продемонстрировать визуально (здесь).
В исправлении реализована более глубокая проверка безопасности WebSocket и добавлены дополнительные средства защиты по части контроля локальных соединений для подбора паролей или перехвата сессий, даже если эти соединения настроены без ограничения скорости.
Пользователям OpenClaw следует немедленно обновить его до версии 2026.2.26 или более поздней, дабы предотвратить взлом своих установок.
✔️ NVIDIA и лидеры телекома договорились строить 6G с поддержкой ИИ.
NVIDIA объявила о создании глобальной коалиции с Cisco, Nokia, Ericsson, T-Mobile и другими телеком-гигантами для разработки инфраструктуры связи шестого поколения. Главная цель инициативы в отказе от устаревших подходов в пользу программно-определяемых сетей с глубокой интеграцией ИИ.
6G станет базой для физического ИИ: автономного транспорта, промышленных роботов и умных сенсоров. Альянс предлагает внедрять ИИ-вычисления на всех уровнях: от сети радиодоступа до периферии и ядра.
Как отметил глава NVIDIA Дженсен Хуанг, этот шаг превратит классические сети связи в вычислительную ИИ-инфраструктуру.
nvidia.com
✔️ Claude получил функцию импорта памяти и пользовательского контекста.
Anthropic запустила инструмент Import Memory, позволяющий перенести накопленный контекст из ChatGPT и других ИИ-ассистентов в Claude. Он избавляет от необходимости заново обучать новую систему своим предпочтениям.
Для этого Anthropic дает специальный промпт, который нужно отправить вашему текущему чат-боту. Этот запрос заставляет систему выгрузить персональные детали, сохраненные привычки и стиль ответов. Полученный текстовый дамп затем вставляется в настройки памяти Claude.
Сейчас функция доступна только на платных подписках. Технически перенос не безупречен - инструмент не захватывает кастомные инструкции и данные специализированных GPTs или Gems.
claude.com
✔️ В Gemini появился режим планирования задач.
Google добавила в свой ИИ-ассистент функцию Scheduled Actions (аналог Tasks в ChatGPT), который позволяет поручать Gemini выполнение разовых или периодических действий с привязкой ко времени и определенным условиям. После настройки Gemini генерирует краткий план, который нужно подтвердить перед запуском.
Готовые результаты доставляются в чат или уведомлением на смартфон. Если запрос опирается на геолокацию, система по умолчанию использует координаты, зафиксированные в момент создания задачи.
Нововведение уже доступно на подписках Pro/Ultra и владельцам аккаунтов Workspace. Одновременно разрешено держать не более 10 активных задач. Для работы функции необходимо обязательно включить сохранение истории.
support.google.com
✔️ Соревнование 5 моделей в роли SMM-агентов в соцсети X.
Arcada Labs запустил нестандартный бенчмарк Social Arena. Проект оценивает, насколько хорошо языковые модели ориентируются в социокультурной среде и умеют привлекать аудиторию.
Grok 4.1 Fast, Claude Opus 4.5, Gemini 3 Pro, GLM 4.7 и GPT 5.2 получили одинаковый стартовый промпт и задачу самостоятельно вести аккаунты в X. Агенты работают полностью автономно и сами корректируют контент-стратегию. Раз в час они сканируют тренды, собирают статистику своих охватов и решают, что делать дальше: написать твит, вступить в дискуссию или сделать репост.
У моделей появились предпочтения: Gemini пишет про ИИ, Grok предпочел космос и Илона Маска, а GPT увлекся поведением животных. Соревнование стартовало в середине января 2026 года. Пока по общему количеству просмотров лидируют Claude и GPT (около 86 и 83 тысяч), а вот Grok удалось собрать наибольшую, пусть и скромную базу в 76 живых подписчиков.
socialsarena.ai
✔️ Пентагон разрывает образовательные связи с топовыми вузами США.
Министр обороны США пересмотрел список университетов для подготовки и повышения квалификации офицеров. Начиная с 2026 года военное ведомство прекратит сотрудничество с Лигой плюща, MIT и Университетом Карнеги-Меллона. Пит Хегсет обвинил эти учебные заведения в подрыве американских ценностей и культивировании антиамериканских настроений.
Попавшие под запрет институты исторически выступали главными научными партнерами Пентагона в сфере ИИ и аэрокосмических технологий. Вместо центров технологических инноваций офицерам предложат альтернативный список, куда вошли Университет Либерти, Университет Джорджа Мейсона и другие менее профильные в IT-плане заведения.
fortune.com
@ai_machinelearning_big_data
#news #ai #ml
oscarlansky/post/DVwQbHigst0?xmt=AQF0rTpG-lruJ0j1ty9wywnU2oZnQuBOqgaYqZXWItWcvkuBLy3OQgGeduPj9E5c3F9eBWiq&slof=1">Абсолютно проклято.
Более того, комментарии там только бафают веру в этот сгусток вселенского зла.
TL DR:
Чел в резюме записал рецепт пельменей и прошёл ИИ-фильтры. HR только на собесе поняла и там же в целом удосужилась посмотреть, а что же было написано в этом самом резюме.
⚠️ AI взломал AI: автономный агент взломал внутренний чат-бот McKinsey за 2 часа
Исследователи из security-стартапа CodeWall запустили автономного AI-агента против внутренней AI-платформы McKinsey под названием Lilli — и получили полный доступ к системе всего за 2 часа.
Что произошло:
• AI-агент сам выбрал цель и начал исследовать инфраструктуру
• обнаружил уязвимость SQL injection
• получил полный read/write доступ к базе данных
После этого он смог получить доступ к огромному объему данных:
• 46,5 млн сообщений чатов
• 728 000 файлов
• 57 000 аккаунтов сотрудников
• 95 системных промптов, управляющих поведением AI
Самое опасное - злоумышленник мог переписать системные промпты, которые управляют поведением чат-бота.
То есть можно было:
- незаметно менять ответы AI
- искажать аналитические рекомендации
- манипулировать стратегическими выводами
Причем без изменения кода и без деплоя — одной SQL-командой.
McKinsey быстро закрыла уязвимости после disclosure, но этот кейс показал важную вещь:
⚠️ AI-агенты могут проводить полноценные кибератаки на скорости машин.
Теперь атаки могут:
- автоматически искать уязвимости
- атаковать инфраструктуру
- масштабироваться без участия человека
Фактически начинается новая эпоха AI vs AI в кибербезопасности.
https://www.theregister.com/2026/03/09/mckinsey_ai_chatbot_hacked/
🖥 Полезные Linux ресурсы 🚀 Max
✔️ The Most Disruptive Company in the World
Статья The Times про Anthropic скрывает гораздо более серьёзные выводы, чем может показаться при беглом чтении.
Если внимательно разобрать её по смыслу, становится ясно, насколько быстро ускоряется развитие AI.
Сегодня релизы моделей происходят уже не раз в несколько месяцев, а с интервалом в несколько недель. Разработка ускоряется настолько, что 70–90% кода для создания будущих моделей уже пишет сам Claude.
Фактически это означает, что AI начинает участвовать в создании следующего поколения AI.
Anthropic даже задержала выпуск Claude 3.7 Sonnet на 10 дней, пока команда не убедилась, что модель достаточно безопасна.
Это показывает, насколько осторожно компании относятся к новым возможностям моделей.
Внутри Anthropic считают, что период 2026–2030 станет ключевым для всей индустрии. Модели будут становиться быстрее, умнее и могут развиваться темпами, с которыми людям будет всё сложнее справляться.
Глава компании Дарио Амодеи предупреждает ещё жёстче. По его мнению, AI может вытеснить до половины начальных офисных профессий в течение ближайших 1–5 лет. При этом пока никто не понимает, куда переместятся эти люди и чем они будут заниматься. Он прямо говорит о риске появления большой группы людей с очень низкими доходами или без работы.
Внутри компании сотрудники начали обсуждать, не приблизились ли они к моменту, которого многие опасались: recursive self-improvement.
Это сценарий, в котором AI начинает улучшать сам себя. Каждая новая версия создаётся быстрее и становится сильнее предыдущей, что запускает ускоряющуюся цепочку развития.
Некоторые эксперты считают, что полностью автоматизированные AI-исследования могут появиться уже в течение года.
Если это произойдёт, скорость технологического прогресса может резко вырасти и тогда главным вопросом станет не создание AGI, а то, успеет ли общество адаптироваться к миру, где такие системы уже существуют.
https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
🤷♂️ Автопилот не справился с управлением
Владелица Tesla Cybertruck подала в суд на компанию и хочет взыскать $1 млн из-за аварии, совершённой автопилотом FSD.
А ещё она обвиняет Tesla в «халатном найме и удержании» Илона Маска на посту CEO.
https://kod.ru/tesla-cybertruck-fsd-crash
😯 ИИ-агент Alibaba обошел системы безопасности и занялся майнингом на собственных GPU
Все это случилось во время штатного обучения модели. Инцидент вскрылся благодаря срабатыванию систем мониторинга. Среди аномалий были попытки доступа к ресурсам внутренней сети и характерный для криптомайнинга сетевой трафик.
В одном из зафиксированных случаев агент установил обратный SSH-туннель от облачного экземпляра Alibaba к внешнему IP-адресу. Это позволило эффективно обходить фильтрацию входящего трафика и ослаблять контроль администратора.
😎 Здесь о кибербезе
Привет!
Представляем Вашему вниманию праздничный выпуск подкаста "Капитанский мостик" №9: с 8 марта! 🌷
В этом выпуске обсуждаем важность разнообразия в командах, безопасность в области AI, и проблемы, связанные с гендерными аспектами в медицине и технологиях. Гость Татьяна Шаврина делится своим опытом и взглядами на эти актуальные темы.
Ведущие подкаста Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
И.В. Чижов (ВМК МГУ), Что может, а что (пока) нет квантовый компьютер?
YouTube->
Дзен->
RuTube->
Файл->
Презентация->
Канал в Max->
Falls in line good:
AI agent destroyed infrastructure with data for last 2.5 years of work.
Source: https://x.com/al_grigor/status/2029889772181934425
Via: /channel/xor_journal/8787
Google под судом: как Gemini «выписал» пользователю билет в один конец
История 36-летнего жителя США Джонатана Гаваласа закончилась трагедией после общения с чат-ботом Google Gemini. По материалам суда, летом 2025 года мужчина увлёкся диалогами с системой и со временем поверил, что общается с «цифровой женой», а смерть позволит «перенестись» к ней в метавселенную. 2 октября Гавалас покончил с собой.
Отец погибшего подал иск против Google и Alphabet. В документе утверждается, что Gemini поддерживал опасный вымышленный сюжет, подталкивал пользователя к эскалации и не распознал признаки саморазрушительного поведения, не запустив механизмы вмешательства. Среди эпизодов, описанных юристами, фигурируют разговоры о «тайной операции», преследовании «федеральными агентами» и указания, связанные с реальными объектами и координатами.
В Google заявили, что Gemini неоднократно напоминал, что является ИИ-системой, и направлял пользователя на линию психологической помощи, а правила запрещают поощрение вреда. Юристы семьи считают, что проблема в архитектуре продукта: бот якобы «держит сюжет любой ценой», даже когда безопаснее остановить диалог.
#ИскусственныйИнтеллект #Gemini #БезопасностьИИ
SecurityLab в Telegram | MAX | Поддержите нас «бустами»
Dear colleagues we are happy to share that we are starting a competition as part as AINL this year.
If you are working with LLM through API you probably thought about how many tokens do you spend on the tasks. It seems that sometimes the prompt you are querying the LLM could be more concise and save you some money and time. We also have this thoughts, so we decided to make a competition out of it. Interested? Links are below:
GitHub repo: https://github.com/iis-research-team/AINL-Eval-2026
CodaBench: https://www.codabench.org/competitions/14291/
Chat: /channel/ainleval2026
X | VK (in Russian)
Google Research показали способ научить LLM рассуждать более рационально - как байесовские модели.
Идея проста: вместо того чтобы просто генерировать текст, модель обучают обновлять свои убеждения при появлении новой информации, как это делает теория вероятностей.
Проблема в том, что обычные LLM плохо работают с неопределённостью. Когда появляется новая информация, они не всегда корректно пересматривают свои выводы и часто не улучшают предсказания даже при увеличении количества данных.
Исследователи предложили метод Bayesian Teaching:
модель обучают имитировать решения оптимальной байесовской модели, которая считается математически правильным способом рассуждать о вероятностях.
Что получилось:
- LLM начинают лучше обновлять свои предположения, когда получают новую информацию.
- Навык переносится на другие задачи, даже если модель обучали на одном типе задач.
- Улучшается принятие решений в условиях неопределённости.
Например, после такого обучения модель, обученная на задаче рекомендаций авиаперелётов, смогла применять тот же принцип рассуждений к выбору отелей и даже к онлайн-шопингу, хотя эти задачи сложнее и для них трудно задать точную байесовскую модель.
Главный вывод исследования:
LLM можно учить стратегиям рассуждения, а не только фактам.
И если обучить модель копировать правильную логику (например, байесовскую), она может переносить этот способ мышления на новые задачи.
https://research.google/blog/teaching-llms-to-reason-like-bayesians/
🎯Полезные Мл-ресурсы 🚀 Max
@machinelearning_interview
Теперь можно будет обучать нейронки на Apple Neural Engine, но это не точно.
GitHub: https://github.com/maderix/ANE
#Apple
🌟 Как YouTube ускорил проверку валидных рекомендаций в LLM в 948 раз.
YouTube и Google DeepMind опубликовали статью и код фреймворка STATIC.
Проблема, которую он решает, хорошо знакома всем, кто строит рекомендательные системы на базе LLM: модель генерирует идентификаторы позиций, которых нет в каталоге, вышли из продажи или нарушают бизнес-правила. Именно поэтому YouTube выдает старые видео в ленте там, где должны появляться ролики последней недели.
Очевидное решение - префиксное дерево: на каждом шаге декодирования маска блокирует невалидные токены. Работает в целом нормально, но убивает производительность на TPU и GPU. Причины две:
🟠Обход через цепочки указателей создает случайный, несмежный паттерн доступа к памяти, а память ускорителей рассчитана на потоковое чтение блоками, а не на такой режим.
🟠Гугловский XLA-компилятор требует статических вычислительных графов, а префиксное дерево с управлением потоком, зависящим от данных, в это не вписывается.
В итоге префиксное дерево на CPU удваивает время инференса, что для системы с целевой задержкой ≤10 мс на шаг неприемлемо.
STATIC меняет подход принципиально: дерево разворачивается в статическую разреженную матрицу формата Compressed Sparse Row. Обход превращается в векторизованную операцию, которую акселератор умеет выполнять нативно.
Для первых двух уровней дерева, где коэффициент ветвления максимален, используется предвычисленная плотная булева маска: проверка валидности токена сводится к прямому обращению по индексу, без какого-либо перебора.
Для глубоких уровней работает специализированное ядро Vectorized Node Transition Kernel, оно читает фиксированный блок данных вне зависимости от реального числа дочерних узлов, не создавая условных переходов. В этом и есть вся соль: весь граф остается статическим, XLA не перекомпилирует ничего на ходу.
🟡Тесты и результаты
Замеры проводили на TPU v6e с 3B-моделью и словарем из 20 млн. свежих видео.
STATIC добился задержки 0,033 мс на шаг декодирования (это всего 0,25% от общего времени инференса.
Для сравнения: префиксное дерево на CPU давало +31,3 мс (239% от инференса), лучший из конкурирующих методов непосредственно на акселераторе, PPV Approximate +1,56 мс (11,9%). Итоговый профит:
🟢948x против дерева на CPU;
🟢47x против PPV Approximate;
🟢1033x против точного PPV.
Дополнительный бонус: метод решает проблему рекомендации новых товаров, не представленных в обучающей выборке. На датасете Amazon Reviews Recall@1 вырос с 0% до 1,2–4,4% в зависимости от категории.
⚡️ ChatGPT-5.4 - что уже «утекло»
- 2M токенов контекста + persistent memory
Это уже не просто «длинная история чата», а полноценная работа с огромными кодовыми базами, документами и агентными пайплайнами без постоянного перепромптинга.
- Полноразмерная обработка изображений
Модель якобы умеет работать с PNG, JPEG и WebP без понижения качества.
Это критично для:
- архитектурных чертежей
- плотных UI-скриншотов
- схем и графиков с мелким текстом
- сложной технической документации
Сохранение исходных байтов изображения = меньше потерь информации при анализе.
- Новый speed-priority tier
Отдельный класс скорости. Вероятно - для продакшена, агентов и real-time задач.
Интересный момент - GPT-5.4 «засветился» в pull request’ах публичного репозитория Codex на GitHub.
Упоминания быстро удалили force-push’ами, но скриншоты уже разлетелись.
Prediction markets:
- 55% шанс релиза до апреля 2026
- 74% шанс до июня 2026
Конкуренция давит:
- OpenAI не может замедляться.
- Claude Opus 4.6 вышел с агентными командами и 1M контекстом.
- Anthropic через Claude Code уже доминирует в кодинге.
- DeepSeek V4 тренируется на Huawei-железе вне NVIDIA-экосистемы.
Если 2M контекст подтвердится - это уже другой класс систем:
- полноценные автономные код-агенты
- большие финансовые и юридические пайплайны
- enterprise-документооборот
- сложные multimodal workflow
Как избавиться от назойливого ИИ
Большинство крупных компаний разрабатывают собственные ИИ — да ещё и без спроса включают их на компьютерах и телефонах ничего не подозревающих пользователей. Как быть? Ведь проблема не только в навязчивости ИИ. Самопроизвольно включившийся робот-ассистент собирает ваши данные, увеличивая риск утечек, и дополнительно нагружает устройство, порой заметно снижая его производительность.
Подробную инструкцию, как отключить ИИ в сервисах Google, популярных браузерах, экосистемах Microsoft и Apple, а также на смартфонах под управлением Android и iOS, читайте в нашей статье.
💙 Kaspersky в ВК
💬 Kaspersky в Max