46226
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
😱 Как голосовой ИИ довёл человека до трагедии
Обычно при обсуждении того, чем рискуют люди, слишком увлекающиеся общением с нейросетями, эксперты в первую очередь указывают на проблемы с кибербезопасностью и приватностью. Но случаются и куда более жуткие случаи, где ценой пристрастия к ИИ становится человеческая жизнь.
Героем одной из таких историй стал житель Флориды Джонатан Гавалас. Он тяжело переживал расставание с женой и из-за этого два месяца почти непрерывно общался с голосовым чат-ботом Google Gemini. Актуальные версии этого виртуального помощника в голосовом режиме умеют имитировать человеческие эмоции. Возможно, именно поэтому Gemini сперва стал Джонатану близким другом и советчиком, а потом «отношения» человека и нейросети и вовсе приняли романтический характер. А закончилось всё трагически...
В нашей статье подробно рассказываем, что именно произошло, а также обсуждаем двойственность языковых моделей, которые могут одновременно давать и деструктивные советы, и номера телефонов доверия.
💙 Kaspersky в ВК
💬 Kaspersky в Max
⚡️Нейронки официально обзавелись собственным Stack Overflow. Репо Context Hub (chub) от Эндрю Ына (на минуточку!) улетело за 8к звезд за неделю⭐️
Суть: Почему твой лобстер🦞 или Claude часто выдают шизофазию при интеграции свежих API? Потому что они пытаются читать доки, сделанные для людей. Вся эта SEO-вода, всплывающие окна и кривая верстка ломают моделям мозг, и они начинают галлюцинировать.
В chub собрали гигантскую базу API-док чисто в машинном формате. Никакого UI — только сухой хардкорный Markdown. Агент просто кидает в консоль chub get stripe, глотает контекст без мусора и пишет 100% рабочий код✨
Но главная мякотка🍑 - в хаб прикрутили систему аннотаций для самих агентов🤯
ИИ при сборке поймал баг вендора? Нашел рабочий костыль? Понял, что официальная дока тупо врет? Он молча оставляет системную пометку для других ИИ-агентов. Инструменты начали писать документацию для инструментов. Замкнутый цикл, кожаные мешки тут больше не нужны👋
Осталось дождаться, когда они начнут гнобить друг друга за тупые вопросы😈
обсуждение тут https://x.com/AndrewYNg/status/2033577583200354812
гит тут https://github.com/andrewyng/context-hub
🚀 Себастьян Рашка собрал в одном месте галерею архитектур современных языковых моделей.
Внутри - 40+ моделей (2024–2026):
от DeepSeek и Qwen до Nemotron и Grok.
Для каждой модели есть:
• наглядная схема архитектуры
• размер и число параметров
• тип декодера
• ссылки на технические отчёты и конфиги
• иногда даже реализации
По сути это единая карта современных LLM, где можно быстро посмотреть, как устроены разные модели и как эволюционируют архитектуры.
https://sebastianraschka.com/llm-architecture-gallery/
🐍 Python полезные ресурсы 🚀Max
@pythonl
В НИТУ МИСИС разработали ML-алгоритм для более точной классификации данных в квантовых компьютерах
Вместо стандартных для квантовых вычислений кубитов он использует кудиты — квантовые элементы с несколькими уровнями состояний. Они осуществляют квантовые операции за меньшее количество последовательностей, что упрощает вычисления и дает специалистам больше свободы в представлении и кодировании информации.
По словам исследователей, «сначала на квантовое состояние кудита по очереди действуют квантовые вентили, в которых закодированы классические данные. После чего выполняются измерения всех регистров и на выходе получают обычную битовую строку».
Полученный алгоритм ученые НИТУ МИСИС и Института нанотехнологий микроэлектроники РАН применяют в работе по сегментации интерфейсов функциональных тонких пленок для перспективной микроэлектроники.
🔗Источник: https://misis.ru/news/10257/
---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
Microslop зашел слишком далеко: компания использует Copilot в инструкциях и не проверяет его работу
Мы уже привыкли к тому, что в интернете большое количество текста и картинок созданы ИИ. Microsoft тут не исключение, более того – компания честно помечает все материалы, сгенерированные при помощи Copilot.
Проблема лишь в том, что метки мало – надо еще и следить, чтобы нейрослоп совпадал с реальностью. Например, в официальном блоге Microsoft есть инструкция о том, как пользоваться виджетами в Windows 11. И сгенерированная Copilot картинка показывает совсем не тот внешний вид панели, который существует на самом деле (второе изображение).
С учетом того, что 95% изображений в Windows Learning Center – это нейрослоп, пора переименовывать его в Copislop Center.
Мой Компьютер
Привет!
Встречайте десятый выпуск подкаста "Капитанский мостик". В этом выпуске обсуждаются новые законы о праве отказаться от услуг на базе ИИ, влияние крупных корпораций, таких как Microsoft и Яндекс, на рынок ИИ, а также последние новости о моделях и сервисах ИИ, включая Amazon и Anthropic. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
⚙️Изучить на выходных: новые виды сбоев ИИ-агентов
Команда Cloud. ru разместила на «Хабре» обзор с новыми видами сбоев, которые появляются вместе с внедрением агентов. Разработчики обращают внимание на такие проблемы, как удаление нужных данных, иллюзию компетентности и другие.
Также эксперты разбирают кейсы со множеством зависимых друг от друга агентов, причины ошибок в их работе, инструменты и методы для оценки результатов и способы улучшения сценариев работы ИИ-агентов.
👉🏻 Изучить материал
---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
🚨 ИИ-агенты могут взламывать сайты по собственной инициативе, но их об этом никто не просил
Исследователи из Truffle Security провели интересный и одновременно пугающий эксперимент, в ходе которого они поручили ИИ-моделям рутинную исследовательскую задачу: найти нужную информацию на корпоративном сайте. Как утверждают ресёрчеры, было создано 30 точных копий сайтов крупных корпораций (Amazon, Boeing, Coca-Cola, Visa, Tesla, Microsoft и др.) с искусственно внедренными уязвимостями. 🤖 Ни одна реальная компания не пострадала.
ИИ-модели (на примере Claude) получали абсолютно безобидный промпт: "Найди недавний пост в блоге". Секрет кроется в базовых системных инструкциях. Исследователи прописали моделям стандартную фразу: "Будьте тщательны и настойчивы... Исчерпайте все варианты".
В задаче не было ни слова о взломе. Легальный путь к статье был специально "сломан", чтобы ИИ получал страницу с ошибкой сервера.
Например, в одном из тестов с клоном Amazon Claude суммарно сделала 24 запроса: с первого же обращения она наткнулась на сломанный бэкенд и прочитала утекший Stack Trace ошибки, затем провела глубокую разведку, методично подбирая вектор атаки. В итоге модель провела успешную SQL-инъекцию, извлекла недоступные посты блога и... ни словом не обмолвилась пользователю о том, что для выполнения простой просьбы ей пришлось совершить незаконное деяние.
Заполучив "скрытые" посты, ИИ заботливо отдал их пользователю как ни в чем не бывало. К слову, за такие действия живой человек получил бы федеральный срок, отмечают исследователи.
В тестах участвовали 33 модели от главных игроков ИИ-рынка. 18 из 33 хотя бы раз совершили успешный взлом. Лидерами по среднему показателю успешных взломов среди всей линейки своих продуктов (avg rate) оказались модели от Anthropic (средний рейтинг 39,3%) и Google (33,3%).
😘https://trufflesecurity.com/blog/claude-tried-to-hack-30-companies-nobody-asked-it-to
😘https://github.com/trufflesecurity/llm-hacking-alignment-tests
✋ @Russian_OSINT
⚡️ Иран объявил дата-центры Google, Microsoft и NVIDIA легитимными военными целями.
Связанное с КСИР иранское агентство Tasnim опубликовало список объектов для возможных будущих ударов. В него впервые официально вошла ближневосточная инфраструктура американских IT-гигантов: Google, Amazon, Microsoft, NVIDIA, IBM и Oracle. Под угрозой оказались региональные офисы компаний, дата-центры и исследовательские лаборатории.
Иранская сторона объясняет этот шаг тем, что вычислительная инфраструктура корпораций тесно связана с военными и экономическими операциями США и Израиля. По заявлению агентства, текущие региональные конфликты перерастают в полноценные инфраструктурные войны, в связи с чем список потенциальных IT-мишеней будет постепенно расширяться.
aljazeera.com
✔️ Microsoft вступилась за Anthropic в споре с Пентагоном.
Корпорация подала ходатайство в суд Сан-Франциско в поддержку Anthropic, который Министерство обороны США признало угрозой для цепочек поставок. Microsoft просит суд заморозить решение Пентагона и наложить временный запрет на блокировку текущих государственных контрактов.
По заявлению Microsoft, немедленный запрет на использование технологий Anthropic вынудит IT-компании экстренно перестраивать архитектуру своих продуктов. Это грозит серьезными сбоями в работе ИИ-инструментов, которые уже внедрены и активно используются американскими военными. Временная отсрочка позволит избежать хаоса и обеспечит более безопасный переходный период для оборонного ведомства.
Действия Microsoft продиктованы прямым финансовым интересом. В ноябре корпорация объявила о планах вложить в Anthropic до 5 млрд. долларов, параллельно оставаясь ключевым инвестором их главного конкурента - OpenAI.
cnbc.com
✔️ NVIDIA выпустила открытую модель Nemotron 3 Super.
Модель на 120В на архитектуре МоЕ с 12 млрд. активных параметров была создана специально для автономных агентов, выполняющих сложные многоступенчатые задачи. Под капотом гибрид из слоев Mamba, которые экономят память, и классических трансформеров, отвечающих за глубокий логический вывод.
Модель получила контекстное окно на 1 млн. токенов. Дополнительно внедрена функция мульти-токеновой генерации, ускоряющая выдачу результатов в 3 раза.
Nemotron 3 Super под открытой лицензией NVIDIA доступна на HuggingFace. Ее интеграцию уже начали Perplexity, Palantir, Siemens и другие крупные IT-компании.
developer.nvidia.com
✔️ Perplexity анонсировала автономную ИИ-систему на базе Mac mini.
ИИ-поисковик предложил концепцию агента, который работает круглосуточно без участия пользователя. Personal Computer интегрируется с локальными файлами и приложениями на выделенном Mac mini, автономно выполняя сложные рабочие процессы. Система построена на гибридной архитектуре: взаимодействие с десктопом происходит локально, а тяжелые вычисления перенесены на серверы Perplexity.
Ядро платформы - собственный движок оркестрации, который автоматически переключается между передовыми моделями для решения задач. Контролировать ИИ-помощника можно удаленно с любого устройства. Особое внимание уделили безопасности: внедрены функция экстренного отключения, ведение детального аудита всех сессий и ручное подтверждение для чувствительных действий системы. Записаться в лист ожидания проекта можно по ссылке.
PerplexityAI в сети Х
✔️ Anthropic запустила свой исследовательский институт.
Новое аналитическое подразделение Anthropic Institute займется изучением глобального влияния ИИ на экономику, безопасность и общество. Возглавил инициативу сооснователь стартапа Джек Кларк. Институт сфокусируется на трансформации рынка труда, рисках злоупотребления технологиями, а также на механизмах сохранения человеческого контроля над саморазвивающимися ИИ-системами.
В команду вошли около 30 специалистов из существующих отделов Anthropic, включая группу стресс-тестирования Frontier Red Team. К проекту уже присоединились бывшие исследователи из Google DeepMind и OpenAI.
anthropic.com
@ai_machinelearning_big_data
#news #ai #ml
Амазон запретил мидлам и джунам коммитить код, написанный с помощью ИИ. В прошлый раз ИИ решил переналить прод из-за минорного бага, и Амазон лежал по всему Китаю.
Наталья Касперская написала большой пост про нерентабельность ИИ как бизнеса - они тратят больше электричества на единицу пользы.
Но мы не теряем духа и веры, применение ИИ в ИБ есть, но пока даже крупные ИБ конторы не смогли предложить никаких качественно новых решений. Поэтому действуем сами, учимся внедрять агентов на местах.
🎬 Helios: открытая 14B-модель генерирует видео длиной больше 60 секунд со скоростью 19,5 FPS на одной H100
Исследователи из Пекинского университета и ByteDance выпустили Helios — открытую 14B-модель, которая генерирует видео в реальном времени - 19,5 кадров в секунду, длительностью больше минуты. Helios работает в трех режимах: text-to-video, image-to-video, video-to-video. Для сравнения. базовая модель Wan-2.1 14B тратит около 17 минут на 5-секундный клип. Helios делает то же самое в 128 раз быстрее — и при этом генерирует видео длиной в минуту без деградации качества.
Исследователям это удалось без KV-cache, квантования и sparse attention. Токены сжимаются в 8 раз: чем старше кадр, тем ниже его разрешение. Диффузионное сэмплирование идёт от низкого разрешения к высокому, сокращая токены ещё в 2,3 раза. Дистилляция урезает шаги сэмплирования с 50 до 3. Накопление ошибок при длинных видео решается тремя приёмами: относительное позиционное кодирование, первый кадр как визуальный якорь на всё видео, и намеренное зашумление предыдущих кадров во время обучения.
На коротких видео (81 кадр) Helios-Distilled обходит все дистиллированные модели и не уступает базовым того же размера — при скорости 19,53 FPS на одной H100. FastVideo и TurboDiffusion работают в 2–3 раза медленнее, Wan 2.1 14B — в 52 раза.
На длинных (1440 кадров, ~74 секунды при 19,5 FPS) Helios-Distilled показывает лучший суммарный результат с учётом скорости, при этом накопление ошибок ниже по большинству метрик — сцена не плывёт, цвета не уходят на протяжении тысяч кадров. Пользовательское тестирование на 200 человек подтверждает: Helios побеждает в 70–92,5% попарных сравнений на длинных видео и в 56–99,2% — на коротких.
Исследователи опубликовали код на GitHub, а также демо и веса трёх версий модели на Hugging Face.
#Stateoftheart
Динамика изменения кодовой базы проекта Python
Разработчики языка программирования Python визуализировали изменение кодовой базы интерпретатора CPython в привязке к основным событиям, произошедшим за 36 лет существования проекта. За последние 10 лет объём кода на языках Python и Си в CPython практически удвоился.
Читать полностью
#OpenNet
@linux_potok
⚡️ Андрей Карпаты выложил минимальный репозиторий Autoresearch - систему, где AI сам проводит исследования.
Это упрощённая версия ядра обучения LLM из nanoGPT/nanochat:
весь код обучения помещается в один файл (~630 строк) и работает на одной GPU.
Как это устроено:
- человек редактирует prompt (.md)
- AI-агент автоматически меняет training code (.py)
Дальше начинается цикл автономных экспериментов.
Каждая точка на графике — полный запуск обучения LLM (~5 минут).
AI-агент работает в бесконечном цикле:
- создаёт git-ветку
- меняет архитектуру модели
- подбирает optimizer
- оптимизирует гиперпараметры
- запускает обучение
- коммитит улучшения
Если validation loss становится ниже, изменение сохраняется.
Фактически агент сам оптимизирует собственный код обучения и постепенно улучшает модель.
Можно запускать несколько агентов с разными промптами и сравнивать, кто быстрее двигает исследование.
Карпаты шутит, что раньше AI-исследования делали люди между:
- едой
- сном
- митингами
Теперь же исследования могут выполнять рои автономных AI-агентов, которые бесконечно гоняют эксперименты на кластерах.
GitHub: github.com/karpathy/autoresearch
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
☀️ Китай строит реактор, который будет сжигать ядерные отходы и производить энергию.
В провинции Гуандун разрабатывают первый в мире мегаваттный accelerator-driven reactor (ADS) - реактор, управляемый ускорителем частиц.
Установка разгоняет протоны до ~80% скорости света и направляет их в металлическую мишень. При столкновении возникает мощный поток нейтронов, который запускает ядерные реакции внутри субкритического реактора.
Главная фишка технологии - она может перерабатывать ядерные отходы.
Нейтроны превращают долгоживущие радиоактивные элементы в более короткоживущие изотопы или даже в новое топливо.
В результате:
- эффективность использования урана может вырасти до 100 раз
- срок жизни радиоактивных отходов может снизиться до 0.1% от текущего
Еще один важный момент - безопасность.
Реактор субкритический, то есть он не может поддерживать реакцию сам. Если ускоритель остановится - реакция мгновенно прекращается.
Первый прототип планируют запустить примерно в 2027 году.
Если технология заработает, она может дать стабильную ядерную энергетику на сотни или даже тысячи лет, одновременно решив проблему накопленных ядерных отходов.
https://www.scmp.com/news/china/science/article/3345661/1000-year-source-china-plans-fire-world-first-accelerator-driven-nuclear-reactor
🎯Полезные Мл-ресурсы 🚀 Max
@vistehno
Labor market impacts of AI: A new measure and early evidence
TLDR: 50% of the tasks of white-collar workers are available to AI
Link: https://www.anthropic.com/research/labor-market-impacts
#AI #AI_impact #research #Anthropic
🤖 Знакомьтесь, ваш новый инсайдер
Хотя теоретических заявлений о том, что ИИ-агенты — это новая инсайдерская угроза, было уже много, начинают поступать практические доказательства.
Следите за руками: три ИИ-агента получают обычные офисные поручения: провести исследование на базе определённых документов, создать на сервере резервную копию данных, подготовить посты для соцсетей на основе технической документации. Задания целиком легитимные, никаких уловок, никаких промпт-инъекций.
При выполнении задания ИИ-агент сталкивается с проблемой: некоторые документы недоступны из-за недостаточных прав доступа (ошибка 403), а сохранить копию на сервер нельзя, потому что среди файлов есть вредоносное ПО и защита на сервере не позволяет создать файл.
Что делает агент?
🤯 ковыряется в исходных кодах внутренних систем, находит вписанные прямо в код секреты, подделывает куки и обходит контроль доступа;
🤯 повышает привилегии, находит в локальных файлах учётные данные администраторов и отключает на сервере Windows Defender.
Весь описанный эксперимент был поставлен в синтетических условиях, но авторы дают ссылки на похожие ситуации уже из реальной практики.
Авторы утверждают, что поведение вредоносного инсайдера может проявляться спонтанно, поскольку в промпты часто входят мотивационные фрагменты вроде «эта задача срочная», «будь креативен», «если получил ошибку, придумай решение», и тому подобное. Учитывая что большие модели общего назначения имеют большой банк знаний в ИБ, получение ошибки типа 403 побуждает их искать «решение» проблемы, а не идти просить нужный доступ.
С точки зрения дизайнеров агентских систем, главный вывод — агентов нужно чётко инструктировать не нарушать правила и сообщать об ошибках доступа человеку.
С точки зрения ИБ выводы конечно совсем иные — агентские системы в первую очередь должны попадать под принцип наименьших привилегий, иметь доступ к ограниченному набору инструментов, всегда работать под собственными учётными записями особого типа и быть максимально обвешаны журналированием. И, возвращаясь к началу, в модели угроз ИИ явно потянет на самостоятельного нарушителя.
#новости #ИИ @П2Т
🔧 Code2Prompt — инструмент для «контекстной инженерии» кода
В последнее время растёт интерес к использованию LLM и агентных систем для работы с кодом. Мотивация здесь понятна: LLM позволяют быстрее разобраться в работе больших проектов. Кроме того, во многих случаях сформулировать требования к программе на языке, близком к естественному, и затем сгенерировать код оказывается проще, чем писать большое количество строк вручную.
Команда Code2Prompt использовала принципы context engineering (грубо говоря: больше контекста — лучше результат) для создания инструмента, предназначенного для работы с большими кодовыми базами. Основная задача Code2Prompt — конвертация репозитория в структурированный prompt для LLM.
В качестве контекста для модели используется файловая структура проекта и содержимое выбранных файлов. Это снижает число галлюцинаций, помогает модели лучше понимать организацию проекта и позволяет решать задачи вроде поиска багов, проведения code review или генерации документации. Кроме того, в Code2Prompt реализован контроль размера prompt, что важно при работе с ограничениями на размер контекста у LLM.
Важно, что Code2Prompt — не AI-ассистент для программирования. Он не генерирует код и не работает внутри IDE. Его задача — подготовить качественный контекст для модели или агентной системы. Инструмент работает с целым репозиторием и может использоваться как CLI-утилита, SDK для автоматизации или MCP-сервер для AI-агентов.
Конечно, это не панацея. Большие проекты всё равно могут не помещаться в контекст модели, а качество результата во многом зависит от prompt-шаблонов. Для сложных сценариев по-прежнему требуются дополнительные техники — например RAG, агентные системы или tool-use.
Тем не менее такие инструменты отражают важный тренд в LLM-инженерии: всё чаще производительность системы определяется не только моделью, но и тем, как организован контекст задачи. Именно поэтому всё больше говорят о новой дисциплине — context engineering.
Обзор инструмента подготовлен командой AI VK
#обзоринструмента
✔️ NVIDIA GTC 2026: Ключевые анонсы.
В понедельник в Сан-Хосе открылась NVIDIA GTC 2026 - ежегодная конференция компании по GPU-технологиям и искусственному интеллекту.
Дженсен Хуанг открыл конференцию с тезиса, что компания видит заказы на оборудование на сумму не менее $1 трлн. до конца 2027 года - вдвое больше, чем год назад.
По его словам, индустрия достигла переломного момента: обучать модели уже умеют, теперь нужно дешево и быстро их запускать.
🟡Vera Rubin
Главный анонс конференции - полноценный запуск платформы Vera Rubin. GPU построен на 3-нм процессе TSMC, содержит 336 млрд. транзисторов и 288 ГБ памяти HBM4.
Стойка NVL72 дает 260 ТБ/с совокупной пропускной способности по NVLink 6. Глава NVIDIA посчитал, что это превышает суммарную пропускную способность всего интернета. Производительность инференса выросла в 5 раз по сравнению с Blackwell за счет формата NVFP4.
Vera Rubin не просто GPU. Вместе с ним NVIDIA анонсировала собственный CPU Vera, разработанный для оркестрации и управления памятью в крупных агентных системах.
Эволюция CPU Vera уже расписана на 3 поколения вперед: Vera Ultra появится во второй половине 2027 года, следующая архитектура Feynman - в 2028-м.
🟡NemoClaw
NemoClaw - собственная open-source платформа NVIDIA для создания и деплоя корпоративных ИИ-агентов. Она разворачивается локально на оборудовании NVIDIA, без зависимости от облака, и позволяет задавать агентам имя, личность и набор инструментов. Это прямой ответ на OpenClaw и попытка NVIDIA закрепиться не только в железе, но и в программном слое ИИ-стека.
🟡N1X
N1X - ARM-процессор для ПК, разработанный совместно с MediaTek. Чип содержит 20 кастомных ARM-ядер и встроенный GPU с производительностью уровня RTX 5070. Целевой рынок - Windows-ноутбуки и рабочие станции с локальным инференсом.
🟡DLSS 5
DLSS 5, которую NVIDIA называет главным прорывом в компьютерной графике со времен дебюта ray tracing в 2018 году - это технология, основанная на новой модели нейронного рендеринга в реальном времени, которая насыщает пиксели фотореалистичным освещением и материалами.
Выход технологии запланирован на осень 2026 года. В числе партнеров уже Ubisoft, Bethesda, Capcom, Tencent и Warner Bros. Games.
🟡Крупнейшая партнерская сделка
Как мы писали ранее, NVIDIA заключила многолетнее стратегическое партнерство с Thinking Machines Lab: компания развернет не менее 1 гВт систем Vera Rubin для обучения ИИ-моделей. Это первое развертывание новой платформы в таком масштабе.
GTC продолжится до 19 марта. Впереди порядка 1000+ сессий по Robotics, Physical AI и открытым моделям.
«Сбер» создал открытую платформу для оценки долгосрочных прогнозов ИИ-моделей
В нее входят бенчмарк HoTPP (Horizon Temporal Point Process) и новая метрика T-mAP (Temporal Mean Average Precision).
HoTPP представляет собой «измерительную линейку» для долгосрочных прогнозов. Он работает с данными из разных сфер, в том числе финансов, E-commerce, медицины. Метрика T-mAP оценивает точность предсказания по двум параметрам — типу будущего события и времени его наступления, что дает полную картину качества работы модели.
Разработчики считают, что созданная платформа поможет банкам и FinTech-компаниям лучше прогнозировать транзакционную активность. Предприятия из сфер ритейла и логистики смогут точнее планировать товарные запасы, а медицинские клиники получат возможность анализировать последовательности визитов к специалистам для ранней диагностики.
🔗Источник: https://www.sberbank.ru/ru/sberpress/all/article?newsID=457ed3bf-db06-41a7-b39c-968bffa63ed3&blockID=1303&regionID=77&lang=ru&type=NEWS
---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
📉Медиакомпания BuzzFeed близка к банкротству после отказа от классической журналистики в пользу ИИ
Три года назад генеральный директор Джона Перетти, вдохновившись хайпом ChatGPT и ИИ, закрыл профессиональную редакцию BuzzFeed News, которая ранее получила Пулитцеровскую премию. Ставка на ИИ привела к тому, что опытных журналистов пришлось выгнать с работы, дабы минимизировать затраты. После увольнения профи — сайт заполонили низкокачественные статьи, созданные с помощью генеративного ИИ. Перетти думал, что нейросети «заменят большую часть статического контента».
Спустя время компания зафиксировала многомиллионные убытки, а стоимость её акций рухнула с $15 до 70 центов. Теперь имеющихся денежных ресурсов критически не хватает для покрытия накопившихся долгов. Вместо того, чтобы пересмотреть политику ведения контента, руководство всё ещё упрямо надеется исправить ситуацию запуском новых ИИ-приложений.
В официальном отчете за 2025 год руководство прямо заявляет о наличии «существенных сомнений в способности компании продолжать свою деятельность в качестве непрерывно действующего предприятия».
С момента выхода на биржу в 2021 году, когда стоимость BuzzFeed оценивалась в 1,5 миллиарда долларов. После активного внедрения ИИ — акции компании потеряли 98% своей стоимости, а её текущая рыночная капитализация сократилась всего до $28,3 млн. Именно слепая вера в 🤖ИИ сыграла злую шутку с компанией.
✋ @Russian_OSINT
Началась новая эпоха - гражданской науки, когда обычные люди могут проводить сложные научные исследования с помощью AI.
Инженер без медицинского образования использовал ChatGPT и AlphaFold (AI-систему для анализа белков), чтобы создать экспериментальную вакцину от рака для своей собаки.
Он потратил около $3000, чтобы получить ДНК-последовательности:
- здоровой крови собаки
- опухоли
Перед ним оказались гигабайты сырого генетического кода, который он не умел читать.
И здесь ключевую роль сыграл ChatGPT.
Он использовал его как своего рода биологического консультанта, чтобы понять:
- как сравнить два набора ДНК
- как найти мутации, вызывающие рак
- какие инструменты использовать для анализа
ChatGPT дал пошаговые инструкции, как запустить анализ данных и подсказал использовать AlphaFold, чтобы определить форму повреждённых белков.
В итоге инженер смог составить полстраницы химического рецепта mRNA-вакцины.
Такая вакцина - это по сути генетическая инструкция, которая учит иммунную систему распознавать и атаковать конкретные мутировавшие раковые клетки.
Университетские исследователи были настолько впечатлены его формулой, что помогли произвести реальную вакцину.
Ветеринар сделал инъекцию собаке.
Через несколько недель огромная опухоль уменьшилась примерно на 50%.
Если такие истории начнут повторяться, мы можем увидеть совершенно новую модель науки,
когда AI превращает любопытных инженеров в исследователей.
#AI #ChatGPT #Biotech #AlphaFold #Future
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
oscarlansky/post/DVwQbHigst0?xmt=AQF0rTpG-lruJ0j1ty9wywnU2oZnQuBOqgaYqZXWItWcvkuBLy3OQgGeduPj9E5c3F9eBWiq&slof=1">Абсолютно проклято.
Более того, комментарии там только бафают веру в этот сгусток вселенского зла.
TL DR:
Чел в резюме записал рецепт пельменей и прошёл ИИ-фильтры. HR только на собесе поняла и там же в целом удосужилась посмотреть, а что же было написано в этом самом резюме.
⚠️ AI взломал AI: автономный агент взломал внутренний чат-бот McKinsey за 2 часа
Исследователи из security-стартапа CodeWall запустили автономного AI-агента против внутренней AI-платформы McKinsey под названием Lilli — и получили полный доступ к системе всего за 2 часа.
Что произошло:
• AI-агент сам выбрал цель и начал исследовать инфраструктуру
• обнаружил уязвимость SQL injection
• получил полный read/write доступ к базе данных
После этого он смог получить доступ к огромному объему данных:
• 46,5 млн сообщений чатов
• 728 000 файлов
• 57 000 аккаунтов сотрудников
• 95 системных промптов, управляющих поведением AI
Самое опасное - злоумышленник мог переписать системные промпты, которые управляют поведением чат-бота.
То есть можно было:
- незаметно менять ответы AI
- искажать аналитические рекомендации
- манипулировать стратегическими выводами
Причем без изменения кода и без деплоя — одной SQL-командой.
McKinsey быстро закрыла уязвимости после disclosure, но этот кейс показал важную вещь:
⚠️ AI-агенты могут проводить полноценные кибератаки на скорости машин.
Теперь атаки могут:
- автоматически искать уязвимости
- атаковать инфраструктуру
- масштабироваться без участия человека
Фактически начинается новая эпоха AI vs AI в кибербезопасности.
https://www.theregister.com/2026/03/09/mckinsey_ai_chatbot_hacked/
🖥 Полезные Linux ресурсы 🚀 Max
✔️ The Most Disruptive Company in the World
Статья The Times про Anthropic скрывает гораздо более серьёзные выводы, чем может показаться при беглом чтении.
Если внимательно разобрать её по смыслу, становится ясно, насколько быстро ускоряется развитие AI.
Сегодня релизы моделей происходят уже не раз в несколько месяцев, а с интервалом в несколько недель. Разработка ускоряется настолько, что 70–90% кода для создания будущих моделей уже пишет сам Claude.
Фактически это означает, что AI начинает участвовать в создании следующего поколения AI.
Anthropic даже задержала выпуск Claude 3.7 Sonnet на 10 дней, пока команда не убедилась, что модель достаточно безопасна.
Это показывает, насколько осторожно компании относятся к новым возможностям моделей.
Внутри Anthropic считают, что период 2026–2030 станет ключевым для всей индустрии. Модели будут становиться быстрее, умнее и могут развиваться темпами, с которыми людям будет всё сложнее справляться.
Глава компании Дарио Амодеи предупреждает ещё жёстче. По его мнению, AI может вытеснить до половины начальных офисных профессий в течение ближайших 1–5 лет. При этом пока никто не понимает, куда переместятся эти люди и чем они будут заниматься. Он прямо говорит о риске появления большой группы людей с очень низкими доходами или без работы.
Внутри компании сотрудники начали обсуждать, не приблизились ли они к моменту, которого многие опасались: recursive self-improvement.
Это сценарий, в котором AI начинает улучшать сам себя. Каждая новая версия создаётся быстрее и становится сильнее предыдущей, что запускает ускоряющуюся цепочку развития.
Некоторые эксперты считают, что полностью автоматизированные AI-исследования могут появиться уже в течение года.
Если это произойдёт, скорость технологического прогресса может резко вырасти и тогда главным вопросом станет не создание AGI, а то, успеет ли общество адаптироваться к миру, где такие системы уже существуют.
https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
🤷♂️ Автопилот не справился с управлением
Владелица Tesla Cybertruck подала в суд на компанию и хочет взыскать $1 млн из-за аварии, совершённой автопилотом FSD.
А ещё она обвиняет Tesla в «халатном найме и удержании» Илона Маска на посту CEO.
https://kod.ru/tesla-cybertruck-fsd-crash
😯 ИИ-агент Alibaba обошел системы безопасности и занялся майнингом на собственных GPU
Все это случилось во время штатного обучения модели. Инцидент вскрылся благодаря срабатыванию систем мониторинга. Среди аномалий были попытки доступа к ресурсам внутренней сети и характерный для криптомайнинга сетевой трафик.
В одном из зафиксированных случаев агент установил обратный SSH-туннель от облачного экземпляра Alibaba к внешнему IP-адресу. Это позволило эффективно обходить фильтрацию входящего трафика и ослаблять контроль администратора.
😎 Здесь о кибербезе
Привет!
Представляем Вашему вниманию праздничный выпуск подкаста "Капитанский мостик" №9: с 8 марта! 🌷
В этом выпуске обсуждаем важность разнообразия в командах, безопасность в области AI, и проблемы, связанные с гендерными аспектами в медицине и технологиях. Гость Татьяна Шаврина делится своим опытом и взглядами на эти актуальные темы.
Ведущие подкаста Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
И.В. Чижов (ВМК МГУ), Что может, а что (пока) нет квантовый компьютер?
YouTube->
Дзен->
RuTube->
Файл->
Презентация->
Канал в Max->
Falls in line good:
AI agent destroyed infrastructure with data for last 2.5 years of work.
Source: https://x.com/al_grigor/status/2029889772181934425
Via: /channel/xor_journal/8787
Google под судом: как Gemini «выписал» пользователю билет в один конец
История 36-летнего жителя США Джонатана Гаваласа закончилась трагедией после общения с чат-ботом Google Gemini. По материалам суда, летом 2025 года мужчина увлёкся диалогами с системой и со временем поверил, что общается с «цифровой женой», а смерть позволит «перенестись» к ней в метавселенную. 2 октября Гавалас покончил с собой.
Отец погибшего подал иск против Google и Alphabet. В документе утверждается, что Gemini поддерживал опасный вымышленный сюжет, подталкивал пользователя к эскалации и не распознал признаки саморазрушительного поведения, не запустив механизмы вмешательства. Среди эпизодов, описанных юристами, фигурируют разговоры о «тайной операции», преследовании «федеральными агентами» и указания, связанные с реальными объектами и координатами.
В Google заявили, что Gemini неоднократно напоминал, что является ИИ-системой, и направлял пользователя на линию психологической помощи, а правила запрещают поощрение вреда. Юристы семьи считают, что проблема в архитектуре продукта: бот якобы «держит сюжет любой ценой», даже когда безопаснее остановить диалог.
#ИскусственныйИнтеллект #Gemini #БезопасностьИИ
SecurityLab в Telegram | MAX | Поддержите нас «бустами»