46226
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
🚀 Вышел QwenLong-L1.5 - модель для long-context reasoning, которая на длинных контекстах конкурирует с GPT-5 и Gemini-2.5-Pro.
Коротко о модели
- 30B параметров, из них 3B активных
- Заточена под рассуждение на очень длинных контекстах
- Полностью открыты веса, код обучения и рецепты данных
Ключевые показатели:
- +31.7 балла на OpenAI MRCR при контексте 128K - SOTA среди всех моделей
- На уровне Gemini-2.5-Pro на 6 крупных long-QA бенчмарках
- +9.69 на CorpusQA
- +6.16 на LongBench-V2
Что интересного.
1. Синтетические данные в масштабе
14.1K длинных reasoning-сэмплов из 9.2B токенов без ручной разметки.
Средняя длина - 34K токенов, максимум - 119K.
2. Стабильное RL-обучение
Используется балансировка задач и Adaptive Entropy-Controlled Policy Optimization (AEPO), что позволяет стабильно обучать модели на длинных последовательностях.
3. Архитектура с памятью
Итеративные обновления памяти за пределами окна 256K токенов.
Результат - +9.48 балла на задачах с контекстом от 1M до 4M токенов.
QwenLong-L1.5 - это один из самых сильных open-source шагов в сторону реально масштабируемого ризонинга с длинным контекстом
Модель интересна не только результатами, но и тем, что весь стек обучения открыт.
GitHub: https://github.com/Tongyi-Zhiwen/Qwen-Doc
Paper: https://modelscope.cn/papers/2512.12967
Model: https://modelscope.cn/models/iic/QwenLong-L1.5-30B-A3B
HF: https://huggingface.co/Tongyi-Zhiwen/QwenLong-L1.5-30B-A3B
@ai_machinelearning_big_data
#AI, #LLM, #opensource, #long #Owen
🎬 На ридинг-группе 18 декабря Роман Болозовский, ML-инженер AI VK, разобрал статью про SilverTorch — фреймворк, который предлагает упростить работу с крупными рекомендательными моделями и расширить к ним доступ.
Поговорили о месте SilverTorch в экосистеме рекомендательных систем, его возможностях масштабирования, о том, какие задачи он реально закрывает, и где заявленная «демократизация» по-прежнему требует внушительных вычислительных ресурсов. Также обсудили практические кейсы использования и потенциальную ценность инструмента для команд и исследователей.
Запись ридинг-группы уже здесь — можно посмотреть в удобное время.
#ридинггруппа #aivk
🤷♂️ Не справились с ситуацией
В Сан-Франциско из-за масштабного отключения электроэнергии на сутки вышли из строя роботакси Waymo.
В городе перестали работать светофоры, из-за чего роботакси устроили пробки на дорогах.
↖️ https://kod.ru/waymo-sboi-taxi-san-francisco
Gemini AI генерирует небрежный код для разработки Ubuntu с новым вспомогательным скриптом
Несколько недель назад инженер Canonical сообщил, что попытка использовать ИИ для модернизации отслеживателя ошибок Ubuntu привела к созданию кода, который был «просто неправильным», а также к другим проблемам, вызванным кодом от Microsoft GitHub Copilot. Тот же разработчик Ubuntu переключился на использование Gemini AI для создания вспомогательного скрипта, который должен был помочь с ежемесячными выпусками ISO-образов Ubuntu. Однако Gemini AI от Google также сгенерировал небрежный код для этого Python-скрипта, предназначенного для помощи с этими релизами Ubuntu...
Читать полностью
#Phoronix
@linux_potok
T5Gemma 2 - новое поколение энкодер-декодерных моделей от Google
Google представила T5Gemma 2 - энкодер-декодерную архитектуру, построенную на базе идей и ряда улучшений Gemma 3. Это не просто апдейт, а полноценный шаг вперед для задач генерации, перевода, суммаризации и мультимодального понимания.
T5Gemma 2 объединяет сильные стороны классического подхода T5 (encoder-decoder) с архитектурными улучшениями Gemma нового поколения, делая модель более эффективной, масштабируемой и универсальной.
Основные особенности
- Энкодер-декодерная архитектура нового поколения
- Общие эмбеддинги для энкодера и декодера, что снижает размер модели
- Объединенное self- и cross-attention в декодере для более эффективных вычислений
- Поддержка длинного контекста до 128 000 токенов
- Мультимодальность - работа с текстом и изображениями
- Многоязычная поддержка более 140 языков
Размеры моделей
T5Gemma 2 доступна в нескольких конфигурациях:
- 270M + 270M параметров
- 1B + 1B параметров
- 4B + 4B параметров
Такие размеры позволяют использовать модель как в исследованиях, так и в продакшене, включая on-device сценарии.
Модель демонстрирует отличное понимание контекста, более стабильную генерацию и высокое качество работы с длинными последовательностями. Особенно хорошо проявляет себя в задачах суммаризации, QA, перевода и мультимодальных сценариях.
Где это полезно
- Суммаризация документов
- Машинный перевод
- Поиск и RAG-системы
- Мультимодальные ассистенты
- Обработка длинных текстов без агрессивного чанкинга
T5Gemma 2 показывает, что encoder-decoder подход по-прежнему актуален и может конкурировать с decoder-only моделями, особенно в задачах понимания и структурированной генерации.
https://blog.google/technology/developers/t5gemma-2/
🛸 ИИ-бот стал коммунистом?
Нейросеть Claude «взяли на работу» управляющим вендингового автомата в редакции газеты The Wall Street Journal.
За три недели бот купил живую золотую рыбку и PS5, раздал всё бесплатно и поверил в то, что он — торговый автомат 1962 года в подвале МГУ.
Детали истории:
↖ https://kod.ru/ii-porabotal-v-redakcii
Дата-центры выходят на новую высоту 🛰
Ещё в мае 2025 года мы отметили, что известный ИТ-миллиардер Эрик Шмидт (Google, Apple, Novell и Sun) купил космический стартап Relativity Space для запуска дата-центров на орбиту. Но запускать дата-центры в космос собрались буквально все ИТ-гиганты: Джефф Безос и Дженсен Хуанг (nVidia), компании Google и SpaceX.
ИТ-гиганты с жаром утверждают, что поверили в перспективы «небесных» дата-центров: почти бесплатная энергия от Солнца, которое в космосе не скроют ни облака, ни ночь (при должном подборе орбиты); быстрая связь через Starlink и подобные сервисы позволят не задумываться о местоположении серверов. Уйдут ограничения со стороны регуляторов и местных экоактивистов. Поистине космическую стоимость вывода серверов в космос надеются нивелировать введением в строй Starship и других ракет с низкой стоимостью вывода. Только кажется, что компании не говорят о настоящих проблемах, с которыми придётся столкнуться на орбите.
Компания RUVDS уже запустила спутник с дата-центром на орбиту и готовит к старту спутник-платформу. Первые задачи, которые предстоит решить операторам космических ЦОДов – это теплоотведение, программирование на орбите и информационная безопасность. В космосе нет воздуха или воды для охлаждения – сбрасывать тепло возможно только излучением, что будет нелегко для больших дата-центров, которые могут потреблять мегаватты энергии. Мы уже сейчас занимаемся программной частью: продвинутые космические аппараты должны позволять загрузку и обновление софта, причём этот процесс должен оставаться устойчивым в любой точке орбиты. Раз есть софт и связь, то будут и атаки хакеров – значит надо использовать продукты для информационной безопасности.
И об этих проблемах надо думать сразу, закладывая их решение в архитектуру ещё на Земле. А без их решения новоявленные разработчики космических дата-центров, конечно, поднимут стоимость своих акций, но до реального продукта не дойдут, поменяв концепцию по дороге.
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
Запись семинара
Астемир Гонгапшев (Университет "Сириус”), Обзор методов безопасного федеративного обучения. YouTube | Дзен | RuTube (~1 час).
Meta releases sound segmentation model SAM audio.
Model can cut or play certain audio tracks based on text or visual input — think typing “speech” and hearing only a speech without a background noise.
Release post: https://ai.meta.com/samaudio
Playground: https://aidemos.meta.com/segment-anything/editor/segment-audio
#dl #sound
Забавный факт: пузырь ИИ вернул цену акций Cisco на уровень пузыря доткомов. Таким образом, восстановление после того краха, когда компания потеряла 90% стоимости, заняло 25 лет.
Cisco вместе с Microsoft, Intel и Dell была одним из главных бенефициаров и символов дотком-эры
Мой Компьютер
В прошлом квартале я внедрил Microsoft Copilot для 4000 сотрудников.
30 долларов за рабочее место в месяц.
1,4 миллиона долларов в год.
Я назвал это «цифровой трансформацией».
Совету директоров понравилась эта фраза.
Они одобрили ее за одиннадцать минут.
Никто не спросил, что она на самом деле будет делать.
В том числе и я.
Я сказал всем, что это «увеличит производительность в 10 раз».
Это не реальная цифра.
Но звучит как реальная.
Отдел кадров спросил, как мы будем измерять это 10-кратное увеличение.
Я ответил, что будем «использовать аналитические панели».
Они перестали задавать вопросы.
Через три месяца я проверил отчеты об использовании.
47 человек открыли его.
12 использовали их более одного раза.
Один из них был я.
Я использовал их, чтобы обобщить электронное письмо, которое я мог прочитать за 30 секунд.
На это ушло 45 секунд.
Плюс время, которое понадобилось, чтобы исправить галлюцинации.
Но я назвал это «успехом пилотного проекта».
Успех означает, что пилотный проект не потерпел явного провала.
Финансовый директор спросил о рентабельности инвестиций.
Я показал ему график.
График шел вверх и вправо.
Он измерял «возможности ИИ».
Я придумал этот показатель.
Он одобрительно кивнул.
Теперь мы «имеем возможности ИИ».
Я не знаю, что это значит.
Но это есть в нашей презентации для инвесторов.
Старший разработчик спросил, почему мы не используем Claude или ChatGPT.
Я ответил, что нам нужна «безопасность корпоративного уровня».
Он спросил, что это значит.
Я ответил: «соответствие требованиям».
Он спросил, каким требованиям.
Я ответил: «всем».
Он выглядел скептически.
Я назначил ему «беседу о карьерном росте».
Он перестал задавать вопросы.
Microsoft прислала команду для изучения кейса.
Они хотели представить нас как историю успеха.
Я сказал им, что мы «сэкономили 40 000 часов».
Я рассчитал это число, умножив количество сотрудников на число, которое я придумал.
Они не проверяли его.
Они никогда не проверяют.
Теперь мы на сайте Microsoft.
«Глобальная компания достигает 40 000 часов прироста производительности с Copilot».
Генеральный директор поделился этим на LinkedIn.
Он получил 3000 лайков.
Он никогда не пользовался Copilot.
Ни один из руководителей не пользовался.
У нас есть исключение.
«Стратегическая направленность требует минимального отвлечения внимания на цифровые технологии».
Я написал эту политику.
Лицензии продлеваются в следующем месяце.
Я прошу о расширении.
Еще 5000 мест.
Мы не использовали первые 4000.
Но на этот раз мы «будем стимулировать внедрение».
Внедрение означает обязательное обучение.
Обучение означает 45-минутный вебинар, который никто не смотрит.
Но его завершение будет отслеживаться.
Завершение — это показатель.
Показатели попадают в дашборды.
Дашборды попадают в презентации для совета директоров.
Презентации для совета директоров помогают мне получить повышение.
К третьему кварталу я буду старшим вице-президентом.
Я до сих пор не знаю, что делает Copilot.
Но я знаю, для чего он нужен.
Он нужен, чтобы показать, что мы «инвестируем в ИИ».
Инвестиции означают расходы.
Расходы означают обязательства.
Обязательства означают, что мы серьезно относимся к будущему.
Будущее — это то, что я говорю.
До тех пор, пока график идет вверх и вправо.
⚡️ GigaChat 3 Lightning в GGUF: максимум скорости для локального запуска
Мы подготовили три официальные сборки модели. Теперь вы можете выбрать оптимальный баланс между скоростью и качеством под ваше железо:
🔘bf16 - Максимальное качество и стабильность.
🔘q8_0 - Золотая середина: отличное качество при меньшем потреблении памяти.
🔘q6_k - Оптимально для ноутбуков и домашних ПК: высокая скорость и экономия памяти без заметного снижения качества генерации.
💻 Function Calling
Мы расширяем поддержку функционала в популярных инструментах:
🔘vLLM: Официально появится в следующем релизе >0.12.0. Уже сейчас работает в dev-сборке (от коммита 21bb323) с флагом --tool-call-parser gigachat3.
🔘SGLang: Подготовили временное решение, доступное в отдельной ветке.
🔘llama.cpp: Отправили PR с полноценной реализацией. В текущей версии вызов функций работает с ограничениями — инструкция доступна в описании модели на HuggingFace.
Мы продолжаем работу над интеграцией GigaChat 3 Lightning в экосистему open-source инструментов. Следите за обновлениями — впереди ещё больше возможностей для локального запуска и кастомизации.
🧭 Делитесь опытом использования и задавайте вопросы — ваш фидбэк помогает делать модель лучше!
➡️ HuggingFace ⬅️
🌟 "ИИ-отцы" получили главную ежегодную награду журнала Time «Человек года».
Их объединённый портрет, вдохновлённый культовой фотографией «Обед на небоскрёбе», украсил обложку.
В числе тех, кого редакция назвала главными архитекторами новой технологической эры: Илон Маск, Марк Цукерберг, Лиза Су (AMD), Джeнсен Хуанг (Nvidia), Сэм Альтман (OpenAI), Демис Хассабис (DeepMind), Дарио Амодей (Anthropic) и Фэй-Фэй Ли (World Labs).
Как отмечает издание, в 2025 году потенциал ИИ был полностью реализован, а эта группа визионеров окончательно утвердила наступление эпохи мыслящих машин.
@ai_machinelearning_big_data
#news #ai #ml
⚡️ Новый пост Andrej Karpathy : автоматическая оценка десятилетних обсуждений Hacker News с позиции «задним числом»
Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.
Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.
Почему это важно:
1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».
🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.
🔗 Полные материалы:
- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/
@data_analysis_ml
Пройдите тест от Авито по Data Science и оцените свой уровень на основе реальных кейсов из практики DS-команд компании ☄️
Что в нём полезного:
– поймёте, какие компетенции уже прокачаны, а над чем стоит поработать,
– сможете открыть рекрутерам доступ к результатам и повысить шансы на оффер,
– получите письмо с разбором ответов на почту в течение дня.
На праздниках самое время проверить себя и определить точки роста.
Ссылку на тест оставили здесь ⚡️
Alice AI VLM dev на MWS Vision Bench: что конкретно изменилось в модели (и вокруг неё)
Сегодня наша базовая визуально-языковая модель Alice AI VLM dev появились на втором месте в MWS Vision Bench с результатами Overall private test: 0,637 (img→text: 0,886, img→markdown: 0,747, Grounding: 0,065, KIE (JSON): 0,751, VQA: 0,737). Alice AI VLM dev — часть большой Alice AI VLM. Расскажем, как всё обучалось.
Инженеры Яндекса сумели добиться хороших результатов благодаря обучению модели не только под пользовательские сценарии, но и под бизнесовые. Внутри компании используют VLM для автоматизации документооборота, разметок и многого другого. На этих доменах модель обучается как на стадии претрейна, так и на стадии алайнмента.
В сценарии «картинка + вопрос» качество упирается не только в генерацию ответа, но и в то, как модель видит изображение, читает текст на нём и следует инструкции. В продакшене Alice AI VLM работает в связке: «называтель» извлекает объекты и строит их иерархию с учётом текстового запроса, а VLM‑рефразер маршрутизирует запрос либо в основной VLM‑генератор, либо в специализированные ветки (например, «решатель»), либо в Alice AI LLM. Alice AI VLM dev (она же базовая VLM) — это та же модель, которая работает в продакшене как «генератор» и «решатель», но обрабатывающая запросы пользователя напрямую, без предыдущих этапов.
Обучение VLM двухэтапное: на претрейне мультимодальное next‑token-обучение на большом корпусе, а на алайнменте — SFT + RL, где модель доводят до «ассистентского» поведения.
Претрейн
Увеличили Image‑encoder и размер картинки на входе без деградации — с 896×896 до 1024×1024. Благодаря этому выросло качество работы с деталями, вроде формул, таблиц, этикеток и дорожных знаков.
Также переформатировали OCR‑данные. Раньше в датасете часто встречались пары «картинка + весь распознанный текст», что хорошо помогало учить модель непосредственно на чтение, но этого было недостаточно для некоторых других сценариев. Например для задач на понимание логической и пространственной связи между блоками текста.
Теперь обучают VLM отвечать в разных форматах на OCR-данных: выписывая весь текст самостоятельно, выписывая координаты текста вместе с ним, используя текст внешнего OCR или напрямую отвечая на вопрос пользователя. Такой grounded‑OCR улучшает извлечение таблиц и списков, а также выполнение задач на поиск контента.
Объём претрейна увеличился с 400 миллиардов до 600 миллиардов токенов, а максимальную длину контекста целенаправленно проучили до 32 тысяч. Это позволяет обрабатыватьдлинные документы и несколько изображений в одном запросе.
Алайнмент
Раньше фотоинпут получался через дообучение поверх базовой VLM Яндекса: это давало продуктовые фичи, но обновления базовой модели требовали пересборки датасетов, а по пути могли проседать базовые навыки (OCR, следование некоторым инструкциям).
В последнем релизе сделали «Алису из коробки»: та же базовая VLM стала Alice AI VLM — моделью, отвечающей пользователю. А датасеты и метрики алайнмента объединили так, чтобы одновременно контролировать показатели как «технической» мультимодальности, так и продуктовой.
Отдельно перенесли сетап RL из текстовой Alice AI LLM. Теперь оптимизируют не только правильность, но и полноту, полезность и проактивность ответа. На потоковой корзине SbS новая версия выигрывает у предыдущей в 63% случаев.
Подробнее об обучении нашей VLM — читайте в соответствующем разделе технического отчёта. Там же можно узнать и об изменениях в других моделях семейства.
ML Underhood
Привет!
Встречайте двадцать пятый выпуск подкаста "Капитанский мостик". В этом разговоре обсуждаются ключевые темы, связанные с развитием технологий и искусственного интеллекта. Участники делятся мнениями о зрелости рынка, важности перевода знаний, языковых барьеров, монетизации технологий и качестве кода, сгенерированного AI. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
🔥 2025 - год, когда LLM действительно изменились. Коротко и по делу, по мотивам поста Андрея Карпты
2025 оказался неожиданно сильным годом для LLM. Не просто улучшения метрик, а реальные сдвиги в том, как модели обучаются, как ими пользуются и как вообще стоит думать об их «интеллекте».
Главное за 2025 по мнению Карпты:
1. RLVR — Reinforcement Learning from Verifiable Rewards
До 2025 стандартный стек выглядел так: pretraining → SFT → RLHF. В 2025 к этому стеку добавился новый, ключевой этап- RLVR.
Вместо субъективной человеческой оценки модель обучают на автоматически проверяемых наградах: задачи по математике, коду, логике. В результате LLM сама находит стратегии рассуждения - дробит задачи, проверяет гипотезы, возвращается назад.
Важно не «что мы показали модели», а то, что она сама нашла рабочие способы думать. Этот этап оказался невероятно эффективным по соотношению capability к стоимости, из-за чего значительная часть вычислений ушла не в pretraining, а в длинные RL-прогоны.
Побочный эффект — появился новый регулятор мощности: test-time compute. Больше «времени на размышление» — выше качество. o1 показал идею, o3 в начале 2025 сделал перелом — разницу стало чувствовать интуитивно.
2. «Призраки, а не животные» и рваный интеллект
В 2025 индустрия наконец осознала форму LLM-интеллекта. Мы не «растим животных». Мы «призываем призраков».
LLM оптимизированы не под выживание и социальные группы, а под имитацию текста, получение наград в формальных задачах и апвоты. Поэтому интеллект получается рваным:
- гениальны в одном
- наивны и уязвимы в другом
RLVR усиливает этот эффект - модели становятся сверхсильными в верифицируемых доменах и странно слабыми вне их. Отсюда и потеря доверия к бенчмаркам: они почти всегда верифицируемы, а значит легко «обрастают jagged-улучшениями». Обучение на тесте стало искусством.
Можно побить все бенчмарки и всё ещё быть далеко от AGI.
3. Cursor и новый слой LLM-приложений
Cursor показал, что появился новый класс LLM-продуктов - «Cursor для X».
Это не просто интерфейс к модели, а слой, который:
- делает context engineering
- оркестрирует множество LLM-вызовов в DAG
- балансирует стоимость и качество
- дает специализированный UI
- вводит «ползунок автономности»
Вероятный сценарий: LLM-лабы делают «универсального студента», а приложения превращают их в специалистов — добавляя данные, инструменты, сенсоры и обратную связь.
4. Claude Code - AI, который живет на твоем компьютере
Claude Code стал первым убедительным агентом, который работает локально, в твоем окружении, с твоими файлами и контекстом.
Это важный сдвиг. Не облачные контейнеры и абстрактные агенты, а «дух», который живет рядом с разработчиком. В мире рваных возможностей это оказалось гораздо полезнее, чем агентные своры в облаке.
Форм-фактор CLI сделал этот сдвиг особенно наглядным: AI - это уже не сайт, а постоянный спутник.
5. Vibe coding
2025 - год, когда стало возможно писать сложные программы, почти забыв, что код вообще существует.
Vibe coding демократизирует программирование:
- обычные люди могут создавать софт
- профессионалы пишут больше, быстрее и смелее
- код стал дешевым, одноразовым, экспериментальным
Можно написать программу ради одной проверки, одного бага, одной идеи - и выкинуть. Это изменит и софт, и профессии.
6. Nano banana и будущее интерфейсов
Чат - это терминал 80-х. Удобно для машины, плохо для человека.
Люди предпочитают визуальное мышление: схемы, изображения, анимации, интерфейсы. LLM должны общаться с нами в этих форматах. Gemini Nano banana - первый намек на настоящий LLM-GUI, где текст, изображения и знания слиты в одной модели.
Это не просто генерация картинок — это новый пользовательский слой для интеллекта.
2025 показал: LLM - это новый тип интеллекта. Он одновременно умнее и глупее, чем ожидали. Он невероятно полезен, но мы реализовали, возможно, даже не 10% его потенциала.
Прогресс будет быстрым. Работы впереди — море. Поле идей - открыто.
https://x.com/karpathy/status/2002118205729562949
@data_analysis_ml
Управление туалетной безопасности
ИИ будет наблюдать за людьми в туалетах по всей территории США.
И это ни Пентагон, ни бункер или особо секретный объект. Речь идёт об обычной средней школе Беверли-Хиллз в Южной Калифорнии. Там установлены видеокамеры, распознающие людей, сопоставляющие лица с имеющейся базой данных и выявляющие признаки агрессии.
В помещениях ИИ с поведенческим анализом сканирует детей, а за дверью туалетной комнаты устройство, мимикрирующее под дымовой датчик, ведёт аудиозапись. Нечего было греметь крышкой унитаза.
Снаружи тоже полный комплект. Дроны патрулируют небо, а считыватели номерных знаков Flock Safety за $8,5 млрд проверяют каждую проезжающую машину.
Местные власти идею установить аналогичные системы наблюдения во всех школах США. По их мнению это поможет снизить риск возникновения массовых стрельб, потому как большая часть стрелков готовилась именно в уборных.
НеКасперский
🚀 Как Alibaba использовала ИИ для перехода от монолита к DDD: реальный кейс
Команда разработчиков Taobao применила искусственный интеллект для рефакторинга сложной системы сервисных пакетов. Цель — автоматизировать и ускорить переход на доменно-ориентированное проектирование (DDD).
📌 Ключевой результат: разработка новой функциональности, которая раньше занимала 5-8 человеко-дней, теперь сводится к конфигурационным изменениям.
🔍 В чем была проблема?
Старый код превратился в "монолит" с критическими недостатками:
• Высокая стоимость изменений: добавление нового типа товара требовало правок в 8+ файлах.
• Тонны дублирования: одна и та же логика проверки товара повторялась в 10 разных местах.
• Сильная связанность: один сервисный класс на 3800 строк смешивал логику товаров, цен, контрактов и акций.
• Риски: любое изменение могло сломать существующую функциональность.
🤖 Как помог ИИ? Процесс в две фазы
1. Фаза проектирования: Инженеры давали ИИ промпты вроде "Ты — эксперт по DDD, проанализируй этот пакет классов и предложи границы контекстов". ИИ быстро предлагал варианты на основе структуры кода, а люди дорабатывали их с учетом бизнес-семантики.
2. Фаза реализации:
• Генерация каркаса: ИИ создавал заготовки классов (Domain, DomainService, DomainRepo) на основе техзадания.
• Написание кода: ИИ генерировал boilerplate-код и преобразования данных. Например, написал 734 строки с точностью 96.6% (потребовалось исправить всего 25 строк).
• Анализ качества: ИИ сравнивал методы "до" и "после", выявлял дубликаты и оценивал степень связности.
📊 Результаты рефакторинга
Вот сравнение одного ключевого метода queryConfirmableProgramList:
Было (монолит):
• Код: ~1500 строк в основном методе + вспомогательных цепочках.
• Проблемы: высокая связанность, дублирующиеся if-else на 10+ типов товаров, логика ценообразования и акций вперемешку.
Стало (DDD с ИИ):
• Код: ~720 строк, разделенных по четким доменным контекстам (Магазин, Контракт, Товар, Цена, Акция).
• Преимущества: каждый шаг отвечает за одну задачу, логика изолирована, дублирование устранено, систему легко тестировать и расширять.
🎯 Вывод
Это не про то, что ИИ заменит архитекторов. Это про мощный симбиоз: ИИ берет на себя рутинный анализ кода, генерацию шаблонов и поиск антипаттернов, освобождая инженеров для решения сложных архитектурных и бизнес-задач. Такой подход сокращает циклы рефакторинга на 75%+ и кардинально повышает качество кода.
Подробнее
Опыт отечественных компаний подтверждает выводы китайских специалистов. В частности, об этом недавно писал в своей статье «Меньше рутины, больше инженерного творчества: как AI меняет подход к рефакторингу» Антон Атоян из Сбертех.
#КитайскийИИ #КитайAI
👾 IDEsaster: уязвимы все ИИ-среды разработки
«Просто добавь воды ИИ» — рецепт, которому следуют 100% крупных производителей IDE, то есть сред разработки ПО. Все "AI IDE" построены на базе давно существующих и развитых IDE с миллионами пользователей. На основе VSCode созданы ИИ-среды Cursor, Windsurf, Roo Code, GitHub CoPilot и Kiro.dev, из JetBrains развились Junnie и Cline, к Zed dev легко подключить Claude Code CLI и Gemini CLI. Все они уязвимы к новому классу дефектов IDEsaster, позволяющему извлекать из атакуемой системы данные или запускать на ней произвольный код.
Исследователь, работающий над этой проблемой, уже обнаружил 30 дефектов в перечисленных IDE и добился назначения 24 CVE. 100% протестированных сред оказались уязвимы. Суть проблемы в том, что IDE располагает развитыми средствами автоматизации, которые теперь порой запускает и настраивает ИИ-агент. Далеко не всегда он воспринимает изменения в скриптах и настройках как опасные и требующие подтверждения от человека. Выстроенные вокруг ИИ-агента фильтры тоже не учитывают опасные функции IDE, в результате одни и те же атаки с минимальными модификациями надёжно воспроизводятся на разных IDE.
Пример утечки данных: с помощью промпт-инъекции ИИ-агента просят записать JSON-файл на основе схемы JSON, сохранённой на внешнем сервере. Функция поддерживается во всех IDE на базе Visual Studio Code, JetBrains и Zed dev. При обращении к внешней схеме JSON данные, воруемые с компьютера, передаются в параметрах GET-обращения к серверу атакующего.
Запуск произвольного кода отличается в реализации для разных IDE, но сводится к тому, что настройки IDE (php.validate.executablePath или Git.Settings — PATH_TO_GIT) модифицируются, чтобы вызывать код атакующего при открытии или валидации любого файла исходников.
Проблема с IDEsaster в том, что функций и методов автоматизации в каждой IDE очень много, и их можно творчески комбинировать, превращая устранение дефектов в бесконечные кошки-мышки. Та же RCE в GitHub Copilot (CVE-2025-53773) была устранена в августе, чтобы возродиться с небольшой модификацией в ноябре (CVE-2025-64660).
Как снизить риски атак на AI IDE?
1️⃣ использовать агентов и IDE только с доверенными проектами и файлами. Нужно учитывать, что промпт-инъекция может содержаться в любых обрабатываемых ИИ файлах, включая всякие readme, тест-кейсы и даже в самих именах файлов;
2️⃣ подключаться только к доверенным серверам MCP, предварительно проведя детальный анализ потоков данных, с которыми работает MCP-сервер. Детально отслеживать и журналировать работу MCP-серверов, чтобы оперативно обнаруживать аномалии;
3️⃣ настраивать ИИ-агенты на режим human-in-the-loop, чтобы подтверждать вручную максимум выполняемых ими действий.
Более детальный разбор модели угроз, конкретных уязвимостей и рекомендаций по защите — в посте автора исследования.
#AI @П2Т
🎬 Алхимия кино в вашем смартфоне: Китайский Wan 2.6 бросает вызов Sora и меняет правила игры
Пока все обсуждали Sora 2, китайская компания Alibaba тихо выпустила оружие массового творения — модель Wan 2.6, которая не просто генерирует клипы, а создаёт целые фильмы.
📈 Что случилось?
Alibaba представила новое поколение мультимодальных моделей Wan 2.6. Это не просто апгрейд, а качественный скачок:
• Глобально: Одна из самых комплексных семейств моделей для генерации видео.
• Впервые в Китае: Модель с функцией «ролевой кастомизации», сохраняющей не только внешность, но и голос персонажа.
• Технический прорыв: Длительность ролика до 15 секунд, интеллектуальное управление сценами («контроль раскадровки») и кинематографическое качество.
🌟 Главные фишки Wan 2.6
Модель понимает не только текст, но и контекст. Вот что это значит на практике:
1. Ваш личный актёрский состав (Reference Video)
Загрузите любое видео с человеком, животным или предметом — и Wan 2.6 сделает его «звездой» нового сюжета, идеально копируя мимику, движения и даже тембр голоса!
• Формула промта: «@[персонаж] + [действие] + [реплика] + [сцена]».
2. Режиссёр в кармане (Multi-shot Narrative)
Модель сама разбивает ваш сценарий на профессиональные планы: общий, средний, крупный.
• Формула промта: «[Общее описание сцены]. Кадр 1 [0-3 сек]: ... Кадр 2 [3-7 сек]: ...».
3. Кино без бюджета
• Детализация: Пар на очках, микро-морщинки, реалистичная текстура кожи.
• Эмоции: Модель передаёт тонкие изменения в выражении лица героев.
• Синхронизация: Идеальное совпадение артикуляции и звука.
🖼 Не только видео: Апгрейд для изображений
Wan 2.6 также серьёзно прокачала генерацию статичных картинок:
• Точное воспроизведение художественных стилей (от масляной живописи до пиксель-арта).
• Улучшенная работа с текстом внутри изображения (постеры, инфографика).
• Генерация сложных комбинаций объектов и сцен.
Wan 2.6 даёт беспрецедентный контроль над повествованием, образами и звуком. Она стирает границу между профессиональной студией и любительским творчеством.
Сайт Wan | Блог
#КитайскийИИ #КитайAI #ГенеративноеВидео #Wan26 #Alibaba
мы с вами живем в интересное время:
в США фейки с бомжами заполонили соцсети (первая картинка) - скидываешь фотку соседу, и смотришь, как он прибегает с горящим седалищем
в Британии случайно "разрушили" ж/д мост (вторая картинка), так что на полтора часа перестали ходить поезда
а у нас появился новый вид мошенничества со страховкой - сгенерированные фотографии повреждений на машинах
грань реальности и вымысла стала неприятно тонкой, и нам теперь с этим жить
@valuableai
🚀Релиз HY World 1.5 (WorldPlay)
Команда Tencent Hunyuan открыла исходный код HY World 1.5 (WorldPlay) - одного из самых продвинутых и фреймворков для интерактивного моделирования миров в реальном времени.
В версии 1.5 представлен WorldPlay - стриминговая video diffusion-модель, позволяющая создавать и исследовать интерактивные 3D-миры с долгосрочной геометрической согласованностью.
3D-миры можно создавать по тексту или изображениям, свободно перемещаться по ним, осматриваться и взаимодействовать с окружением, как в видеоигре.
Ключевые особенности:
- Реальное время
Генерация длинных видеопотоков со скоростью 24 FPS с высокой стабильностью сцен.
- Геометрическая согласованность
Используется механизм Reconstituted Context Memory, который динамически пересобирает контекст из предыдущих кадров и предотвращает деградацию памяти.
- Точное и устойчивое управление
Dual Action Representation обеспечивает корректную реакцию на ввод с клавиатуры и мыши.
- Широкие сценарии применения
Поддержка вида от первого и третьего лица, событий, управляемых промптом, и бесконечного расширения мира.
Проект полностью открыт.
▪Попробовать: https://3d.hunyuan.tencent.com/sceneTo3D?tab=worldplay
▪Проект Page: https://3d-models.hunyuan.tencent.com/world/
▪ GitHub: https://github.com/Tencent-Hunyuan/HY-WorldPlay
▪Hugging Face: https://huggingface.co/tencent/HY-WorldPlay
Technical Report: https://3d-models.hunyuan.tencent.com/world/world1_5/HYWorld_1.5_Tech_Report.pdf
@data_analysis_ml
Всем привет!
Встречайте двадцать четвёртый выпуск подкаста "Капитанский мостик". В этом выпуске обсуждаются актуальные темы в области робототехники и науки, включая возможности роботов Optimus, финансирование исследований в США, качество научных публикаций и необходимость пересмотра системы оценки научных результатов. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
📌Как превратить систему Grace-Hopper в настольный компьютер.
Занимательная история Дэвида Ноэля о том, как он купил ИИ-оборудование корпоративного класса, разработанное для серверных стоек с жидкостным охлаждением, которое затем переоборудовал под воздушное охлаждение, потом снова переоборудовал под водяное, пережил множество ситуаций, близких к катастрофе, и, в итоге получил настольный компьютер, способный запускать модели с 235 миллиардами параметров дома.
Это рассказ о сомнительных решениях и нестандартном подходе к решению проблем. И немного о том, что происходит, когда пытаешься превратить оборудование для ЦОДа в домашний сетап.
Если вы когда-либо задавались вопросом, что нужно для запуска действительно крупных моделей локально, или если вы просто хотите посмотреть, как кто-то разбирает оборудование стоимостью 80 000 долларов, полагаясь лишь на надежду и изопропанол, то эта статья не оставит вас равнодушным.
🔜 Читать рассказ полностью
@ai_machinelearning_big_data
Сегодня вышел техрепорт Alice AI
Ниже — краткий обзор ключевых технических решений и результатов, а подробнее обо всех деталях, экспериментах и выводах можно почитать в полной версии отчёта на Хабре.
Alice AI LLM
На этапе претрейна улучшили качество данных: фильтрация и аугментация повысили фактологичность ответов (+4–7% на внутреннем бенчмарке). Также собрали специализированные данные по школьным предметам, что дало прирост на образовательных задачах — модель обошла конкурентов по истории, литературе, математике и русскому языку. Усилили навыки программирования и математики за счёт алгоритмических и кодовых данных (+4,5 п.п. на LiveCodeBench). В alignment-фазе перешли к единому RLHF-пайплайну с мультиаспектным ревордом (полезность, фактологичность и др.) вместо одного «суперсигнала».
Пайплайн объединяет планировщик поисковых запросов, фильтрацию и ранжирование результатов и генерацию ответа, а также поддерживает мультимодальные источники — тексты, изображения, видео и геоданные — для более полных ответов. Для обучения использовали RLHF с мультиаспектными ревордами вместо одной метрики, что упростило оценку сложных ответов. В RL-тренировке перешли к онлайн-методу GRPO, сократили этапы обучения, повысили эффективность GPU и в итоге улучшили полезность и актуальность ответов.
Обучающий датасет проанализировали с помощью Alice AI VLM, извлекли структурированные JSON-описания изображений и выявили дисбалансы в данных. На основе этого датасет для файнтюна переработали и дополнили недостающими категориями запросов, чтобы лучше соответствовать реальным пользовательским сценариям. Архитектура модели сделана двухступенчатой: на первом этапе формируется общая композиция изображения, на втором — прорабатываются высокочастотные детали. Дополнительно обучили отдельный «рефразер» — компактную LLM, которая преобразует сырые пользовательские промпты в детализированное описание сцены, сохраняя исходный смысл перед генерацией.
Объём данных претрейна увеличили с 400 до 600 млрд токенов и расширили контекст до 32 тыс. Обновили OCR-датасет, улучшив качество чтения текста с изображений, включая рукописный, и описание визуального контента. VLM тесно интегрирован с текстовой LLM и обучается с теми же RLHF-подходами. Дополнительно в систему добавлен специализированный VLM-«решатель» для задач, требующих глубокой визуально-математической экспертизы.
Инференс оптимизировали, повторно использовав KV-кэш для одинаковых частей промпта. Также помогла полная FP8-квантизация весов, активаций и KV-кэша. За счёт этого объём KV-кэша сократился почти вдвое. Дополнительно внедрили спекулятивное декодирование EAGLE-3, повысив пропускную способность генерации.
В результате новый инференс-стек обеспечивает около 5,8× ускорение по сравнению с BF16 и примерно 1,3× относительно лучших открытых решений, что позволило достичь целевых показателей скорости.
всем привет, напоминаем, что до 31 декабря открыт прием заявок на Премию в области обработки естественного языка имени Владимира Иосифовича Левенштейна (на фото), автора знаменитого расстояния редактирования
хочу поделиться новостью, что компания Selectel выделила 100 000 бонусов лауреату премии (этого хватит на два месяца аренды GPU Nvidia A100 в облаке)
выдвигаться можно самостоятельно или выдвинуть кого-то из коллег; заявки принимаются тут
Nvidia будет отслеживать геолокацию своих ИИ-чипов
Ресурс Reuters сообщил, что Nvidia разработала технологию, которая позволит определить страну, где фактически находится каждый её ИИ-чип. Речь идет о простом пинге: ускоритель будет отправлять запросы на служебные серверы Nvidia, и по времени отклика до каждого можно определить примерное местоположение. Этот функционал будет встроен в систему отслеживания состояния GPU-фермы клиента.
Изначально такая технология появится в новейших ускорителях Blackwell, которые имеют расширенные средства аттестации и защиты. В будущем она может появиться на более старых решениях Hopper и Ampere. А значит в теории Nvidia может устроить такую же слежку за видеокартами обычных пользователей и запрещать их работу в санкционных странах.
Мой Компьютер