76843
Первый журнал о Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks По вопросам сотрудничества: @v2r8n
Только что на True Tech Champ послушали доклад исследователя Валентина Малых (@valuableai). Валентин руководит фундаментальными исследованиями в MWS AI и преподает в ИТМО, МФТИ и НИУ ВШЭ.
Он уже очень долго занимается информационным поиском и рассказал много интересного на тему реального развертывания таких систем. В частности, затронул довольно горячую тему: RAG против длинного контекста.
Бытует мнение, что RAG – это костыль, обходной путь вокруг ограничений короткого контекста LLM, который работает хуже. И действительно, с RAG бывают проблемы.
Например, Валентин упомянул статью от DeepMind, чьи исследователи доказали, что RAG имеет фундаментальное ограничение: при фиксированной длине вектора, начиная с некоторого размера базы, извлечение всех релевантных документов становится математически невозможным. Более подробно эту статью мы разбирали здесь.
А вот что Валентин говорит по поводу полной замены RAG длинным контекстом:
1. Длинный контекст – не панацея. Сейчас появляются модели все с большим и большим контекстным окном, но прогонять текст через них дорого и долго. Можно пользоваться RAG, и при этом получать почти такое же качество в десятки раз быстрее.
2. В ближайшем будущем вряд ли будет модель, которая сможет прочитать «все и сразу». Все знания человечества – это примерно 30 триллионов токенов, то есть довольно много. Так что RAG останется актуальным даже с увеличением контекста. И из-за качества, и из-за эффективности: во многих задачах лучше получить не очень хороший ответ сейчас, чем хороший через полчаса.
3. Возможно, с развитием ИИ понимание RAG изменится. Технологии поменяются, но концепция останется: извлекаем из чего-то большого что-то маленькое, чтобы с этим работать. Например, тренд на появление в сетях долгосрочной памяти – тоже из этой области.
Через полчаса на True Tech Champ начинается суперфинал по программированию роботов.
10 команд со всей страны, которые вышли в финал, с утра соревновались в прохождении трех трасс: полоса препятствий (ее хорошо видно на фото), лабиринт и трасса «над пропастью».
Сейчас 6 победителей сразятся в поединках в формате "Царь горы". Должно быть зрелищно.
Трансляцию битвы можно будет смотреть вот тут. В том числе выступят команды от многих вузов, так что болейте за свою альма-матер!
Ну а мы пока еще успеваем на пару локаций. Уже были на ИТ-Родео, проходили ИИ-лабиринт, сражались робо-пауками и проходили мини-квест с электронными замками. Даже заработали несколько True Coins (но на мерч пока не хватает, так что идем добивать 😐)
⚫ Мы приехали на True Tech Champ 2025 – третий всероссийский чемпионат по алгоритмическому и робототехническому программированию.
Сегодня тут можно будет понаблюдать, как 350 самых талантливых программистов со всей страны сразятся за 10 250 000 рублей, послушать выступления известных экспертов, самому покодить на воркшопах и развлечься на одиннадцати специальных станциях.
Например, тут есть айтивность, где надо решить алго-задачку, при этом удерживаясь в седле механического быка (100% must). А лекторий оформлен в стиле ИТ-качалки.
Трансляцию выступлений, кстати, уже запустили, так что можете взглянуть на расписание и смотреть фест сами, он абсолютно бесплатный. Вот ради чего приехали мы:
1. Воркшоп знаменитого Майкла Лэнхема. Он автор книги AI Agents in Action и сегодня проведет тут двухчасовой мастер-класс по ИИ-агентам.
2. Выступления Тони Янга (директор по североамериканскому бизнесу в Unitree Robotics), Валентина Малых (один из лучших экспертов по RAG в России) и Артема Лыкова (специалист по world models).
3. И, конечно, битва роботов. Финалистам чемпионата предстоит пройти полосу препятствий, лабиринт и узкую трассу, а в суперфинале будут поединки между роботами 1–1.
Кто тоже пришел офлайн – подходите общаться!
🤝У вас есть AI-проект, у Selectel – мощности для него
Арендуйте выделенные серверы с GPU в Selectel для ускорения задач по инференсу и обучению LLM в Selectel: Большой выбор видеокарт (от RTX 4090 до H200),
• Готовые и кастомные конфигурации серверов,
• Аренда на день или месяц,
• Запуск сервера от 2 минут,
• Возможность аренды сервера с доставкой до вашей площадки.
Разверните ваш проект на выделенных серверах с GPU в Selectel: https://slc.tl/ukwsk
Реклама. АО "Селектел". erid:2W5zFHzHnGx
🦾 Argo Workflows и MLOps: автоматизируйте всё, что можно
Если вы хотите, чтобы обучение и деплой моделей стали управляемыми и предсказуемыми — пора переходить к автоматизации. На открытом уроке разберём, как оркестрация ML-процессов в Kubernetes превращает хаос в стройную систему. Мы покажем, как описывать пайплайны в YAML, передавать данные между шагами и управлять всем через UI и CLI. Разберём архитектуру Argo Workflows и создадим типовой ML-процесс: от обучения до деплоя модели.
Вы научитесь использовать Argo Workflows для автоматизации задач, которые раньше занимали дни. Вы увидите, как CI/CD становится естественной частью ML-инфраструктуры. Поймёте, как Data Scientists и DevOps могут говорить на одном языке.
➡️ Регистрируйтесь на открытый урок в преддверии старта курса “MLOps”. Создавайте надёжные и масштабируемые ML-пайплайны: https://otus.pw/jHgt/
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Сегодня у нас рекомендация для тех, кто ценит подход "честно и по делу"
Без предисловий, вот вам отличный канал: @dimabeseda. Это дневник опытного действующего предпринимателя Дмитрия Беседы, в котором он честно и без прекрас делится опытом, мыслями, рефлексией и факапами.
Несколько фактов про автора, чтобы вы поняли, о ком речь:
1. Он сделал уже несколько успешных стартапов в области гейминга и ИИ. Среди них проекты, проданные Xsolla, и сервисы с более чем 5 миллионами пользователей в месяц.
2. Первые деньги Дима заработал, прокачав рейтинг в World of Warcraft одному известному хоккеисту, а однажды продавал виртуальных коней члену королевской семьи Дубая.
3. В своих проектах он потратил совокупно более $15 млн на рекламу у инфлюенсеров. А сейчас, кстати, развивает AI-агента для продюсирования видео для креаторов в Instagram, TikTok и Youtube. Об этом он тоже пишет в канале.
Разыскивается гуру метрик, который точно знает, как улучшить любую рекламу 🕵️
Если это ты, приходи 29 ноября на One Day Offer для Data-аналитиков — получишь реальный шанс стать частью рекламной платформы SberAds и работать над креативными задачами:
➖ создавать гипотезы для роста метрик
➖ визуализировать мониторинг качества ключевых метрик
➖ анализировать взаимосвязи между показами, кликами, конверсиями и т. д.
➖ разрабатывать SQL-запросы и ETL-логику
Регистрируйся по ссылке — будущие коллеги уже ждут!
Джефф Безос основал ИИ-стартап Project Prometheus
Пока подробностей немного: компания находится в стелс моде. Известно только, что Безос уже собрал 6.2 миллиарда долларов инвестиций, часть из которых вложил сам, и что он будет занимать роль Co-Chief Executive.
Ключевая цель стартапа заявляется как «ускорение научных открытый и повышение эффективности классических производственных процессов». В компании хотят сделать ставку на ИИ, который будет учится на реальных физических экспериментах и данных.
Звучит занятно, конечно. Некоторые издания пишут, что в команде уже почти 100 опытных исследователей. И еще есть изюминка: ожидается тесная связь стартапа с Blue Origin, аэрокосмической компанией Безоса.
У Google Colab теперь есть официальная интеграция с VSCode
Это значит, что наконец-то можно будет подключать локальные ноутбуки к средам Colab и, не выходя из IDE, использовать, например, TPU.
Как это сделать:
1. В VSCode заходим в Extensions, ищем Google Colab и устанавливаем.
2. Создаем или импортируем файл .ipynb в проект.
3. Кликаем Select Kernel справа сверху, выбираем Colab и затем нужный runtime. Заходим в свой аккаунт Google и готово.
Как говорится, happy coding 🍯
Сэм Альтман совместно с Льюисом Андре основал компанию, заявленную как «новый тип R&D-организации»
Компания под названием Episteme намерена нанимать выдающихся исследователей из разных областей и давать им возможность заниматься своими исследованиями без бюрократии и давления со стороны коммерции.
Сотрудникам они обещают все необходимые ресурсы, инфраструктуру и поддержку. Также исследователи будут получать долю в компании.
Цель – заниматься идеями, которые могут стать прорывными в долгосроке. В академии на такие обычно не хватает денег, а в индустрии они не получают достаточно внимания или свободы, потому что промышленность ориентирована на быстрые результаты и прибыль.
По темам целятся в пересечение физики, биологии, вычислений и энергии. То есть все равно в те области, где значимые исследования в итоге могут принести значимый экономический эффект (но в анонсе, конечно, говорится только про эффект для человечества).
В общем, пока звучит слишком хорошо для того, чтобы быть правдой, но новость интересная. Посмотрим, кто пойдет к ним работать.
Сайт: episteme.com
👿 Data Dojo 27 ноября: программа встречи
Data Dojo — мероприятие Яндекса для ML-энтузиастов всех уровней. Какие будут лекции:
17:10 Обзор трендов и предварительные итоги года
Сергей Овчаренко, руководитель отдела мультимодального анализа и генерации
Сергей Фиронов, ведущий разработчик службы поведения и предсказания департамента Автономного транспорта
Дмитрий Солодуха, руководитель команды голосовой активации
ИИ в Google Colab теперь будет доступен бесплатным пользователям 🕺
К моделям уже можно обратиться двумя способами:
1. Через библиотеку google.colab.ai, которую сделали открытой для всех пользователей. Прямо в ячейке прописываете from google.colab import ai, и затем можете:
– Просмотреть все доступные вам модели:ai.list_models()Сгенерировать что-нибудь:
–response = ai.generate_text("2+2?", model_name = 'google/gemini-2.0-flash-lite')
print(response)
– Или стримить ответ:stream = ai.generate_text("Tell me a short story.", stream=True)
for text in stream:
print(text, end='')
2. Через новую кнопку «Add AI prompt cell», которая теперь расположена рядом с кнопкой +Code. Тут уже никакой код писать не надо, система сама предложит вам готовую ячейку с интерфейсом для написания промпта.
Новая статья от DeepMind: учим модели видеть, как люди
Помните класическую детсткую игру "Найди лишнее"? Из нескольких картинок нужно вычеркнуть ту, которая выбивается из общего ряда, по английски называется odd-one-out. Так вот: авторы протестировали на этой игре несколько vision моделей и выяснили, что они далеко не всегда рассуждают, как люди.
Это связано с тем, что модели, даже самые мощные, все еще видят мир иначе, нежели мы. Люди группируют объекты по смыслу, а модели – чаще по визуальным/текстурным признакам. Например, в задаче <морская звезда, кот, лиса> люди выбирают морскую звезду, потому что она живет в воде, а модели – кота, потому что картинка выделяется из цветовой палитры.
Недостаток важный, потому что если модель не структурирует свой внутренний образ мира, как человек, ее решения могут быть алогичными и ненадежными.
Что сделали в DeepMind:
– Взяли большую visual модель, заморозили ее и искусственно пристроили небольшой адаптер, обученный только на датасете с человеческими ответами по odd-one-out.
– Нагенерировали с помощью этой модели гигантский датасет с миллионами решений odd-one-out.
– На основе этого большого датасета дообучали другие модели так, чтобы их внутренние представления стали ближе к человеческой логике группировки.
То есть, вроде как, модельки просто натаскали на какую-то одну детскую игру, ничего удивительного. Но оказалось, что это качественно изменило их скрытое пространство. См. третий скрин: слева модель до элаймента, справа после. Видно, как появляются четкие кластеры, соответствующие человеческой логике (например, животные, еда и тд). Красота же?
А еще такая модель оказалось более устойчивой с точки зрения изменения распределения. Например, если на картинках поменять фон, освещение или другие условия, ее ответы все еще остаются подвластными логике. В целом можно ожидать, что такая модель и генерализоваться будет быстрее обычной.
deepmind.google/blog/teaching-ai-to-see-the-world-more-like-we-do/
OpenAI выпустили GPT-5.1
В обновленную линейку вошли две модели: GPT-5.1 Instant и GPT-5.1 Thinking.
Instant – это версия для любителей теплых разговоров. После выхода пятерки огромная масса людей жаловалась на то, что модель стала холодной и «бездушной» и ностальгировали по GPT-4o. Вот OpenAI и добавили в GPT-5 щепотку ванильности. Теперь система лучше шутит, проще воспринимается, но может отвечать и более сдержанно, если это нужно пользователю.
Thinking – это прокачанный ризонинг. Говорят, модель стала заметно лучше справляться с инструкциями и адаптироваться под сложность вопроса: быстро отвечает на простые и думает еще дольше над сложными (см график).
Старые модели еще три месяца будут доступны в разделе легаси. Новые раскатывают, как обычно, сначала на всех платных юзеров, потом на остальных.
openai.com/index/gpt-5-1/
Mediascope опубликовал статистику самых популярных ИИ-ассистентов России: победила Алиса AI
Нейросетью Яндекса пользуется 14.3% населения. Для сравнения, у ближайшего конкурента, DeepSeek, доля в полтора раза меньше (9%). Для российского продукта такая планка покорилась впервые, еще весной уверенно лидировали зарубежные нейросети. Ближайший российский конкурент — GigaChat — отстал еще сильнее и расположился примерно на одной ступеньке с ChatGPT (4% и 3,5% соответственно).
На самом деле, неудивительно. Продукт у Яндекса получился действительно удобный для широкой аудитории, понимает реальные запросы пользователей, да и по-русски говорит лучше, чем зарубежные модели. К тому же не требует VPN, что очень весомо для среднего пользователя, и легко оплачивается. Переломным моментом стало недавнее громкое обновление Алисы AI, которое сделало ее самой быстрорастущей нейронкой — за первую неделю приложение скачали полтора миллиона раз.
Буквально все мы на этой неделе:
Давненько не было такой плотной череды релизов
OpenAI уже второй день всеми силами пытается оттянуть на себя внимание от новостей Google: на этот раз в ход пошел козырь в виде общих чатов в ChatGPT
Работает просто. Приглашаете в чат кого хотите, общаетесь, по мере надобности вызываете в диалог модельку. Удобно для локального обсуждения какого-нибудь проекта, но очень ситуативно. Уже раскатили на всех платников.
Лайк, если тоже считаете, что лучше бы они сделали тг-бота ✌️
openai.com/index/group-chats-in-chatgpt/
Все, Ян Лекун официально подтвердил, что уходит из Meta*
В посте на LinkedIn он написал, что создает стартап для продолжения исследовательской программы Advanced Machine Intelligence (AMI). Что такое AMI и чем Лекуну не угодил термин AGI, мы писали тут.
Цель стартапа – «сделать следующую большую революцию в ИИ»: создать системы, которые понимают физический мир, обладают постоянной памятью, могут рассуждать и планировать сложные действия.
По моему замыслу, AMI будет иметь широкое применение в различных секторах экономики. Некоторые из них пересекаются с коммерческими интересами Meta, а многие нет. Продолжать работу AMI как независимой организации – мой способ максимизировать её масштабное влияние.
В Твиттере была обнаружена картинка дня
POV: ChatGPT слушает, что на этот раз тебе опять от него нужно
Новая ИИ-IDE Antigravity от Google: первые впечатления
Главное, почему стоит хотя бы попробовать: Antigravity пока что доступна со всем своим функционалом абсолютно бесплатно на MacOS, Windows и Linux. Дают 50 запросов каждые 5 часов. Google знают, как привлечь внимание.
Что касается наполнения:
– Есть привычный editor и тут в целом ничего нового: можно вручную писать и править код, включать автокомплит, общаться с агентом и тд. Хорошо прокачано планирование и работа с артефактами, а так тот же Cursor (только сыроватый).
– Что интересно, так это режим асинхронного программирования Inbox. Это панель оркестрации агентов. Выглядит реально как почта, в которой вы ставите задачи разным агентам и можете отслеживать результат в рамках единого окна коммуникации, за рамками основного кода.
Так можно работать даже с несколькими проектами одновременно. А задачки можно назначать как параллельно, так и упорядочить в очередь.
– Еще одна приятная фича: интеграция с Chrome. Это расширение, в котором агент начинает работать в режиме computer use. Он может запустить приложение локально, поднять сервер, автоматически пройтись по страницам, проверить наличие элементов, что-то потестить, сделать скриншоты и тд. Выглядит круче, чем в Cursor.
Что пока оставляет желать лучшего, так это интеграция с GitHub и git, а также стабильность. На macOS иногда лагает, а при входе с VPN у многих все падает в бесконечную загрузку.
https://antigravity.google/
Там слили тех.карту Gemini 3.0 с бенчмарками
Смотрим:
– На многих бенчмарках существенно обходит GPT-5.1 и Sonnet 4.5. Особенно выделяется Humanity's Last Exam и ARC-AGI 2.
– Крутые результаты на бенчмарках, связанных со всякими агентскими способностями, пониманием изображений, видео и интерфейсов. Это многообещающе.
– В кодинге без чудес: относительно Gemini 2.5 Pro прирост хороший, но в целом уровень Sonnet 4.5.
Ждем официальный релиз, должно быть интересно.
P.S. pdf-ку полностью можно найти в комментариях под предыдущим постом
📘 На Stepik вышел курс — «Data Engineering Fast-Track: Kafka → Airflow → Spark»
Хотите, чтобы данные для моделей и отчётов приходили регулярно и без сюрпризов? Этот курс поможет собрать продовый пайплайн от Kafka до Lakehouse под управлением Airflow.
🔍 Что вы получите:
• Spark Streaming: окна, watermark, event-time, дедупликация
• Batch-пересчёты (backfill), SLA и алерты свежести
• Kafka: ingest/CDC, ключи/партиции, Schema Registry/Kafka Connect
• Lakehouse: Parquet/Delta/Iceberg, борьба со small files (компакции)
• 200+ практических задач с автопроверкой и проект в портфолио
🎓 Сертификат по завершении — добавьте его в резюме или профиль LinkedIn
🚀 Начните сегодня и получите скидку 25% в течение 72 часов
👉 Пройти курс со скидкой
Реклама. ИП Малышкин, ИНН 402571325199, erid: 2VtzqxNW6Xb
Статистика дня: примерно 80% американских стартапов построены на китайском ИИ
Это число озвучил не кто-нибудь, а Мартин Косадо – партнёр в венчурной фирме Andreessen Horowitz (a16z), одной из самых влиятельных в Кремниевой долине. Он сказал:
Сейчас, когда фаундеры питчат свои проекты в a16z, вероятность, что их стартапы работают на китайских моделях, довольно большая. Я бы сказал, что с вероятностью 80% они используют китайскую опенсорсную модель.
Андрей Карпаты: «ИИ – это ПО 2.0, и оно автоматизирует то, что можно проверить»
Понравился свежий емкий пост Карпаты на вечную тему автоматизации в эпоху ИИ. Подготовили сокращенный перевод:
ИИ часто сравнивают с историческими прорывами: электричеством, промышленной революцией и тд. Но, по-моему, самая точная аналогия – ИИ как новая вычислительная парадигма, Software 2.0.Читать полностью…
В обоих случаях речь про автоматизацию обработки цифровой информации. В 80-х автоматизировались задачи, которые сводились к механическому преобразованию информации по простым, чётко формализуемым правилам (например, бухгалтерия).
Сейчас же, с ИИ, мы можем автоматизировать то, что вручную описать невозможно, но можно проверить. Мы задаем таргет (например, accuracy) и с помощью градиентного спуска ищем в пространстве алгоритмов нейросеть, которая оптимизирует этот таргет лучше всего.
Это и есть Software 2.0, и в этой парадигме ключевым факторов автоматизируемости задачи выступает ее проверяемость. Лучше всего можно автоматизировать именно то, что легко проверить.
Если задача непроверяема, останется надеяться на волшебную обобщающую способность нейросетей. Именно поэтому прогресс ИИ такой зубчатый: в проверяемых задачах прогресс стремительный (код, математика, головоломки), а вот многое другое отстает (творчество, стратегия, здравый смысл).
Software 1.0 легко автоматизирует то, что можно формально описать.
Software 2.0 легко автоматизирует то, что можно проверить.
Cursor привлек 2.3 миллиарда долларов
Для стартапа это уже раунд D, в этот раз в них вложились Nvidia, Google, Andreessen Horowitz и несколько других крупняков.
Мы также рады сообщить, что годовой доход Cursor превысил 1 млрд долларов, и теперь он производит больше кода, чем любой другой агент в мире.
Anthropic зафиксировали первый официальный случай крупной кибератаки, выполненной с помощью ИИ. Стартап утверждает, что за операцией стоит китайская государственная группировка.
По данным Anthropic, это был даже не единичный случай, а целая кибершпионская кампания, целью которой были около тридцати организаций по всему миру. Среди них бигтех, финансовые институты, хим.производства и государственные агентства.
Преступники использовали Claude Code и "агента на основе Claude". Модельку джейлбрейкнули, попросив ее выполнять мелкие задачи без раскрытия истинной цели и убедив, что она работает для легальной фирмы кибербезопасности.
Ну а дальше все как по маслу. Модель провела разведку инфраструктуры целевой организации, написала эксплойты, получила нужные доступы, создала бэкдоры, украла данные и даже услужливо написала по всему этому подробную документацию 😍
По оценке Anthropic, вмешательство человека во всем этом требовалось 4-6 раз: преступники автоматизировали всю деятельность на 90%. Отловить атаку удалось благодаря тому, что аналитики заметики подозрительную активность и тут же запустили расследование.
Большиство запланированных атак, по словам стартапа, удалось предотвратить, и все же преступники «успешно компрометировали небольшое число случаев».
Вот вам и весь хваленый элаймент 🤠
Стартап Фей-Фей Ли выпустил свой первый коммерческий продукт – модель пространственного интеллекта Marble
Ее релизнули сразу же после выхода эссе Фей-Фей о том, что пространственный интеллект – будущее ИИ (наш пост с пересказом).
Внешне моделька очень напоминает Genie: по сути, 3D генератор миров, по которому можно передвигаться.
Только у Marble фокус больше на персистентности. То есть если Genie генерирует динамическое видео, то здесь это генерация именно полноценного 3D-мира, в котором есть геометрия, объекты, ландшафт и прочее. Потом вы можете по нему передвигаться, но меняться или достраиваться он при этом не будет.
Хотя можно поменять что-нибудь по промпту, расширить какую-то часть генерации или даже объединить два мира. И кстати, на вход принимаются почти любые модальности: текст, картинки, видео и 3D-драфты.
Генерировать можно поэтапно: сначала создать 3D-скелет, и только потом добавлять стили и текстуры, подобно тому, как это делается в геймдеве.
Ну и киллер-фича, на наш взгляд: созданные миры можно экспортировать как меши, Gaussian splats или как видео.
Попробовать можно тут, дают сколько-то фри кредитов. Дальше тарифы начинаются от 20 долларов в месяц.
Ваша утренняя газета, сэр ☕️
P.S. Автор оригинального твита утверждает, что это реальная пакистанская газета Dawn
Понравилась новое эссе знаменитой Фей-Фей Ли о пространственном интеллекте
Пространственный интеллект – это как раз то, чего, по мнению ученой, так не хватает современным LLM. Да, они хорошо работают с текстом, но spatial intelligence – это следующий шаг. Это про способность воспринимать, понимать, рассуждать о пространстве, объектах, движении и взаимодействии предметов.
Ли пишет, что именно связка восприятие-действие (perception + action) с самого начала эволюции лежала в основе интеллекта у живых существ. Другими словами, это база, без которой настоящий интеллект существовать не может.
В общем, пока у нас не появятся реально качественные world models (привет Лекуну!), AGI нам не видать. А «реально качественные» – это значит обладающие следующими свойствами:
1. Генеративность. Модель должна уметь создавать целые связные и правдоподобные с точки зрения физики сцены или миры.
2. Мультимодальность. Тут все понятно.
3. Интерактивность. Это должен быть не пассивный генератор, а модель, которая изменяет состояние мира и может предсказать последствия, если агент совершает какое-то действие.
По описанию напоминает Genie. И да, это и должно быть что-то подобное, но все-таки концептуально более продуманное и точное. Ли пишет, что сейчас на достаточном уровне не решена даже сама постановка задачи: это должно быть что-то универсальное, типа предсказания следующего токена, но для пространства.
Почитать полностью советуем тут