ai_machinelearning_big_data | Technologies

Telegram-канал ai_machinelearning_big_data - Machinelearning

359493

Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml

Subscribe to a channel

Machinelearning

Представьте, что вы проснулись в недалёком будущем. Как бигтех работает с контентом?

Мультимодальные и рекомендательные системы нового поколения — это то, что уже сейчас определяет мир, в котором мы скоро будем жить.

Сотрудники VK рассказали, над чем работает их группа R&D и другие команды. Заходите по ссылке — смотрите ролики и знакомьтесь с нашей внутренней кухней.

Читать полностью…

Machinelearning

🌟 Trinity Nano и Trinity Mini: ответ американских разработчиков на китайское доминирование.

В последний год любой, кто следит за развитием моделей с открытыми весами знает - Китай недостижим.

Qwen и DeepSeek фактически задали стандарт того, как должна выглядеть современная архитектура MoE. В США же большинство компаний занимались лишь доработкой чужих чекпоинтов.

И вот, американская компания Arcee AI собралась Make America Great Again вернуть инициативу и создать семейство открытых моделей, обученных "от и до" в США, весами которых бизнес может владеть по-настоящему.

Компания столкнулась с тем, что корпоративным клиентам нужна "юрисдикционная безопасность" . Специалистов по комплаенсу уже не устраивает ответ "мы дообучили модель неизвестного происхождения". Им нужен полный контроль над пайплайном данных.

Семейство моделей Arcee AI получило имя Trinity. Пока в превью-релиз вошли 2 конфигурации:

🟢Trinity Mini — это обычная ризонинг-модель на 26 млрд. общих и 3 млрд активных параметров, обученная с нуля.

🟢Trinity Nano Preview — это модель чата. Она создана, чтобы быть харизматичной и интересной в общении несмотря на свои скромные 6 млрд. общих и 1 млрд. активных параметров.

И пока мы тестируем Nano и Mini, Arcee AI тренирует флагмана Trinity Large.

Его релиз запланирован на январь 2026 года. Это будет модель на 420 млрд. параметров, из которых 13 млрд. будут активны.

Обе доступные модели, Trinity Nano и Trinity Mini выпущены под лицензией Apache 2.0. Они опубликованы на Hugging Face и поддерживаются llama.cpp, LM Studio и vLLM.

Mini также доступна через OpenRouter по очень привлекательной цене - около 4,5 центов за 1 млн. токенов.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Набор моделей
🟡Demo Trinity Mini


@ai_machinelearning_big_data

#AI #ML #MoE #Trinity #ArceeAi

Читать полностью…

Machinelearning

🤖 Tesla Optimus: прогресс за 2.5 года

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

⚡️ Как Яндекс внедрил LLM в QA и что из этого получилось

На Хабре вышел подробный разбор о том, как Яндекс внедряет LLM в процессы тестирования. Из интересного: генерация чек-листов и тест-кейсов, создание автотестов, первые шаги в сторону ИИ-агентов для ручного тестирования.

Разобрали и технические сложности: интеграции с TMS, единые MCP-коннекторы, LLM-As-A-Judge и работу с «зоопарком» инструментов. В статье много схем и цифр, включая рост скорости написания автотестов на ~30%.

@ai_machinelearning_big_data

#ai #LLM

Читать полностью…

Machinelearning

🤖 Китайская компания EngineAI (Zhòngqíng) представила полноразмерного гуманоидного робота T800.

«Всё реальная съёмка - без CGI, без AI, без ускорения видео.»

Основные характеристики робота:
- рост 173 см
- 29 степеней свободы (без учёта кистей)
- пиковый крутящий момент суставов - 450 Н·м

Функции и возможности:
- система кругового обзора 360°
- активное охлаждение суставов ног
- аккумулятор на 4–5 часов работы

@ai_machinelearning_big_data

#ai #robots

Читать полностью…

Machinelearning

✔️ Дженсен Хуанг потребовал тотальной автоматизации внутри Nvidia.

CEO Nvidia обратился к сотрудникам с директивой использовать ИИ-инструменты для решения абсолютно любой задачи, где это технически возможно. Хуанг считает, что компания должна не только давать миру железо для вычислений, но и сама служить эталоном ИИ-эффективности.

Особое внимание он уделил инструментам разработки, настаивая на их тотальном внедрении в инженерные процессы. Несмотря на автоматизацию, компания продолжает расти. За год штат Nvidia увеличился с 29,6 до 36 тысяч человек, и для покрытия текущих задач требуется нанять еще около 10 тысяч специалистов.

NVIDIA не первая, кто требует от сотрудников использования ИИ - Google и Microsoft также начали привязывать использование нейросетей к KPI сотрудников.
techspot.com

✔️ В тестовой версии ChatGPT для Android нашли признаки рекламы.

Разработчик Тибор Блахо обнаружил в тестовой версии ChatGPT для Android отсылки на рекламный функционал. Строки содержат формулировки: «рекламная функция», «поисковая реклама» и «карусель поисковой рекламы», что указывает на то, что OpenAI, возможно, разрабатывает функцию показа рекламы в ChatGPT.
Tibor Blaho в сети X

✔️ Pinokio обновился до версии 5.0.

Мажорное обновление платформы Pinokio, позиционирует пятую версию как «Vercel для localhost». Инструмент позволяет разворачивать на macOS, Windows и Linux любые веб-серверы, CLI-приложения и ИИ-модели в один клик. Система полностью автоматизирует рутину по настройке окружения, самостоятельно подтягивая необходимые пакетные менеджеры.

Pinokio может создавать лаунчеры для любых проектов с помощью ИИ-агентов. Интерфейс стал универсальным, добавлена поддержка интерактивных терминалов и режим Cells для параллельной работы с фронтендом, бэкендом и логами в одном окне. В новой версии появился «локальный интернет»: Pinokio присваивает запущенным приложениям короткие HTTPS-домены и делает их доступными для других устройств в сети, автоматически активируя сервисы при входящем запросе.
Автор Pinokio в сети X

✔️ Пятая часть научных рецензий на ICLR были полностью написаны ИИ.

Организаторы конференции ICLR опубликовали результаты проверки контента, проведенной совместно с Pangram Labs. Анализ массива из 75 800 отзывов показал, что почти 16 тыс. рецензий (около 21%) были полностью сгенерированы ИИ, а не написаны людьми. Проблема затронула и сами научные статьи: 199 поданных рукописей были распознаны как полностью написанные ИИ, а еще в 9% работ доля сгенерированного текста превысила 50%.

Хотя регламент ICLR допускает использование ИИ-инструментов для правки текста или генерации кода при условии явного указания, создание синтетических рецензий подрывает доверие к процессу ревью. В ответ на инцидент организаторы вводят обязательный автоматизированный скрининг всех материалов на использование ИИ.
nature.com

✔️ Slop Evader: расширение, которое очищает поиск от ИИ-контента.

Проект позиционируется как попытка вернуть пользователям достоверный интернет эпохи до ChatGPT. Расширение использует Google Search API для жесткой фильтрации выдачи, отсекая любые материалы, опубликованные после 30 ноября 2022 года. Автор называет этот подход тактикой «выжженной земли»: по ее мнению, это единственный надежный способ гарантировать, что контент создан человеком, в условиях тотального ИИ-слопа.

Slop Evader работает с YouTube, Reddit, Stack Exchange и архивами других крупных платформ. Очевидный технический недостаток полной потери доступа к актуальным новостям является осознанной частью концепции. Создатель расширения надеется, что растущий запрос пользователей на «человеческий» контент в итоге вынудит поисковые системы внедрить маркировку генеративных материалов.
404media.co


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

🚀 Релиз DeepSeek-V3.2 и DeepSeek-V3.2-Speciale - модели нового поколения, созданные в первую очередь для reasoning и работы в агентных системах.

Что нового:
- DeepSeek-V3.2 - официальный преемник V3.2-Exp. Доступна в приложении, на сайте и через API.
- DeepSeek-V3.2-Speciale - улучшенная версия с акцентом на продвинутое многошаговое рассуждение. Пока что работает только через API.

Обе модели делают упор на глубокие цепочки рассуждений и поведение, нацеленное на агентные сценарии: планирование, решение задач, сложные выводы и работу со структурированными данными.

🏆 Производительность

• V3.2 - баланс скорости и качества, уровень примерно GPT-5
• V3.2-Speciale - топовый reasoning, конкурирует с Gemini-3.0-Pro.
• Speciale - лидер на IMO, CMO, ICPC.

🤖 Новый подход к обучению агентов

• Синтезированы большие тренировочные данные для 1800+ сред и 85k сложных инструкций.
• V3.2 - первая модель DeepSeek, у которой мышление встроено прямо в tool-use.

💻 API

• V3.2 использует тот же интерфейс, что V3.2-Exp.
• Speciale доступна через временный endpoint, работать будет до 15 декабря 2025.

📦 DeepSeek-V3.2 Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2
📦 DeepSeek-V3.2-Speciale Model: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Speciale
📄 Tech report: https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf

@ai_machinelearning_big_data

#deepseek, #deepseekv3, #ai, #нейросети, #искусственныйинтеллект, #llm

Читать полностью…

Machinelearning

⚡️ Как линейная регрессия помогает решать задачи в AI и аналитике

Недавно увидел крутой разбор линейной регрессии — и наконец понял, что она нужна не только тем тем, кто работает с большими данными. Метод применяется в реально жизненных кейсах. Например, с ним можно:

✔️ прогнозировать спрос и цены на продукты
✔️ измерять эффект от запуска фич
✔️ быстро собирать базовые ML-модели

Эти карточки я взял в канале «Зачем мне эта математика». Там такие темы разбирают наглядно: показывают графики, раскладывают формулы по шагам и связывают всё это с кейсами из аналитики и разработки.

А ещё там рассказывают много неожиданных фактов и каждую неделю публикуют задачи. В комментах можно обсудить вопросы и задать вопросы редакции.

Так что если хотите влюбиться в математику и понять, как устроены технологии вокруг нас — подписывайтесь и следите.

Реклама. ООО «ФРОМ СКРЭТЧ», ИНН 9724205560, erid: 2Vtzqxf17nH

Читать полностью…

Machinelearning

✔️ ШАД Яндекса начал обучать ученых.

В Школе анализа данных, где готовят специалистов по ИИ, началось обучение по применению ИИ в естественно-научных исследованиях. На программу подали заявки ученые из 37 регионов - больше всего запросов получили от экспертов в областях физики, медицины и химии. В итоге зачислили 50 молодых исследователей: от магистрантов до кандидатов наук из Москвы, Петербурга, Уфы, Иркутска, Владивостока и Екатеринбурга.

Участники изучают основы ИИ и сразу применяют инструменты в своих задачах. С каждой командой работает эксперт ШАДа: помогает выбрать методы и спланировать эксперимент. Если проекту нужны тяжелые вычисления, подключаются мощности Yandex Cloud.

✔️ ИИ научили считывать активность скрытых мышц кисти по видео.

Команда из Institute of Science Tokyo анонсировала фреймворк PianoKPM Net, способный с высокой точностью определять активность мышц рук без использования нательных датчиков. Обычно для этого требуется инвазивная и дорогая электромиография, но новая архитектура реконструирует паттерны мышечных сокращений, анализируя только видеозапись.

В основе системы - уникальный датасет, собранный на базе 12 часов игры профессиональных пианистов, где визуальные данные синхронизированы с реальными сигналами мышц. Технология превращает обычную камеру в диагностический инструмент, что важно для реабилитационной медицины, спортивной аналитики и создания продвинутых интерфейсов «человек-компьютер». Авторы планируют выложить датасет и модель в открытый доступ.
techxplore.com

✔️ ИИ-проект Джеффа Безоса купил стартап General Agents.

Project Prometheus поглотил разработчика агентного ИИ General Agents. Сделка прошла в закрытом режиме еще летом и сопровождалась переходом команды инженеров из DeepMind и Tesla в структуру Prometheus. Цель Prometheus: создание ИИ-систем для поддержки сложных производств автомобилестроения и космической отрасли.

Главный актив General Agents - технология Ace для автономного управления интерфейсами и приложениями. Хотя изначально Ace создавался для автоматизации рутинны на ПК, в рамках Prometheus эти наработки, судя по всему, будут масштабированы для индустриальных сценариев.
wired.com

✔️ OpenAI и Google резко ограничили лимиты в Sora и Nano Banana Pro.

Глава направления Sora в OpenAI Билл Пиблз сообщил, что бесплатные аккаунты теперь ограничены всего 6 видеогенерациями в сутки, так как текущие графические процессоры буквально плавятся от запросов. Это ограничение не выглядит временным: компания прямо предлагает докупать генерации по мере необходимости, хотя условия для подписчиков ChatGPT Plus и Pro пока остались прежними.

Google приняла аналогичные меры, урезав бесплатный доступ к инструменту Nano Banana Pro до 2 изображений в день. Техгигант предупредил, что лимиты могут меняться динамически и без уведомлений. Кроме того, под ограничения попал и доступ бесплатных пользователей к модели Gemini 3 Pro.
theverge.com

✔️ Perplexity добавила функцию долгосрочной памяти.

ИИ-поисковик получил функцию "persistent memory", которая позволяет запоминать предпочтения, интересы и детали предыдущих диалогов. Теперь система автоматически создает "постоянный контекст" пользователя, а ответы становятся персонализированными и требуют меньше уточняющих запросов.

Perplexity извлекает факты из хранилища памяти и напрямую использует их при формировании ответа. Этот контекстный слой работает поверх любой выбранной модели без потери накопленных знаний о пользователе. Функция полностью управляема: сбор данных можно отключить в настройках, а в режиме инкогнито история не сохраняется.
perplexity.ai

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

Привет, это Yandex for Analytics

Предлагаем размяться и проверить свои навыки. Ответы есть, но подглядывать во время решения — неспортивно ⬇️

🔵 Задача 1. Вспоминаем теорию вероятностей
🔵 Задача 2. Теорема Байеса
🔵 Задача 3. Базовая база теории игр
🔵 Задача 4. Тренируем SQL
🔵 Задача 5. Честная математическая статистика
🔵 Задача 6. Что-то на бизнесовом

💠 Скоро вернёмся с новыми задачами. А пока делитесь своими решениями в комментариях!

Подписывайтесь:
💬 @Yandex4Analytics

Читать полностью…

Machinelearning

10 декабря — код, архитектура, AI в деле

Сбер открывает двери в мир AI: 10 декабря — в Москве и онлайн.

Что вас ждет?
⬩На сцене — доклады о развитии нейросетевых моделей GigaChat и Kandinsky, о ключевых этапах их разработки, практических достижениях и дальнейших перспективах развития;
⬩Гига Город — демо-стенды, постеры, инженерные споры, вопросы и тестирование архитектур;
⬩Воркшопы — повторяем решения инженеров, разбираем пайплайны и инструменты;
⬩Карьерный блок — разговоры с командами и открытые роли в AI-направлениях Сбера.

Зачем идти?
Чтобы увидеть, как строят AI-системы, задать вопросы инженерам и понять, куда движется AI в Сбере — и найти свое место в этом движении.

Регистрируйтесь и проверьте AI-технологии в деле.

Реклама. ПАО Сбербанк. ИНН 7707083893

Читать полностью…

Machinelearning

✔️ INTELLECT-3 - новая мощная открытая модель от Prime Intellect

Prime Intellect выкатили INTELLECT-3 - 106B Mixture-of-Experts модель, обученнfz на GLM-4.5 Air Base с двумя этапами: SFT и масштабным RL-дообучением.

Это первая модель такого масштаба, где асинхронный RL - не эксперимент, а основа обучения. В результате модель демонстрирует сильный перформанс в математике, коде и reasoning.

Фокус модели - долгие цепочки действий и агентные задачи, а не просто генерация текста.

Главное:
- Модель показывает топ-результаты для своего размера в математике, коде и reasoning.
- Обучение шло на 512×H200 в течение ~2 месяцев.
- Использован собственный стек: PRIME-RL, Verifiers, Environments Hub и sandbox-инфра.
- Всё открыто: код, среды, инструменты.

🟠Technical Report: https://storage.googleapis.com/intellect-3-paper/INTELLECT_3_Technical_Report.pdf
🟠Hugging Face: https://huggingface.co/PrimeIntellect/INTELLECT-3
🟠PRIME-RL: https://github.com/PrimeIntellect-ai/prime-rl
🟠Verifiers: https://github.com/PrimeIntellect-ai/verifiers
🟠Environments Hub: https://hub.primeintellect.ai

@ai_machinelearning_big_data


#ai #intellect3 #primeintellect #glm45

Читать полностью…

Machinelearning

🍌 Awesome Nano Banana - лучшие промпты, стили, приёмы и полезные материалы для визуальных экспериментов.

Всё собрано в одном репозиториит и аккуратно структурировано.

Что внутри
• промпты, которые реально дают сильные и выразительные результаты
• коллекция визуальных стилей для разных задач
• примеры, разборы и ресурсы, помогающие глубже понять механику Nano Banana
• удобный набор ссылок, если хочешь расширять свой набор техник

https://github.com/ZeroLu/awesome-nanobanana-pro

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

⚡️ NVIDIA выложила DeepSeek V3.1 FP4 на Hugging Face

Это квантованная версия DeepSeek V3.1, которая дает заметную экономию памяти и ускоряет работу при использовании TensorRT LLM.

При этом модель сохраняет высокое качество генерации текста.

https://huggingface.co/nvidia/DeepSeek-V3.1-NVFP4

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

✔️ США запускают национальный проект для искусственного интеллекта.

Президент США подписал указ о создании единой государственной ИИ-платформы. Проект, реализация которого поручена Министерству энергетики, должен радикально ускорить научные исследования и сократить циклы открытий в биотехнологиях и энергетике с нескольких лет до дней.

Инициатива мобилизует инфраструктуру 17 федеральных исследовательских центров. Их суперкомпьютеры и накопленные за десятилетия массивы научных данных будут использованы для обучения специализированных моделей. Новая платформа позволит ИИ-агентам автономно планировать эксперименты, проверять гипотезы и генерировать прогнозы в области химии, биологии и инженерии.
whitehouse.gov

✔️ OpenAI объединила голосовой и текстовый режимы в ChatGPT.

ChatGPT получил обновление, которое устраняет барьер между способами ввода: голосовой чат теперь интегрирован непосредственно в основное окно переписки. Это позволяет пользователям бесшовно переключаться между речью и набором текста, не переходя в отдельный режим.

Теперь во время голосовой сессии можно свободно просматривать историю сообщений, сгенерированные изображения или карты, а ответы ассистента автоматически дублируются в текстовом виде.

Функция уже доступна в мобильных приложениях и веб-версии. Для тех, кто хочет пользоваться голосовым интерфейсом отдельно, OpenAI оставила возможность вернуть его через настройки в разделе Voice Mode.
OpenAi в сети Х

✔️ Microsoft выпустила модель для управления компьютером.

Fara-7B — компактная агентная модель от Microsoft Research на базе Qwen2.5-VL для автономной работы с интерфейсами. Модель умеет анализировать скриншоты, генерировать команды для мыши и клавиатуры, предсказывая точные пиксельные координаты.

В бенчмарках Fara-7B обошла существующие решения и выполняет задачи в разы дешевле крупных моделей - средняя стоимость сессии составляет меньше 3-х центов. Веса модели опубликованы на Hugging Face под лицензией MIT.
microsoft.com

✔️ В Гарварде разработали модель для диагностики редких генетических заболеваний.

Гарвардская медшкола представила popEVE - нейросеть, способную с высокой точностью выявлять патогенные мутации в геноме для решения проблем диагностики редких наследственных болезней, причины которых врачи зачастую не могут найти годами.

PopEVE объединяет генеративный ИИ с языковой моделью для белков и статистикой человеческих популяций. Система умеет корректно сравнивать опасность мутаций, расположенных в абсолютно разных генах, и выдавать унифицированный клинический рейтинг риска. Предыдущие модели не справлялись с такой кросс-генной калибровкой.

Эффективность системы подтвердили на выборке из 30 000 пациентов. Модель успешно определила причину болезни в трети случаев и попутно обнаружила 123 гена, ранее не связывавшихся с развитием патологий.
harvard.edu

✔️ Grok 5 сразится с чемпионами League of Legends в 2026 году.

Илон Маск анонсировал амбициозный эксперимент: в 2026 году следующая версия модели xAI бросит вызов сильнейшим киберспортивным командам мира. Матч планируется не просто как шоу, а как критический тест на пути к AGI.

Для чистоты эксперимента инженеры введут жесткие технические ограничения, уравнивающие шансы. Модель не будет подключаться к API игры — она должна «смотреть» на монитор через камеру с имитацией обычного человеческого зрения. Скорость реакции и частоту кликов также лимитируют до физических возможностей человека. Предполагается, что Grok 5 освоит сложные механики MOBA-стратегии с нуля, опираясь только на чтение документации и самостоятельные эксперименты в ходе игры.
Elon Musk в сети Х

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.

Вот что в нём разбирается:

1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.

2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.

3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.

Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.

https://arxiv.org/abs/2511.18538

@data_analysis_ml

Читать полностью…

Machinelearning

Объединение модальностей и развитие голосовых end-to-end моделей

На прошлой неделе Яндекс провёл Data Dojo — традиционную встречу ML-сообщества для тех, кто хочет расти и делиться личным опытом с другими.

Собрал для вас самое интересное с выступления Сергея Овчаренко, руководителя отдела мультимодального анализа и генерации. Он подвел предварительные итоги года и обсудил значимые тренды в ML:

— В будущем будут активно развиваться голосовые агенты. Причем фокус будет не на каскадные модели, где новый этап начинается только после полного завершения предыдущего, а на более комплексный end-to-end подход.

— VLM становятся больше и лучше. Например, у Qwen в этом году было 3 релиза. При этом всё активнее будет развиваться VLA-направление (модель, которая занимается высокоуровневым планированием).

— Рынок постепенно двигается к созданию omni-моделей, которые способны одновременно обрабатывать, понимать и генерировать контент в рамках нескольких объединенных модальностей.

Больше подробностей — в записи трансляции (VK, Youtube). Там же можно послушать доклад от руководителя команды голосовой активации Дмитрия Солодуха о том, как Алису научили слышать голосовые команды в условиях шума. А еще узнать, как готовили задачи ML-квалификации для Yandex Cup от Сергея Фиронова, ведущего разработчика службы поведения и предсказания департамента Автономного транспорта.

Читать полностью…

Machinelearning

Финальная ИИшница этого года пройдет 4 декабря ⤵️

Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.

◼️14:00 Дмитрий Жемчужников cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning

◼️14:20 Назар Бузун HOTA: Hamiltonian framework for Optimal Transport Advection

◼️14:40 Александр Коротин Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization

◼️15:00 Максим Бобрин Zero-Shot Adaptation of Behavioral Foundation Models to Unseen Dynamics

◼️15:20 Никита Качаев Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning

◼️15:40 Антон Корзников OrtSAE: Orthogonal Sparse Autoencoders Uncover Atomic Features

◼️16:00 Матвей Михальчук Inverting Black-Box Face Recognition Systems via Zero-Order Optimization in Eigenface Space

◼️16:20 Михаил Гончаров Screener: Self-supervised Pathology Segmentation Model for 3D Medical Images

◼️16:40 Артём Важенцев Uncertainty-Aware Attention Heads: Efficient Unsupervised Uncertainty Quantification for LLMs

◼️17:00 Даниил Сухоруков Block-wise distillation for lightweight weather models

◼️17:20 Илья Макаров Evaluating Generalization Capabilities of LLM-Based Agents in Mixed-Motive Scenarios Using Concordia

◼️17:40 Никита Гущин Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting

◼️18:00 Егор Черепанов Recurrent Action Transformer with Memory

◼️18:20 Евгений Бурнаев Listening to the Wise Few: Query–Key Alignment Unlocks Latent Correct Answers in Large Language Models

◼️18:40 Андрей Шевцов A Benchmark for Arbitrary Geometric Preservation in Protein Generation

Ведущий ИИшницы — Артур Кадурин, AIRI.

YouTube | ВК

До встречи!

Читать полностью…

Machinelearning

✔️ Anthropic покупает создателей скоростного JavaScript-рантайма.

Компания объявила о приобретении Bun — популярного инструментария для запуска и сборки JavaScript-приложений. Технологии и команда стартапа станут фундаментом для дальнейшего масштабирования платформы Claude Code.

Bun, основанный Джаредом Самнером в 2021 году, завоевал популярность как экстремально быстрая альтернатива Node.js, объединяющая в себе рантайм, пакетный менеджер, бандлер и тестовый раннер.

Bun останется опенсорсным проектом под лицензией MIT. Anthropic обещает продолжить инвестировать в инструмент, сохраняя его статус независимого и универсального решения для JS/TS-экосистемы.
anthropic.com

✔️ AWS представила 3-нм чипы Trainium3 и серверы UltraServer.

Это третье поколение тензорных процессоров Amazon. Trainium3, изготовленный по 3-нм техпроцессу, показывает буст по производительности до 4.4x и энергоэффективности в 4 раза по сравнению с Trainium 2. Архитектура чипа поддерживает новые форматы данных MXFP8 и MXFP4.

UltraServer - это вычислительный узел, объединяющий 144 чипа с общим объемом памяти 20.7 ТБ HBM3e и агрегированной пропускной способностью 706 ТБ/с. Такие серверы можно объединять в кластеры EC2 UltraClusters масштабом более 1 млн. чипов.

Также AWS потизерила будущий Trainium 4: следующее поколение чипов получит совместимость с GPU NVIDIA через шину NVLink Fusion.
aws.amazon.com

✔️ vLLM-Omni: расширение экосистемы vLLM.

Команда vLLM анонсировала релиз vLLM-Omni, расширения, созданного для адаптации инфраструктуры под omni-модели, которые могут бесшовно работать с текстом, изображениями, видео и аудио в рамках одного процесса.

Архитектура vLLM-Omni предлагает полностью переработанный поток данных. Система использует дезагрегированный пайплайн, объединяющий 3 этапа: мультимодальные энкодеры, логическое ядро на базе vLLM и генераторы.

vLLM-Omni может эффективно оркестрировать сложные гетерогенные рабочие процессы и параллельно выполнять вычисления. Фреймворк сохраняет простоту внедрения, поддерживая полную совместимость с OpenAI API и Hugging Face.
blog.vllm.ai

✔️ SGLang получил поддержку NVIDIA Model Optimizer.

Важное обновление SGLang, которое кардинально упрощает работу ML-инженеров, позволяя проводить квантование и деплой моделей внутри одной экосистемы без использования сторонних утилит и сложных пайплайнов.

Теперь разработчики могут напрямую через API конвертировать модели в форматы NVFP4, MXFP4, FP8 и сразу запускать их в продакшн. Тесты на архитектуре NVIDIA Blackwell показали, что использование квантования NVFP4 через SGLang удваивает пропускную способность по сравнению с базовым FP8.
lmsys.org

✔️ Artificial Analysis запустила индекс открытости ИИ-моделей.

Openness Index — новый стандарт оценки ИИ, который отделяет настоящий опен-сорс от моделей, которые лишь притворяются открытыми. Рейтинг анализирует проекты по 2 направлениям: доступность весов и прозрачность процесса разработки (методология и датасеты для пре- и пост-трейна).

Верхние строчки рейтинга заняли китайские разработки. Среди коммерческих решений хороший результат показала Nemotron Nano 9B v2 (67 баллов), а вот полностью закрытые проприетарные модели ожидаемо остались на дне рейтинга с оценками в 1–5 баллов. Лидером списка стала модель OLMo с показателем 89.

Индекс наглядно подсвечивает проблему термина «open weights»: модели, публикующие только веса без контекста, теряют баллы на прозрачности.
Artificial Analysis в сети Х

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

⚡️Ozon Profit расширяет сбор и разметку данных для ML по всей России

Краудсорсинговая платформа Ozon Profit, которая изначально фокусировалась на онлайн-задачах, теперь позволяет собирать данные и проводить проверки в офлайне по всей России. Это полезно для проектов, чьи ML-модели требуют физической верификации.

Компании могут отправлять исполнителей для фотофиксации витрин, проверки цен и качества сервиса в любом городе. Параллельно за год в 5 раз вырос объем чисто онлайн-проектов по разметке изображений, текстов и видео, а также анализу тональности обращений — критически важных задач для обучения моделей.

Сейчас в офлайне исполнители выезжают на точку для сбора данных, а в онлайне занимаются разметкой данных, анализом эмоций в комментариях, модерацией. Сегодня на платформе зарегистрировано более 100 000 исполнителей.

@ai_machinelearning_big_data

#news #ml

Читать полностью…

Machinelearning

🔥 Kling Omni (O1) только что вышел - и первые тесты впечатляют.

Это как nano-banana pro, только для видео: бери любой материал и превращай его во что угодно.

Модель:
- удаляет объекты,
- меняет стиль сцен,
- перерисовывает ролик целиком,
- и при этом держит персонажей одинаковыми в любых ракурсах.

OpenArt включили безлимит - можно спокойно экспериментировать.

Главное отличие: больше не нужно править каждый кадр вручную. Меняешь целое видео одним промптом — экономишь время и не тратишь кредиты на повторные генерации.

O1 ощущается как живой креативный напарник:
- удаляет объекты,
- меняет стиль сцен,
- перерисовывает ролик целиком,
- и при этом держит персонажей одинаковыми в любых ракурсах.

Новый стандарт AI-видео.

https://app.klingai.com/global/omni/new

@ai_machinelearning_big_data


#Kling #KlingO1 #KlingOmni #AIvideo #AIGeneration

Читать полностью…

Machinelearning

🚀 GELab-Zero - первый полноценный open-source стек “Model + Infra” для GUI-агентов.

Это открытая альтернатива закрытым системам уровня GUI Agent MCP: готовая модель, готовая инфраструктура и новый бенчмарк, собранный под реальные задачи.

Что внутри:

• SOTA-модель 4B - лёгкая, быстрая, запускается локально.
• One-Click инфраструктура - без ADB и сложных зависимостей.
• AndroidDaily - новый бенчмарк, основанный на рабочих пользовательских сценариях.

Производительность:

• Лучшие результаты на открытых тестах - модель обходит гораздо более крупные системы вроде GUI-Owl-32B на ScreenSpot, AndroidWorld и OSWorld.
• 73.4% точности на AndroidDaily - существенно выше, чем UI-TARS-1.5 (47%), Gemini-2.5-pro-thinking (36.6%) и GPT-4o (19.6%).

Идея простая: скачивайте, запускайте локально, ломайте, улучшайте.
Открытый стек для GUI-агентов наконец доступен.

🟠HuggingFace: https://huggingface.co/stepfun-ai/GELab-Zero-4B-preview
🟠GitHub: https://github.com/stepfun-ai/gelab-zero
🟠Blog: https://opengelab.github.io/index.html

@ai_machinelearning_big_data

#AI, #Agents, #GUIAgents, #GELabZero, #OpenSource, #MachineLearning, #DeepLearning

Читать полностью…

Machinelearning

🤖 Unitree R1 и G1 демонстрируют свои навыки на одной сцене

Выбери своего БОЙЦА:

❤️ Новый, более доступный и компактный R1
или
🔥 Мощный и уже зарекомендовавший себя на рынке G1, который остаётся флагманом линейки.

@ai_machinelearning_big_data

#ai #robots

Читать полностью…

Machinelearning

Как обеспечить себе успешное игровое будущее?

Стоимость привлечения пользователей растёт на 20–40% каждый год, и достичь точки прибыльности становится всё сложнее. Сегодня даже отличные игры часто не могут выйти в плюс: платформы забирают до 30% в виде комиссий.
Как в этом может помочь построение прямого канала взаимодействия с пользователем — разбираем в канале @d2cgamechangers D2C Game Changers: собираем лучшие практики, кейсы и проверенные решения.

Читать полностью…

Machinelearning

💡 Джек Кларк, сооснователь Anthropic, о современном ИИ

«Мы похожи на детей в тёмной комнате.
А то, что мы замечаем в темноте, — это мощные и непредсказуемые ИИ-системы.

Кто-то утверждает, что ИИ - всего лишь инструмент,
просто куча одежды на стуле.

Но если убеждать себя, что “существо не настоящее”,
проигрыш неизбежен».

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

📌This Is How We Are Going to Build AGI: CAIA Google рассказал о состоянии ИИ.

Логан Килпатрик из команды DeepMind беседует с Кораем Кавукчуоглу, CTO DeepMind и по совместительству новым главным архитектором Google по искусственному интеллекту.

Корай Кавукчуоглу рассказал о своих взглядах на текущее состояние ИИ, архитектуру Gemini и стратегию Google по достижению AGI. Он считает, что это «новая эра», где технологии стремительно меняются, и что ближайшие 6 месяцев обещают быть такими же захватывающими, как и предыдущие.

Основные темы интервью:

🟡Успех Gemini 3 и подход к AGI

Недавний запуск Gemini 3 получился суперпозитивным. Но прогресс не замедляется, и Gemini 3, подобно 2.5, снова «отодвинула рубеж по ряду измерений». Центральная философия Google в том, что AGI будет «совместно создаваться с нашими клиентами». Это не чисто исследовательская работа, проводимая в изоляции, а совместное усилие с миром, требующее инженерного мышления.

🟡Новый взгляд на прогресс и бенчмарки

Несмотря на то, что модели Google достигают лидирующих позиций на бенчмарках, истинное мерило прогресса в реальном применении. Старые бенчмарки перестают определять текущий рубеж, и новая мера успеха — это предоставление большей ценности в реальном мире, где модели используют ученые, студенты, юристы и инженеры.

🟡Планы на будущее

Приоритеты для улучшения в будущих версиях Gemini Pro:

🟢Следование инструкциям: Модель должна уметь понимать и выполнять запрос пользователя, а не просто отвечать так, как считает нужным.

🟢Интернационализация: Google сосредоточен на языках, где исторически производительность была невысокой.

🟢Функциональные и инструментальные вызовы: Это критически важные технические области, поскольку они позволяют моделям естественно использовать существующие инструменты.

🟢Код и агентские действия : Код - это база для создания чего угодно в цифровом мире. Корай считает, что агентские действия и код — это наиболее перспективные области роста, в которых еще есть много возможностей для совершенствования.

🟡Интеграция с продуктами и инновации

Интеграция- важная тема для сбора фидбэка от пользователей, который необходим для понимания того, как нужно улучшать модели. Риск для Gemini заключается не в отсутствии масштабирования, а в исчерпании инноваций. Поэтому Google DeepMind и Google Research должны постоянно заниматься исследованиями, чтобы находить новые идеи, которые будут питать «двигатель ИИ» Google.

🟡Единство моделей и генеративные медиа

Генеративные медиа-модели сходятся с текстовыми моделями. Яркий пример - Nano Banana Pro, которая показала, как слияние понимания мира из текста с пониманием из изображений позволяет модели создавать более детализированные и концептуально связные изображения, например, инфографику на основе сложных документов.

Фоном идет история о личном пути Корая Кавукчуоглу : от исследователя Deep Learning в DeepMind в 2012 году до текущей руководящей роли.

🔜 Смотреть полное интервью на Youtube


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

🔥 Наши любимые петы: собственный инструмент для передачи файлов по Сети

Когда-то интернет был другим. Возможно, более медленным и нестабильным, но куда более камерным и очаровательным. А его недостатки старались исправить разработчики-энтузиасты, которым было не всё равно.

👩‍⚕️ Александр Лукьянов, старший разработчик в Бригаде разработки функций и интеграций в Алисе и Умных устройствах, — один из таких первопроходцев. В 1996 году он начал работу над LFTP. Это прорывной для своего времени командно-строчный и скриптовый инструмент для передачи файлов по Сети.

🔶 Ссылка на гитхаб

Этим постом мы запускаем спецпроект «Наши любимые петы». В следующие недели мы продолжим рассказывать про личные проекты яндексоидов. Оставайтесь на связи!


🛎 А ещё мы открываем Call for Papers ваших петов. Если вы разрабатываете что-то для души и хотите поделиться этим с аудиторией Yandex for Developers — расскажите про ваш проект в этой форме.

📆 Мы будем собирать заявки до первой половины декабря, а после внимательно их прочитаем и выберем самые интересные и вдохновляющие петы. После Нового года мы свяжемся с их авторами и начнём публиковать посты про «питомцев» наших читателей.

Подписывайтесь:
💬 @Yandex4Backend
📹 YandexforBackend/?erid=2VtzqwELH1K">@YandexforBackend

Читать полностью…

Machinelearning

🖥 Картина маслом - Nvidia продает свои лопаты работягам

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

📊 Google стала главным двигателем роста S&P 500 в 2025 году

Alphabet в одиночку дала 19.4% всего роста S&P 500, это около $1.3 трлн рыночной капитализации.

Nvidia добавила 16.0% еще $1.05 трлн, индекс теперь почти напрямую следует за AI гигантами.

Broadcom и Microsoft внесли 7.8% и 5.7%, а остальные компании из топ 10 еще 10.6%.

Итог: топ 10 компаний показывают 59.4% всего роста рынка тогда как остальные 490 лишь 40.6%.

S&P 500 все меньше отражает состояние экономики и все больше коррелирует с узким сегментом крупнейших AI корпораций.

https://x.com/KobeissiLetter/status/1993359777062436902

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

Новое семейство моделей от Яндекса Alice AI теперь доступно для бизнеса

✔️ Yandex B2B Tech открыла доступ к Alice AI — линейку генеративных моделей, которые лежат под капотом у Алисы. Первая модель, Alice AI LLM, уже доступна на платформе Yandex AI Studio и предназначена для корпоративных задач: анализа документов, работы с текстами, она также лучше поддерживает диалог и справляется с креативной генерацией.

По результатам тестов, Alice AI в 60% случаев показала более высокое качество ответов, чем DeepSeek V3.1 и Qwen3-235B. Модель прошла полный цикл обучения от претрейна до SFT. Благодаря оптимизированному под русский язык токенайзеру в один токен “помещается” 4-5 символов на кириллице, а в опенсорсных моделях в среднем – 2-3 символа. При равной тарификации стоимость работы с Alice AI LLM будет в 1,5-2 раза дешевле зарубежных.

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…
Subscribe to a channel