Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml
✔️ Google представил обновлённый Chrome с искусственным интеллектом, и теперь браузер перестаёт быть просто окном в интернет.
Главное новшество - Gemini внутри Chrome. Ассистент понимает, что у вас открыто, и помогает быстро найти нужное среди вкладок, упростить работу с большим количеством информации и не потеряться в хаосе открытых страниц.
Вторая фишка - AI прямо в адресной строке. Больше не нужно открывать отдельный поиск: теперь можно задать вопрос прямо в omnibox и сразу получить осмысленный ответ, а не просто список ссылок.
Еще ИИ анализирует сайты и предупреждает о подозрительных страницах, защищает пароли и блокирует спам-уведомления, делая интернет-серфинг заметно безопаснее.
Пока обновление доступно только в США на Windows и Mac, и работает на английском языке. Но уже очевидно, что Google планирует расширить географию и языковую поддержку.
Google
✔️ DeepMind открыла новый путь в изучении загадок гидродинамики
Учёные из Google DeepMind применили искусственный интеллект, чтобы разобраться с задачами, над которыми математики спорят уже больше века. Речь идёт о «сингулярностях» - моментах, когда уравнения движения жидкости начинают давать бессмысленные ответы вроде «бесконечной скорости» или «бесконечного давления».
Такие сбои возникают, например, в уравнениях Буссинеска (описывают движение тёплой или холодной жидкости, учитывая разницу в плотности) и IPM-уравнениях (движение жидкости в пористых материалах). Эти модели помогают объяснять процессы от океанских течений до фильтрации нефти, но давно оставались загадочными.
С помощью нейросетей PINNs (Physics-Informed Neural Networks) исследователи нашли новые типы этих «сбоев» и закономерности в том, как они развиваются. Точность вычислений оказалась почти идеальной - сравнимой с машинными расчетами.
Главный вывод: ИИ может стать инструментом для решения фундаментальных проблем физики и математики, включая знаменитые уравнения Навье-Стокса, за разгадывание которых назначена премия в миллион долларов.
Deepmind
✔️ Compute as Teacher: новый способ обучать модели без «правильных ответов»
Исследователи представили метод Compute as Teacher (CaT), который позволяет улучшать языковые модели, даже если у задачи нет готового эталонного ответа.
Идея проста - вместо того чтобы искать «истину», модель сама становится своим учителем. Для этого она многократно решает одну и ту же задачу, создавая разные варианты ответа. Затем специальный механизм выбирает из этих вариантов наиболее обоснованный - и использует его как новую цель для обучения.
Метод работает в двух сценариях. Для задач, где результат можно проверить программно (например, в математике), CaT автоматически оценивает правильность. Для более сложных случаев используется другая LLM-судья, которая задаёт правила оценки (rubrics).
Результаты впечатляют: точность на математическом бенчмарке MATH-500 выросла на +27%, а на HealthBench - на +12%. В дообученной версии CaT-RL улучшения достигли +30–33%.
Главное - CaT снижает зависимость от больших размеченных датасетов и открывает путь к более универсальному и доступному обучению моделей. Это шаг к тому, чтобы ИИ сам помогал себе становиться умнее.
alphaxiv
✔️Команда Magistral представила обновлённые версии своих моделей — Magistral Small 1.2 и Magistral Medium 1.2.
Это эволюция прошлой линейки 1.1 с акцентом на мультимодальность и практическую производительность.
Теперь модели умеют работать не только с текстом, но и с изображениями благодаря встроенному vision-энкодеру.
Рост точности прирост +15% на бенчмарке по математике и коде (AIME 24/25 и LiveCodeBench v5/v6).
Улучшена работа с веб-поиском, интерпретатором кода и генерацией изображений.
Стиль ответов - более естественный тон, ясность изложения и улучшенное форматирование.
Magistral продолжает развивать свои открытые модели, предлагая всё более удобные и универсальные инструменты для работы с текстом, кодом и картинками. Обновление 1.2 делает их ещё ближе к «швейцарскому ножу» в мире ИИ.
HF
@ai_machinelearning_big_data
#news #ai #ml
Канал о серверной и облачной инфраструктуре для ИИ.
Подписывайся на Telegram-канал HOSTKEY — здесь вы найдете:
🔹тесты производительности и бенчмарки GPU-карт и серверного «железа»
🔹новости рынка и технологий
🔹лайфхаки и инструкции по интеграции ИИ в проекты
🔹практические советы для разработчиков и бизнеса
🔥 Последние популярные публикации канала:
🔹 Сравнение NVIDIA RTX 6000 Blackwell 96 ГБ с RTX 5090, A5000 и H100 в задачах LLM и генерации видео — результаты удивляют!
🔹Тестирование NVIDIA GeForce RTX 5090 в задачах ИИ.
🔹10 советов по Open WebUI, которые помогут в работе с нейросетями.
🔹Как добавить генерацию изображений через ComfyUI в Open WebUI.
🎁 А еще мы каждый месяц разыгрываем Telegram Premium среди подписчиков!
Если вы работаете с ИИ и нейросетями — вам точно будет интересно и полезно!
Подписывайтесь!
#реклама
О рекламодателе
⚡️ Релиз Hunyuan3D 3.0
Новая версия обеспечивает в 3 раза более высокую точность 3d-генерации , геометрическое разрешение 1536³ и 3.6 миллиарда вокселей для создания моделей с ультра-HD детализацией.
Ключевые улучшения:
▪ Генерация лиц с реалистичными контурами и естественными позами, что делает модели максимально правдоподобными.
▪ Точная реконструкция сложных структур из изображений благодаря многоуровневой стратегии генерации, позволяющей улавливать скрытые детали.
▪ Повышенная чёткость и профессиональная детализация: улучшенное качество текстур и корректное выравнивание для визуализаций, близких к оригинальному дизайну.
Доступен бесплатный доступ через Hunyuan 3D AI Engine (20 генераций). Решение интегрировано в Tencent Cloud API.
Попробовать можно здесь: https://3d.hunyuan.tencent.com
@ai_machinelearning_big_data
#Hunyuan3D #Tencent #3Dmodeling #AI #UltraHD
📕 Свежий гайд от Anthropic: Writing effective tools for agents — with agents
Anthropic описывает, как правильно создавать инструменты (tools) для AI-агентов: так, чтобы они были максимально полезными, эффективными и надёжными. Особый акцент сделан на том, как использовать самих агентов для прототипирования, тестирования и оптимизации инструментов.
Как писать эффективные инструменты для агентов
- Делай быстрые прототипы и сразу проверяй, как агент с ними работает.
- Тестируй на реальных сценариях, а не на абстрактных примерах.
- Анализируй логи и поведение агента, чтобы находить ошибки и непонятные места.
- Избегай дублирования: один инструмент должен выполнять одну чёткую задачу.
- Используй понятные имена и структуры (`machinelearning_create_task`, `mla_list_users`).
- Возвращай только нужные данные, не перегружай ответ лишним. Добавляй фильтрацию и пагинацию.
- Пиши описания так, чтобы их понял даже человек, который не в теме: чётко, без двусмысленностей, с примерами входа и выхода.
Что это дает:
- Улучшает способность AI-агентов решать реальные задачи.
- Минимизирует ошибки: неверное использование инструментов, лишние токены, избыточные вызовы.
- Повышает надёжность и предсказуемость поведения агентов.
- Упрощает масштабирование — добавление новых инструментов и задач.
🟠 Полный гайд: https://www.anthropic.com/engineering/writing-tools-for-agents
@ai_machinelearning_big_data
#Anthropic #claude #aiagents #ai
🚀 Вечерний релиз: Qwen3-Next-80B-A3B - эффективная модель заточенная на работа работу с очень длинным контекстом!
🔹 80B параметров, но активируется только 3B на токен → тренировка и инференс до 10x дешевле и быстрее, чем у Qwen3-32B (особенно при 32K+ контексте).
🔹 Гибридная архитектура: Gated DeltaNet + Gated Attention → сочетает скорость и точность.
🔹 Ultra-sparse MoE: 512 экспертов, маршрутизируется 10 + 1 общий.
🔹 Multi-Token Prediction → ускоренное speculative decoding.
🔹 По производительности обходит Qwen3-32B и приближается к Qwen3-235B в рассуждениях и long-context задачах.
🟢Qwen3-Next-80B-A3B-Instruct показатели почти на уровне 235B flagship.
🟢 Qwen3-Next-80B-A3B-Thinking превосходит Gemini-2.5-Flash-Thinking.
▪ Попробовать: [chat.qwen.ai](https://chat.qwen.ai)
▪ Анонс: https://qwen.ai/blog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list
▪ HuggingFace: https://huggingface.co/collections/Qwen/qwen3-next-68c25fd6838e585db8eeea9d
▪ ModelScope: https://modelscope.cn/collections/Qwen3-Next-c314f23bd0264a
▪ Kaggle: https://kaggle.com/models/qwen-lm/qwen3-next-80b
▪ Alibaba Cloud API: https://alibabacloud.com/help/en/model-studio/models#c5414da58bjgj
@ai_machinelearning_big_data
#AI #LLM #Qwen #DeepLearning #MoE #EfficientModels #LongContext #Reasonin
📌 Бесплатный курс для учащихся школ и колледжей от Яндекс Лицея по машинному обучению.
Интенсивная теория и мощная практика: домашние работы, обратная связь от кураторов и командная разработка.
Чему научитесь:
✔️ Основам линейной алгебры и работы с матрицами, векторами
✔️ Базе алгоритмов машинного обучения: линейную регрессию, градиентный спуск и другие важные штуки
✔️ Работать с популярными библиотеками: Pandas, NumPy
✔️ Создавать и обучать свёрточные нейросети, которые, например, распознают рукописный текст.
После обучения получите именной сертификат, который может добавить баллы при поступлении в вузы-партнеры. Трёхмесячный онлайн-курс бесплатный, но есть отбор. Вы можете его пройти до 23 сентября.
Программу и все возможности можете узнать по ссылке.
🇪🇺 NEWS: ASML инвестирует €1.3B в Mistral
Европейский чип-гигант ASML вложит €1.3 млрд в Series C раунд Mistral (€1.7B) и станет крупнейшим акционером стартапа.
💰 Оценка Mistral — €10 млрд ($11.7B) pre-money.
Что значит *pre-money*?
Это стоимость компании до привлечения новых инвестиций. То есть инвесторы договорились, что Mistral стоит €10 млрд, и только потом добавили ещё €1.7 млрд свежих денег. После этих вложений итоговая стоимость компании становится €11.7 млрд post-money.
🟢 Главное
Союз лидеров: крупнейший поставщик оборудования для чипов (ASML) объединяется с самой быстрорастущей AI-лабораторией Европы (Mistral).
Суверенность: Европа строит собственный стек - от чипов до моделей, снижая зависимость от США и Китая.
Ресурсы для Mistral: свежие деньги для роста, доступ к управлению, громкая оценка для привлечения талантов и заключения крупных контрактов.
🟢Технический аспект
ASML (Нидерланды) - единственный в мире производитель EUV-литографии (*Extreme Ultraviolet Lithography* - технология печати микросхем с использованием сверхкоротких волн ультрафиолета).
Один аппарат стоит ~$180M и используется TSMC и Intel. Даже небольшие улучшения в производительности приносят огромные деньги.
Эта сделка - это стратегический союз, который даёт Европе шанс поучаствовать в AI гонке, и в полупроводниках.
🟢 Подробнее
@ai_machinelearning_big_data
#ai #news #mistral #investments
✔️ Projects в ChatGPT стали доступны для всех.
Функция "Проекты" (Projects) теперь доступна не только по подписке, но и для бесплатных пользователей ChatGPT. "Проекты" работают как цифровые рабочие пространства, где можно объединять чаты, справочные файлы и пользовательские инструкции, связанные с одной долгосрочной задачей. Основная фишка "Проектов" - встроенная память. ChatGPT запоминает контекст всех разговоров и документов в рамках конкретного проекта.
Вместе с этим OpenAI увеличила лимиты на загрузку файлов (до 5 для бесплатных аккаунтов, Plus до 25, а Pro до 40), добавила элементы управления памятью для каждого проекта и возможность их кастомизации. Обновление уже доступно в веб-версии и в приложении для Android, релиз для iOS ожидается в ближайшее время.
OpenAI в сети X
✔️ DeepSeek работает над автономным ИИ-агентом.
Китайский стартап разрабатывает платформу на базе агентного ИИ. Новая система проектируется для самостоятельного выполнения многошаговых задач от имени пользователя, требуя лишь минимальных начальных инструкций.
Ключевой особенностью ИИ-агента станет способность к самообучению и улучшению своих действий на основе предыдущего опыта. По информации от источников, знакомых с планами компании, основатель DeepSeek Лян Вэньфэн нацелен на запуск нового программного обеспечения уже в четвертом квартале этого года.
bloomberg.com
✔️ CoreWeave покупает OpenPipe.
Облачный провайдер CoreWeave объявил о приобретении стартапа OpenPipe. Компания помогает разработчикам создавать кастомизированные ИИ-агенты с использованием RL через свой популярный опен-сорс инструментарий ART (Agent Reinforcement Trainer).
Эта сделка продолжает стратегию CoreWeave по расширению технологического стека, начатую с покупки платформы Weights & Biases в марте. Вся команда и клиентская база OpenPipe переходят в CoreWeave. Финансовые условия сделки стороны не раскрывают.
businesswire.com
✔️ OpenAI запускает платформу для трудоустройства и сертификации ИИ-специалистов.
Компания анонсировала создание собственной экосистемы для найма, которая объединит ИИ-платформу для поиска работы и расширенную программу сертификации, чтобы напрямую связать работодателей с кандидатами, чьи навыки в области ИИ можно верифицировать. Сама платформа будет использовать модели для сопоставления компетенций соискателей с требованиями вакансий, опираясь на собственную таксономию навыков.
Система сертификации вырастет из OpenAI Academy и предложит несколько уровней квалификации: от базовой ИИ-грамотности до продвинутого промпт-инжиниринга. Процесс обучения и сдачи экзаменов будет интегрирован в режим Study непосредственно в ChatGPT. Для корпоративных клиентов предусмотрена интеграция через SSO и API, а также механизм обратной связи для адаптации учебных курсов под реальные запросы рынка.
openai.com
✔️ NVIDIA и Университет Эссекса провели крупнейшую в истории симуляцию в статистической физике.
Инженеры из Университет Эссекса при поддержке NVIDIA установили новый мировой рекорд в компьютерном моделировании. Эксперимент позволил впервые на практике наблюдать термодинамический предел — ключевое понятие, объясняющее, как свойства материи проявляются в макроскопических системах.
Для симуляции использовалась стоечная архитектура NVIDIA GB200 NVL72, которая позволила смоделировать поведение до 70 триллионов взаимодействующих частиц. Система достигла рекордной производительности почти в 115 000 обновлений решетки в наносекунду.
Результаты исследования, опубликованные в Physical Review Research, могут ускорить разработку новых дисплеев, магнитных материалов и дать более глубокое понимание фундаментальных свойств материи.
essex.ac.uk
@ai_machinelearning_big_data
#news #ai #ml
🦾 Вопрос только один: что вы сделаете, если встретите его на улице?
@ai_machinelearning_big_data
#UnitreeG1 #robots #ai
🚀 Mistral представили обновления для Le Chat:
- Более 20 коннекторов на базе MCP — от Databricks и Snowflake до GitHub и Asana.
- Новая функция Memories — ассистент запоминает важные взаимодействия, а пользователь может полностью управлять памятью (добавлять, редактировать, удалять).
Обновления делают Le Chat одним из самых удобных и готовых к бизнес-задачам AI-ассистентов.
Попробовать можно на сайте chat.mistral.ai или в мобильном приложении.
🟠 Подробности: https://mistral.ai/news/le-chat-mcp-connectors-memories.
@ai_machinelearning_big_data
#MistralAI #LeChat #AIassistant #MCP
🚀 OpenAI **gpt-oss** с ультрадлинным контекстом!
Unsloth выпустили Flex Attention, который даёт до 61K контекста для gpt-oss bf16 при обучении на GPU с 80GB.
📊 Что это значит:
- 8× больше контекста
- потребляет на 50% меньше VRAM
- 1.5× быстрее по сравнению с альтернативами (включая FA3)
Для BF16 LoRA теперь можно тренировать с ~60K контекстом на одной H100 80GB.
🔗 Подробнее: https://docs.unsloth.ai/basics/long-context-gpt-oss-training
@ai_machinelearning_big_data
#Unsloth #OpenAI #gptoss #chatgpt
🖥 OpenAI представили gpt-realtime: свою самую продвинутую на сегодня модель «речь-в-речь».
Цены:
> $32 за 1 миллион аудио-входных токенов
> ($0.40 за 1 миллион кэшированных входных токенов)
> $64 за 1 миллион аудио-выходных токенов
📊 MultiChallenge (Audio), точность следования инструкциям:
- gpt-realtime: 30.5%
- gpt-4o-realtime-preview-2025-06-03: 26.5%
- gpt-4o-realtime-preview-2024-12-17: 20.6%
🎯 ComplexFuncBench (Audio), точность выполнения инструкций по голосу:
- gpt-realtime: 66.5%
- gpt-4o-realtime-preview-2025-06-03: 58.9%
- gpt-4o-realtime-preview-2024-12-17: 49.7%
Чем интересна:
- Скачок в понимании голосовых инструкций и точном следовании аудио-командам
- Меньше косяков в понимании речи
- Модель готова для реального продакшена в голосовых ассистентах и колл-ботах
GPT-Realtime обучали на качественных данных и с помощью специализированных reward-моделей, звучит очень годно.
🟢 Попробовать
@ai_machinelearning_big_data
📌 Andreessen Horowitz выпустили пятый рейтинг TOP 100 ИИ-приложений.
Главный вывод из пятого ежегодного списка Top 100 AI Apps — экосистема ИИ начинает приходить в равновесие.
В веб-рейтинге появилось всего 11 новых имен, что заметно меньше, чем было мартовском отчете. В мобильном сегменте, напротив, новичков больше — целых 14, но это связано с тем, что App Store активно вычищают "клонов ChatGPT", освобождая место для оригинальных приложений.
🟡Главным событием стало укрепление позиций Google.
Их флагманский ассистент Gemini занял 2 место после ChatGPT и в вебе, и на мобильных устройствах. Правда, разрыв пока существенный: в вебе Gemini набирает примерно 12% от трафика ChatGPT. А вот на мобильных платформах ситуация иная - у Gemini уже почти половина ежемесячно активных пользователей ChatGPT.
Интересная деталь: почти 90% мобильной аудитории Gemini сидит на Android, тогда как у ChatGPT доля Android-пользователей составляет 60%.
🌟 MAD: алгоритм безопасной работы с огромными датасетами.
Большие данные - это топливо для ИИ. Но как их использовать, чтобы не нарушить приватность, например датасета, где есть персональные данные?
Один из вариантов - метод дифференциально-приватного отбора. Он выбирает из огромного набора уникальные элементы так, чтобы нельзя было соотнести их с конкретным человеком. А если данных - больше миллиарда? Для этого нужен более надежный подход.
Таким алгоритмом стал Max Adaptive Degree (MAD), представленный Google на ICML 2025. Он не только эффективнее других параллельных методов, но и работает с наборами данных на десятки и сотни миллиардов записей.
🟡Стандартный MAD метод состоит из 3 шагов:
🟢Каждому элементу присваивается вес (обычно по частоте использования).
🟢К весу добавляется случайный шум для защиты приватности.
🟢Выбираются только те элементы, чей вес с шумом превышает определенный порог.
Но тут появляется новая проблема - популярные элементы получают избыточный вес, который можно было бы использовать для менее частых, но ценных данных.
MAD решает ее с помощью адаптивного взвешивания, перераспределяя вес: забирает часть у популярных элементов и отдает тем, чьи значения уже находятся у порога. Это позволяет отобрать больше полезных данных без потери приватности.
Простой пример: представьте 100 пользователей, у каждого по 3 элемента. Один элемент (A) есть у всех, а остальные элементы уникальны. В базовом алгоритме элемент A получит слишком много веса (намного больше необходимого), а уникальные элементы - слишком мало. MAD "забирает" часть веса у A и распределяет его между уникальными элементами, давая им шанс пройти порог.
⚡ PyTorch представил **ZenFlow** — новый движок для обучения больших языковых моделей без «простоев» GPU.
В чём проблема?
Когда при обучении LLM данные и градиенты выгружаются на CPU (offloading), GPU часто простаивает: шина PCIe медленная, а вычисления на CPU ещё медленнее. В итоге шаг обучения может замедлиться в 10–15 раз.
Как решает ZenFlow:
- 🔄 Делит градиенты по важности: ключевые обновляются сразу на GPU, остальные — асинхронно на CPU.
- ⏱️ Все операции перекрываются: пока CPU считает и гоняет данные по PCIe, GPU продолжает работать.
- 🚀 Это снижает простои GPU на 85% и ускоряет обучение в среднем в 5 раз (по сравнению с DeepSpeed ZeRO-Offload).
- 📉 PCIe загружается в 2 раза меньше, а качество обучения моделей не падает.
Итог:
ZenFlow делает обучение LLM быстрее и эффективнее — теперь GPU работают почти без перерывов, а модели масштабируются без потери качества.
🟢 Подробности: https://pytorch.org/blog/zenflow-stall-free-offloading-engine-for-llm-training/
@machinelearning_interview
✔️ DeepSeek-R1: прорыв в обучении ИИ рассуждению без человеческих примеров
В журнале Nature опубликована работа о новой модели DeepSeek-R1, которая показывает, что LLM можно научить рассуждать без заранее подготовленных человеческих подсказок. Обычно для обучения таким системам используют «цепочки мыслей» — примеры пошагового рассуждения, составленные людьми. В DeepSeek-R1 от этого отказались: модель получает единственную награду — правильный конечный ответ.
Для обучения применили алгоритм Group Relative Policy Optimization (GRPO). С его помощью базовая версия, названная DeepSeek-R1-Zero, постепенно сама научилась стратегиям проверки своих решений, рефлексии и смены подхода в зависимости от задачи. Иными словами, система начала вырабатывать собственные приёмы мышления, а не копировать человеческие.
Результаты впечатляют. На математическом бенчмарке AIME точность выросла с 15% на старте до 78% после обучения, а с использованием механизма самопроверки — до 87%. Это выше среднего результата реальных участников. В задачах программирования и тестах по STEM-дисциплинам DeepSeek-R1 также обогнал сопоставимые по размеру модели и даже приблизился к гораздо более крупным системам. Более компактные версии, созданные методом дистилляции, сохраняют большую часть этих возможностей.
Есть и недостатки: модель иногда пишет менее читаемые ответы, смешивает языки и пока что хуже работает в областях за пределами логики и математики. Но сам подход доказывает: ИИ способен учиться рассуждать без дорогой и трудоёмкой разметки данных.
Этот прорыв открывает новый этап развития искусственного интеллекта. В будущем такие модели смогут самостоятельно находить эффективные пути решения задач, что особенно важно для науки, инженерии и образования. DeepSeek-R1 показывает, что «чистое подкрепление» может стать реальной альтернативой традиционному обучению с человеческими примерами.
nature
✔️ OpenAI и Google показали рекордные результаты на ICPC Programming Contest
Сразу две компании — OpenAI и Google — сообщили о победах на престижном международном соревновании по программированию ICPC. По данным инсайдов, их модели впервые показали уровень, сопоставимый с лучшими командами из людей, и даже превзошли их.
Команда OpenAI заявила, что их модель решила 12 из 12 задач. Из них GPT-5 с первой попытки справился с 11 заданиями, а самое сложное было закрыто с помощью ещё не представленной reasoning-модели, которая также направляла решения по другим задачам. Это фактически идеальный результат, который ранее был недостижим даже для лучших университетских команд.
Google выступил с собственным достижением: продвинутая версия Gemini 2.5 Deep Think решила 10 из 12 задач и, по заявлениям компании, справилась хотя бы с одной задачей, которую не смогла решить ни одна из команд людей. Это указывает на то, что новые архитектуры начинают находить нестандартные ходы, которые выходят за пределы привычного человеческого опыта.
Если данные подтвердятся, ICPC 2025 войдёт в историю как момент, когда модели искусственного интеллекта впервые официально обошли лучшие команды программистов-людей в соревновании мирового уровня. Это событие может стать переломным: теперь ИИ рассматривается не просто как ассистент, а как полноценный участник и даже лидер в задачах, требующих абстрактного мышления, алгоритмического анализа и математической строгости.
Такие достижения поднимают новые вопросы: стоит ли ИИ допускать к соревнованиям наравне с людьми, как использовать его для обучения программистов и где пройдёт граница между «человеческой» и «машинной» интеллектуальной работой. Одно ясно — в мире алгоритмов начинается новая эра, и ICPC стал её яркой отправной точкой.
✔️ IBM выпустила Granite-Docling-258M — «швейцарский нож» для работы с документами
IBM представила granite-docling-258M — компактную модель, которая совмещает несколько функций: это не только конвертер документов, но и система для вопросно-ответных задач по содержимому файлов. Модель поддерживает несколько языков и распространяется под лицензией Apache 2.0.
HF
@ai_machinelearning_big_data
#news #ai #ml
Оживи робота своим алгоритмом и поборись за призовой фонд в 10 250 000 рублей на True Tech Champ 2025.
True Tech Champ 2025 — это третий всероссийский чемпионат по программированию от МТС с онлайн-этапами отбора и грандиозным шоу-финалом в Москве.
Тебя ждут два трека — выбирай:
I. Алгоритмический [призовой фонд 2 750 000 рублей].
Если классический олимпиадный формат — твоя стихия, этот трек для тебя. Блесни математическими навыками, покажи скилы в работе со структурами данных и написании алгоритмов — и окажись выше соперников в турнирной таблице.
II. Программирование роботов [призовой фонд 7 500 000 рублей].
Запрограммируй робота на скоростное прохождение лабиринта в симуляторе и пройди в финал. На финале участники встретятся офлайн и сразятся на четырех уровнях с полосой препятствий, вспышками света, лазерами и другими препятствиями.
Трек будет интересен начинающим и опытным разработчикам: С++, Go, Python, JS, Java, C# и не только.
Подробности на сайте. Регистрация открыта до 20 октября.
Топ навыков ML-инженера на примере реальной бизнес-задачи
Предсказать отток клиентов — одна из самых распространенных и актуальных задач для любого бизнеса. На примере этой задачи можно рассмотреть все этапы работы ML-инженера: данные, признаки, модель, метрики и выводы для бизнеса.
Чтобы увидеть полный цикл решения реальной задачи и понять, какие навыки нужны ML-инженеру в работе, приходите 16 сентября на практико-ориентированный вебинар от Кристины Желтовой — директора по разработке моделей в Газпромбанке.
В ходе вебинара мы на примере задачи предсказания оттока клиентов разберём:
🟠Актуальность предсказания оттока клиентов для бизнеса
🟠Как работать с «сырыми» данными и подготовить их для обучения модели
🟠Как выбрать, построить и обучить базовую модель в Google Colab
🟠Как проверить, качество работы модели: разбор метрик и ошибок
🟠Какие ключевые навыки складываются в профессию ML-инженера.
⚡ Speculative Cascades — как ускорить работу LLM
Google Research придумали новый способ сделать большие языковые модели быстрее и дешевле.
Что это такое:
🔹 Каскады
Сначала отвечает маленькая модель. Если задача слишком сложная - подключается большая. Так экономятся ресурсы, но качество может прыгать.
🔹 Спекулятивная декодировка
Маленькая модель угадывает сразу несколько слов вперёд. Большая быстро проверяет данные и подтверждает. Скорость выше, но большая модель всё равно тратит много ресурсов.
🟢 Speculative Cascades
Это комбинация: маленькая модель иногда отвечает полностью сама, а иногда используется как ускоритель для большой. В итоге получаем меньше затрат, больше скорости и то же качество.
🔥Что показали тесты (тестили на Gemma, T5):
- быстрее, чем обычная спекулятивная декодировка
- дешевле и качественнее, чем каскады
- удобнее настраивать баланс «скорость ↔ качество»
При том же уровне качества, что и у спекулятивной декодировки, новый метод работает быстрее (генерирует больше токенов за один вызов большой модели).
А в задачах математических рассуждений получен явный апгрейд по скорости при сохранении или даже улучшении качества.
LLM всё чаще используются в поиске, чатах, ассистентах. Чтобы они реально были полезными, их нужно ускорять и удешевлять. *Speculative cascades* помогают это сделать без потери качества.
🔗 Подробнее: https://research.google/blog/speculative-cascades-a-hybrid-approach-for-smarter-faster-llm-inference/
@ai_machinelearning_big_data
#AI #LLM #Inference #SpeculativeDecoding #Cascades #GoogleResearch
Твоя карьера после One Day Offer для Senior ML-разработчиков — 10/10 без всяких но! 🚀
Стань частью команды GigaCode, займись развитием AI-ассистента и работай с большими языковыми моделями — а плюсом получи крутую команду, выгодные бонусы и стабильную работу.
Встречаемся сначала на онлайн-секцию с кодом с 10 по 19 сентября, а затем на RND день 24 сентября — от тебя нужна только регистрация по ссылке и желание изменить свою карьеру!
💰 OpenAI заключила гигантский контракт с Oracle на $300 млрд на облачные вычисления сроком примерно на 5 лет - сообщает Wall Street Journal.
Это один из крупнейших договоров на облачные вычисления в истории.
Расходы на инфраструктуру для ИИ продолжают расти рекордными темпами, несмотря на опасения «перегрева» рынка.
⚡ Масштаб сделки:
- OpenAI потребуется 4,5 гигаватта мощности - это больше, чем две плотины Гувера, или электричество для 4 миллионов домов.
- Oracle уже демонстрирует рост: акции компании подскочили, а Ларри Эллисон (глава Oracle) за сутки заработал $101 млрд и стал самым богатым человеком на планете, обогнав Илона Маска.
Рынок ИИ-вычислений превращается в арену сделок планетарного масштаба — где стоимость инфраструктуры измеряется сотнями миллиардов долларов и требует энергопотребления на уровне целых стран.
🟢 Подробнее: wsj .com/business/openai-oracle-sign-300-billion-computing-deal-among-biggest-in-history-ff27c8fe
@ai_machinelearning_big_data
#AI #Cloud #OpenAI #Oracle #DataCenters
📌Почему языковые модели галлюцинируют.
OpenAI опубликовали исследование о причинах галлюцинации LLM.
Галлюцинации - это не мистический сбой в сознании ИИ, а вполне предсказуемый побочный эффект его обучения.
Представьте, что перед моделью стоит задача бинарной классификации - определить, является ли предложенное утверждение корректным или нет. Математическая выкладка в исследовании проста: уровень ошибок генерации как минимум в 2 раза превышает уровень ошибок классификации. Если модель не способна надежно отличить факт от вымысла, она неизбежно будет этот вымысел генерировать.
🟡Все начинается еще на претрейне.
Даже на идеально чистых данных статистические цели обучения подталкивают модель к генерации ошибок. Особенно это касается фактов, которые редко встречаются в обучающей выборке.
В работе вводится понятие singleton rate
— доля фактов, которые появились в данных лишь один раз. Теоретический расклад показывает, что уровень галлюцинаций модели будет как минимум равен этой доле.
Проще говоря, если 20% фактов о днях рождения в датасете встретились единожды, модель будет выдумывать дни рождения как минимум в 20% случаев.
🟡Эксперименты это подтверждают.
Модель DeepSeek-V3, на просьбу назвать день рождения одного из авторов статьи, трижды выдала неверные даты: 03-07
, 15-06
и 01-01
. Ни одна из них не была даже близка к правильной (осенью).
В другом тесте, где нужно было сосчитать количество букв D
в слове DEEPSEEK
, та же DeepSeek-V3 выдавала 2
или 3
, а модели компании Марка Цукерберга и Claude 3.7 Sonnet доходили до 6
и 7
.
При этом базовые модели после претрейна часто показывают отличную калибровку. Например, у предобученной GPT-4 ожидаемая ошибка калибровки составляла всего 0.007, что говорит о высокой статистической адекватности ее предсказаний. Кто бы сомневался.
🟡Почему галлюцинации не исчезают после пост-тренинга и RLHF?
Ответ на этот вопрос - в системе оценки. Большинство современных бенчмарков поощряют угадывание. Модели, по сути, постоянно находятся в режиме сдачи экзамена, где за правильный ответ дают 1 балл, а за пустой бланк или ответ я не знаю
- 0. В такой системе оптимальная стратегия при неуверенности - только угадать. Любой шанс на правильный ответ лучше, чем гарантированный ноль.
Эту гипотезу подтвердили анализом популярных оценочных наборов.
В GPQA, MMLU-Pro, Omni-MATH, SWE-bench и HLE используется строго бинарная система оценки (правильно/неправильно). Возможности получить частичный балл за честное признание в незнании там просто нет. Из 10 рассмотренных в исследовании популярных бенчмарков только один, WildBench, присуждает частичные баллы за ответы формата я не знаю
. Остальные же фактически наказывают модель за отказ галлюцинировать, создавая эпидемию штрафов за неуверенность и поощряя ее выдавать правдоподобную ложь.
🟡Что делать инженерам.
OpenAI предлагает встраивать явные целевые уровни уверенности в рубрики, вводить поведенческую калибровку и оценивать модели по секциям с разными порогами уверенности.
Еще рекомендуют включают мониторинг singleton-rate
на корпусе, измерение вероятности важных ответов, комбинирование RAG с верификацией фактов и изменение лидербордов чтобы ответы я не знаю
не штрафовались автоматически.
🔜 Читать статью полностью
@ai_machinelearning_big_data
#AI #ML #LLM #Research #OpenAI
🔥 Бесплатная книга от инженера Google — Agentic Design Patterns
400 страниц про всё, что нужно знать об агентных системах. Автор — senior engineer в Google, выложил драфт для открытого ревью.
📖 В книге:
- продвинутые техники промптинга
- паттерны для мульти-агентов
- использование инструментов и MCP
- практические примеры с кодом
⚡ По сути, это полный справочник по построению умных агентов. Must-read для разработчиков AI.
📚 Читать
@ai_machinelearning_big_data
#AI #Agents #Google #OpenSource #freebook
✔️ OpenAI приобрела аналитическую платформу Statsig за $1,1 млрд.
Компания объявила о покупке Statsig - платформы, специализирующейся на продуктовой аналитике и A/B-тестировании. Ее основатель и CEO Statsig, Виджая Раджи, будет назначен на пост технического директора по приложениям (CTO of Applications) в OpenAI. Он возглавит продуктовую инженерию для ChatGPT и Codex. Вся команда Statsig присоединится к OpenAI, однако сама платформа продолжит работать независимо и обслуживать текущих клиентов.
openai.com
✔️ ChatGPT получит обновление системы безопасности.
OpenAI анонсировала новые функции безопасности для ChatGPT для на защиты молодых пользователей и помощи в кризисных ситуациях. Первая новинка - система автоматической маршрутизации: при обнаружении признаков острого психологического стресса разговор будет передаваться "думающим" моделям. Они обучены с помощью метода Deliberative Alignment и дают более медленные и взвешенные ответы. Обновление планируется выпустить в течение 120 дней.
В ближайший месяц также появятся функции родительского контроля. Родители смогут связывать свои аккаунты с аккаунтами подростков от 13 лет, чтобы устанавливать ограничения и получать оповещения, если система зафиксирует у ребенка признаки кризисного состояния.
openai.com
✔️ Швейцария представила национальную опенсорсную LLM.
В Швейцарии состоялся запуск Apertus — национальной LLM с открытым исходным кодом. Проект, разработанный консорциумом государственных институтов, позиционируется как альтернатива коммерческим моделям. Apertus полностью прозрачен: разработчики опубликовали не только саму модель, но и исходный код процесса обучения, документацию и использованные наборы данных.
Модель обучена на 15 трлн. токенов и поддерживает более 1000 языков, 40% данных - не на английском. Apertus создавалась с учетом швейцарских и европейских законов о защите данных и авторском праве, что делает ее привлекательной для местного бизнеса. Модель доступна на Hugging Face в 2 версиях: 8 и 70 млрд. параметров.
swissinfo.ch
✔️ Dolby представила новый стандарт Dolby Vision 2 с ИИ.
Dolby Vision 2 - следующее поколение формата HDR, который постепенно заменит Dolby Vision и Dolby Vision IQ. Особенность новой технологии - использование ИИ для динамической подстройки качества изображения в реальном времени.
Система Content Intelligence будет анализировать сцены, учитывать условия освещения в комнате и с помощью машинного обучения корректировать картинку "на лету". Например, функция Precision Black улучшит детализацию в темных сценах, а Light Sense адаптирует изображение под окружающую среду.
Первым производителем, который внедрит Dolby Vision 2, станет Hisense, а первым чипом со встроенной поддержкой нового стандарта будет MediaTek Pentonic 800.
dolby.com
✔️ В ЦЕРН использовали ИИ для поиска редкого распада бозона Хиггса.
ЦЕРН применила методы машинного обучения для поиска редких событий - распада бозона Хиггса на два charm-кварка. Эта задача критически важна для проверки Стандартной модели, так как взаимодействие бозона с легкими кварками, из которых состоит обычная материя, до сих пор экспериментально не подтверждено.
Основная сложность заключалась в идентификации так называемых «джетов», порожденных именно charm-кварками. Для этого исследователи использовали графовую нейронную сеть, обученную на сотнях миллионов симуляций, а для отделения реальных событий от фонового шума была задействована сеть, архитектурно схожая с ChatGPT.
В результате анализа данных, собранных на БАК, удалось установить самые строгие на сегодняшний день ограничения на силу взаимодействия бозона Хиггса с charm-кварком. Это значительный шаг в понимании механизма, который придает массу фундаментальным частицам.
scitechdaily.com
@ai_machinelearning_big_data
#news #ai #ml
✔️ Grok Code Fast 1 возглавила рейтинг OpenRouter по объему использования.
OpenRouter выступает в роли единого API для доступа к множеству LLM, а его лидерборд отслеживает реальный объем использования моделей по количеству сгенерированных токенов.
Резкий рост популярности, скорее всего, связан с удачным позиционированием и экономикой. Grok Code Fast 1 предлагается как быстрый и недорогой инструмент для агентного кодинга. Выгодная цена и большой контекст делают модель идеальной для инструментов с высоким трафиком: IDE-ассистентов и кодинг-агентов, которые доминируют в списке самых популярных приложений на OpenRouter.
Важно понимать, что рейтинг отражает именно объем генерации, а не качество или точность модели. Он не измеряет безопасность или корректность кода. Поэтому первое место следует трактовать как "самая используемая модель на данной платформе в текущий момент", а не как "лучшая модель на рынке".
openrouter.ai
✔️ Droplet3D: модель генерации 3D-объектов.
Команда из Университета Цинхуа разработала новый метол создания 3D-контента — Droplet3D, который использует видео для обучения моделей. Он извлекает из видеоданных информацию о пространственной согласованности и семантике объектов, что позволяет генерировать более качественные и разнообразные 3D-модели.
Для обучения была создан датасет Droplet3D-4M из 4 миллионов 3D-объектов с подробными текстовыми описаниями. На его основе дообучили видео-диффузионную модель DropletVideo.
Модель создает по текстовому запросу или изображению последовательные многовидовые рендеры, причем не только отдельных объектов, но и целых сцен. Код, набор данных и веса модели опубликованы в открытом доступе под лицензией Apache 2.0.
dropletx.github.io
✔️ Компания G42 ведет переговоры с Google, Microsoft и AWS о размещении в ИИ-кампусе в ОАЭ.
Среди потенциальных арендаторов: AWS, Google, Microsoft и xAI, причем с Google переговоры продвинулись дальше всего.
Проект мощностью 5 ГВт станет крупнейшим объектом ИИ-инфраструктуры за пределами США. 1 Гвт уже зарезервирован под дата-центр Stargate от OpenAI, MGX, Softbank и Oracle. Остальные мощности G42 планирует оснащать чипами от AMD, Cerebras и Qualcomm, чтобы диверсифицировать поставки и не зависеть только от Nvidia.
Одной из бизнес-моделей кампуса станет концепция "цифровых посольств". G42 разрабатывает предложение для иностранных правительств по размещению их данных в ОАЭ, что может стать безопасной альтернативой, защищенной от стихийных бедствий и кибератак.
semafor.com
✔️ Квантовые сигналы впервые передали по обычному оптоволокну.
Инженеры из Университета Пенсильвании впервые успешно передали квантовые сигналы через коммерческие оптоволоконные сети с использованием стандартных интернет-протоколов (IP). Команда разработала специальный "Q-чип", который упаковывает квантовые сигналы вместе с традиционными, что позволяет им стабильно передаваться по обычным оптоволоконным линиям, при этом система автоматически корректирует шумовые помехи.
До этого момента квантовая связь требовала специализированной, изолированной инфраструктуры. Теперь доказана возможность использования существующих сетей, а это удешевляет и ускоряет создание квантового интернета.
science.org
✔️ Остров Ангилья зарабатывает миллионы на ИИ. Но есть нюанс
Небольшой карибский остров Ангилья, неожиданно стал одним из главных бенефициаров ИИ-лихорадки. Еще в 1980-х годах острову было присвоено доменное имя .ai,
которое теперь оказалось "золотой жилой". В 2024 году доходы Ангильи от продажи доменов составили 39 млн. долларов, это почти четверть (23%) всех доходов территории. Количество сайтов в зоне .ai за последние 5 лет выросло более чем в 10 раз, а за последний год — удвоилось.
Цены на премиальные имена достигают рекордных отметок: домен you.ai
был продан за 700 тыс. долларов.
bbc.com
@ai_machinelearning_big_data
#news #ai #ml
🦾 Демонстрация Unitree G1 прошла на UFC Shanghai
Президент UFC Дана Уайт столкнулся с неожиданным приемом робота на шоу в Шанхае.
В мае те же G1 участвовали в «Mecha Fighting Series» на World Robot Competition в Ханчжоу
Живые спорт-ивенты всё чаще становятся витриной для робототехники.
@ai_machinelearning_big_data
#Unitree #ufc #robots
AI VK & Pro: как это было
Вчера прошел первый ивент AI VK & Pro в .оригинале: встреча про рекомендательные системы собрала, кажется, всех, кто делает RecSys (и не только). Ребята раздали стиля.
Из интересного: команда RecSys VK рассказала про стратегию рекомендаций в VK, про технологии глубокого понимания контента, про единую рекомендательную платформу и многое другое
Определенный плюс вайб: DJ-сеты, интерактивы, турнир по су-е-фа и нетворк
Спасибо организаторам и спикерам за контент и настроение. Если делаете рекомендации, такое пропускать не стоило
@ai_machinelearning_big_data
📌Приглашаем вас на три бесплатных вебинара курса «ML для финансового анализа»
💎Вебинар №1: «Инструменты тестирования торговых стратегий»
⏰ 27 августа в 20:00 мск
🔹На вебинаре:
- Познакомитесь с инструментами для backtesting’а: от pandas до backtrader и backtesting.
-Узнаете про метрики оценки: доходность, просадка, Sharpe ratio
- Покажем ошибки при тестировании и как их избежать.
- Практика по тестированию простой стратегии и анализу ее метрик.
💎Вебинар №2: «Введение в технический анализ: построение торговой стратегии»
⏰ 4 сентября в 20:00 мск
🔹На вебинаре:
-Узнаете архитектурное решение локального торгового робота
- Познакомитесь с понятием технического анализа
- Практика с актуальными инструментами
- Построения индикаторов на практике
- Первая стратегия на тех. анализе
💎Вебинар №3: «Работа с торговой площадкой ByBit»
⏰ 17 сентября в 20:00 мск
🔹На вебинаре:
- Обзор возможностей платформы ByBit: типы ордеров, торговые пары.
- Разбор основных принципов работы с API ByBit: авторизация, получение котировок, выставление ордеров.
- Напишем простой торговый скрипт на Python и протестируем его на демо-аккаунте.
🎁Участники вебинаров получат подарки на почту
Регистрация на вебинары ➡️ OTUS.RU
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🦾 Boston Dynamics выкатили впечатляющее видео своего робота.
Atlas получает изображение с камеры, данные о положении тела и текстовую команду. На основе этого модель генерирует плавные движения всего корпуса 30 раз в секунду.
Это не набор хрупких скриптов, а система, которая сама «думает», как выйти из ситуации.
Вместо того чтобы «прыгать» от точки к точке, система сразу строит короткую последовательность действий — примерно на полторы секунды вперёд.
Часть из них выполняется, а потом план обновляется, чтобы движения оставались точными и естественными.
📘 На Stepik вышел курс — «LangChain: с нуля до продакшн LLM-приложений»
Нужен не игрушечный бот, а воспроизводимый RAG-пайплайн с метриками и сервисом? Этот курс — про путь «ноутбук → FastAPI → прод».
🔍 Что вы получите
• RAG по PDF с цитированием источников и гибридным поиском (BM25 + вектор + rerank); контроль галлюцинаций через метрики (precision/recall@K, citation-rate)
• Инструменты и агенты для анализа данных: Pandas-задачи, структурированный JSON-вывод под отчёты/дашборды
• Продакшн-контур: FastAPI-сервис, логирование латентности/токенов, PromptOps (версии/A/B), базовый SLA-мониторинг
🎓 Сертификат по завершении — можно добавить в резюме или LinkedIn
🚀 Начните сегодня и получите скидку 25% в течение 72 часов
👉 Пройти курс на Stepik
#LangChain #RAG #LLM #FastAPI