ai_machinelearning_big_data | Technologies

Telegram-канал ai_machinelearning_big_data - Machinelearning

359493

Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml

Subscribe to a channel

Machinelearning

✔️ Яндексовский CatBoost вошел в число самых используемых ML-инструментов в академических исследованиях

Американское издание Marktechpost выкатило доклад ML Global Impact Report 2025, который охватывает исследования из более чем 125 стран мира. В число самых популярных ML-инструментов в исследованиях вошла российская технология CatBoost.

CatBoost, который изначально создавался для Поиска Яндекса, сегодня используется в каждой 30-й статье с применением ML учеными из 51 страны, включая США, Китай, Саудовскую Аравию и другие. В частности, на США приходится 13% статей с использованием CatBoost, среди авторов работ — исследователи из Harvard University, Massachusetts Institute of Technology и Stanford University.

В числе основных отраслей применения — медицина и прикладные науки:
- прогнозирование рецидивов рака печени
- обнаружение рака молочной железы
- ранняя диагностика болезни Альцгеймера
- оценка риска преждевременных родов
- индекс качества воды
- расчет спроса на зарядку электромобилей
- борьба с ботами в социальных сетях.

Читать полностью…

Machinelearning

🧠 Сергей Брин рассказывает о своей новой привычке

Он разговаривает с Gemini Live прямо за рулём - обсуждает энергопотребление дата-центров, стоимость инфраструктуры и другие рабочие темы.

Это классический Google-style: тестировать собственный продукт в реальной жизни. Напоминает историю про Билла Гейтса, который снял радио из машины, чтобы постоянно думать о Microsoft.

Такой уровень одержимости - редкость. И, честно, именно он отличает по-настоящему больших фаундеров.

Интересная деталь: Сергей говорит, что версия Gemini, которой он пользуется в машине, заметно лучше того, что доступно публично сейчас.

@ai_machinelearning_big_data

#Gemini #google #ai #ml

Читать полностью…

Machinelearning

📌Внутри нашего мозга работает аналог GPT с контекстным окном всего в 10 слов.

Представьте себе биологическую нейросеть, физический объем которой, если собрать все её ткани вместе, не превысит размер обычной клубники.

Именно такую компактную, но критически важную структуру описывает нейробиолог Эв Федоренко из MIT, посвятившая 15 лет изучению того, как наш мозг обрабатывает речь.

Её выводы звучат для инженеров и дата-сайентистов очень знакомо: внутри человеческой головы функционирует система, которая ведет себя подозрительно похоже на современные большие языковые модели. Это своего рода «бездумный» языковой процессор, который занимается маппингом слов и смыслов, но сам при этом абсолютно не умеет мыслить.

🟡Утверждение базируется на серьезном массиве данных.

Лаборатория Федоренко провела фМРТ-сканирование 1400 человек, чтобы построить детальную вероятностную карту мозговой активности.

Архитектура этой «языковой сети» оказалась удивительно стабильной и воспроизводимой: у большинства взрослых людей она локализуется в 3 конкретных зонах левой лобной доли и на протяженном участке вдоль средней височной извилины.

Федоренко называет эту структуру функциональным блоком, сравнимым с органом, вроде пищеварительной системы, или зоной распознавания лиц.

Самое интересное начинается, если посмотреть на функционал. Федоренко описывает эту сеть как парсер или набор указателей. Её задача сугубо утилитарна — работать интерфейсом между входными сигналами (звук, текст, жесты) и абстрактными представлениями смысла, хранящимися в совершенно других отделах мозга.

Сама языковая сеть не обладает ни эпизодической памятью, ни социальным интеллектом, ни способностью к рассуждению. Весь процесс раздумий происходит за её пределами.

Это объясняет феномен афазии: при повреждении этого «интерфейса» человек сохраняет сложное когнитивное мышление, но оказывается заперт внутри себя, потеряв доступ к словарю и грамматическим правилам.

🟡Сходство с LLM становится еще очевиднее, если взглянуть на ограничения системы.

Исследования показывают, что человеческая языковая сеть имеет крайне узкое контекстное окно: она способна эффективно обрабатывать чанки длиной максимум в 8–10 слов.

По сути, это довольно поверхностная система. Она реагирует на грамматически верную бессмыслицу Ноама Хомского «Colorless green ideas sleep furiously» так же активно, как и на осмысленные предложения. Ей важна структура и статистическая вероятность стыковки слов, а не истинность или глубокий смысл высказывания.

Это роднит её с ранними языковыми моделями: сеть просто выучила правила, по которым слова собираются в цепочки.

Данные Федоренко заставляют пересмотреть и классические представления об анатомии, ведь многие учебники до сих пор ссылаются на устаревшие концепции.

Например, зона Брока, которую десятилетиями считали центром речи, на деле оказалась областью моторного планирования. Она лишь готовит мышцы рта к артикуляции и активируется даже при произнесении полной бессмыслицы, работая как ведомый регион для получения команд.

Настоящая же языковая сеть мозга - это отдельный, специализированный вычислительный кластер, который, подобно ChatGPT, блестяще имитирует связность речи, даже если за ней не стоит никакой реальной мысли.


@ai_machinelearning_big_data

Читать полностью…

Machinelearning

⚡️ МТС Web Services запускает MWS GPU on-premises — сервис для тех, кому облако не подходит по требованиям безопасности.

Серверы с передовыми графическими ускорителями устанавливаются на площадке предприятия или в дата-центре MWS Cloud.

Команда поможет подобрать конфигурацию под ваши задачи, установит оборудование и возьмёт на себя поддержку. Можно выбрать готовое решение или собрать индивидуальное. Покупка или аренда — на ваше усмотрение.

Сервис особенно актуален для промышленных компаний с существующими on-premises системами и медицинских организаций, использующих ИИ для диагностики.

Все конфигурации и условия — на странице сервиса.

Читать полностью…

Machinelearning

⚡️ В открытом доступе появился техрепорт собственного семейства моделей Яндекса — Alice AI.

Что изменилось:

⭐️ VLM- и LLM-«Алисы» сближаются все сильнее, поскольку компания делает большую ставку на мультимодальность. Например, VLM-модель уже использует RL-подход текстовой «сестрёнки». Промпт на входе в Alice AI ART обрабатывается в специальном «рефразере», который помогает сделать описание более детальным. Также увеличен контекст и объем данных претрейна в VLM.

⭐️ Много технических подробностей о работе Alice AI LLM Search, которая теперь приносит в ответе не только текст, но и изображения, видео и геоданные.

⭐️ На инфраструктуре видим прирост по скорости за счет мелких аджастов — увеличение эффективного батча на претрейне, внедрение Ulysses attention, снижение объема кэша на инференсе и еще много изменений. В целом сняты ключевые ограничения для тренировки MoE-модели на сотни миллиардов параметров.

@ai_machinelearning_big_data

#vlm #llm #ml #ai

Читать полностью…

Machinelearning

✔️ Марк Цукерберг сворачивает стратегию Open Source.

Компания радикально меняет вектор развития ИИ, отказываясь от идеологии открытости в пользу закрытых коммерческих продуктов. По данным источников, уже весной будет выпущена проприетарная модель Avocado, которая будет распространяться по закрытой лицензии для прямой монетизации.

Причиной резкого разворота стала неудача с Llama 4, которая не оправдала ожиданий руководства. Любопытно, что в процессе обучения Avocado использовались ответы моделей конкурентов: Google Gemma, GPT-OSS и Qwen.
bloomberg.com

✔️ Nvidia разработала механизм проверки геолокации своих чипов.

Компания создала ПО, которое определяет страну, где физически работают её ИИ-ускорители. Технология опирается на анализ сетевых задержек при обмене данными с серверами Nvidia, что позволяет установить геолокацию оборудования с точностью, достаточной для выявления нарушений санкционного режима.

Первыми поддержку новой функции получат системы на Blackwell. Инженеры также изучают варианты внедрения технологии для предыдущих поколений Hopper и Ampere. Nvidia позиционирует этот инструмент как опциональное ПО для инвентаризации и мониторинга состояния GPU-флота в дата-центрах, но фактически он отвечает на требования властей США о противодействию контрабанды железа в Китай.
reuters.com

✔️ Cursor получил режим Debug Mode.

Debug Mode — это новый агентный сценарий для борьбы с ошибками, которые обычно ставят языковые модели в тупик. Фишка инструмента в том, что он не пытается угадать решение, а действует методично: сначала выдвигает несколько гипотез о причинах сбоя, а затем временно внедряет в код инструкции для сбора runtime-логов.

Процесс отладки полностью интерактивен. После того как агент расставит «ловушки» в коде, разработчик должен воспроизвести ошибку в запущенном приложении. Получив реальные данные, Cursor локализует проблему и предлагает конкретный фикс без переписывания сотен строк кода. Если исправление работает, система автоматически вычищает весь черновой код, оставляя в проекте только финальный патч.
cursor.com

✔️ Microsoft превратила Copilot в автономного агента для автоматизации работы в Excel.

Microsoft открыла общий доступ к режиму Agent Mode в веб-версии Excel. Это обновление меняет взаимодействие с ИИ: Copilot теперь выполняет роль агента, способного самостоятельно выполнять многоступенчатые сценарии внутри книги.

В новом режиме агент может создавать таблицы с нуля, используя данные из веба, проводить сценарное моделирование «что - если», исправлять сложные формулы и строить сводные таблицы. Система показывает цепочку рассуждений и каждый шаг выполнения задачи.

Инструмент доступен подписчикам Microsoft 365 в веб-интерфейсе, а поддержка десктопных версий для Windows и Mac появится в январе.
techcommunity.microsoft.com

✔️ Adobe интегрировала Photoshop и Acrobat в интерфейс ChatGPT.

Компания запустила специализированные ИИ-агенты для редактирования медиафайлов и документов прямо в чат-боте. Новые инструменты поддерживают конкретные сценарии работы: Photoshop внутри чата умеет ретушировать области снимков и управлять контрастом и экспозицией. Acrobat - конвертировать, сжимать, объединять PDF-файлы и извлекать из них таблицы. Adobe Express используется для генерации и правки макетов.

Если возможностей чат-бота окажется недостаточно, проект можно бесшовно перенести в десктопный софт Adobe. Решение уже доступно в веб-версии, на десктопах и iOS. Функциональность предоставляется бесплатно: для активации достаточно загрузить файл и ввести текстовую команду с упоминанием нужного сервиса, например, «Adobe Photoshop, убери фон на этом изображении».
theverge.com


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

✔️ Релиз GLM-4.6V с нативной поддержкой вызова функций.

В линейку вошли флагманская GLM-4.6V на 106 млрд. параметров и облегченная GLM-4.6V-Flash (9B). Обе получили контекстное окно в 128k токенов и генерацию смешанного контента, где текст комбинируется с изображениями. Модель может передавать изображения и скриншоты во внешние инструменты без предварительной конвертации в текст, а также встраивать визуальные результаты обратно в цепочку рассуждений.

Обе модели уже на HuggingFace, доступны по API и в веб-версии.
z.ai

✔️ Стартап из шести человек обошел Google Gemini 3 в тесте на логику ARC-AGI.

Команда Poetiq заняла 1 место в полузакрытом бенчмарке ARC-AGI-2, набрав 54% правильных решений. Это позволило стартапу уверенно опередить гиганта индустрии: ранее Google отчитывалась о результате в 45% для Gemini 3 Deep Think.

ARC-AGI, разработанный исследователем Франсуа Шолле, считается одним из самых трудных испытаний для ИИ. Тест проверяет не просто знания, а способность к абстрактному мышлению и решению принципиально новых задач.

Успех Poetiq обеспечен не обучением новой модели, а эффективной оркестрацией уже существующих.
poetiq.ai

✔️ Соавтор архитектуры Transformer выпустил модель для кодинга Rnj-1.

Стартап Essential AI, основанный Ашишем Васвани, представил модель с открытыми весами Rnj-1. При размере всего в 8 млрд. параметров, она демонстрирует топовые результаты в SWE-bench Verified. Rnj-1 набрала 20,8 балла, тогда как аналогичная по размеру Qwen 3 (8B) достигла лишь отметки в 4,5.

В основе новинки лежит архитектура Gemma 3. Разработчики намеренно отказались от упора на пост-трейн и RL. Вместо этого, команда сфокусировалась на качественном предобучении с использованием оптимизатора Muon. Веса базовой и instrust-версии доступны на HF.
essential.ai

✔️ NVIDIA представила крупнейшее обновление CUDA с 2006 года.

Вместе с релизом CUDA 13.1 компания запускает виртуальный набор инструкций для "тайлового" параллельного программирования. Новая парадигма абстрагирует низкоуровневые детали железа, позволяя писать алгоритмы более высокого уровня. CUDA Tile дает возможность оперировать блоками данных, автоматически оптимизируя выполнение под конкретные тензорные ядра и архитектуру памяти.

Фундаментом технологии стал CUDA Tile IR - промежуточное представление, аналогичное PTX, но заточенное под матричные операции. Это обеспечивает кросс-платформенность: написанный код будет эффективно работать на разных поколениях GPU без глубокого рефакторинга.
developer.nvidia.com

✔️ Grok 4.20 обыграл топовые модели в биржевой торговле.

Завершилось соревнование Alpha Arena Season 1.5, где участникам давали по $10 тыс. для автоматической торговли акциями США в течение двух недель. Grok 4.20 не только вышел в плюс, заработав $4 844 (общая доходность 12%), но и существенно опередил конкурентов.

GPT 5.1, Gemini 3.0 Pro и Claude Sonnet 4.5 завершили тот же период с отрицательными результатами. В режиме "осведомленности" Grok показал доходность около 50%. Эксперты полагают, что решающим фактором стал прямой доступ модели к данным платформы X. Анализ постов в реальном времени позволил алгоритму точнее оценивать рыночные настроения и тренды.
nof1.ai

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

🤖 Роботы GITAI самостоятельно и собрали 5-метровую конструкцию - фундамент будущих внеземных модулей.

Это пример того, как связка ИИ + робототехника начинает давать тот самый технологический скачок, на который долго рассчитывали: автономные системы, способные строить инфраструктуру без участия человека, открывают путь к базам на Луне, Марсе и орбите.


@ai_machinelearning_big_data

#robotics #AI #automation #spacetech #GITAI

Читать полностью…

Machinelearning

Когда многие решили, что видео с T800 - это CGI, CEO EngineAI Чжао Тонъян вышел на ринг и лично принял удар ногой от робота🦶

Никакой графики, всё настоящее. 📷

@ai_machinelearning_big_data

#ai #robots

Читать полностью…

Machinelearning

⚡️ ChatGPT 5.2 "Code Red" выйдет 9 декабря.

The Verge пишет, что по информации инсайдеров, OpenAI планирует представить обновление уже в начале следующей недели, ориентировочно 9 декабря.

Ожидается, что GPT-5.2 вернет компании доминирующие позиции в сегменте больших языковых моделей.


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

OpenAI: «GPT-5 положит конец всей путанице с названиями.»

OpenAI спустя секунду ☝️

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

Представьте, что вы проснулись в недалёком будущем. Как бигтех работает с контентом?

Мультимодальные и рекомендательные системы нового поколения — это то, что уже сейчас определяет мир, в котором мы скоро будем жить.

Сотрудники VK рассказали, над чем работает их группа R&D и другие команды. Заходите по ссылке — смотрите ролики и знакомьтесь с нашей внутренней кухней.

Читать полностью…

Machinelearning

🌟 Trinity Nano и Trinity Mini: ответ американских разработчиков на китайское доминирование.

В последний год любой, кто следит за развитием моделей с открытыми весами знает - Китай недостижим.

Qwen и DeepSeek фактически задали стандарт того, как должна выглядеть современная архитектура MoE. В США же большинство компаний занимались лишь доработкой чужих чекпоинтов.

И вот, американская компания Arcee AI собралась Make America Great Again вернуть инициативу и создать семейство открытых моделей, обученных "от и до" в США, весами которых бизнес может владеть по-настоящему.

Компания столкнулась с тем, что корпоративным клиентам нужна "юрисдикционная безопасность" . Специалистов по комплаенсу уже не устраивает ответ "мы дообучили модель неизвестного происхождения". Им нужен полный контроль над пайплайном данных.

Семейство моделей Arcee AI получило имя Trinity. Пока в превью-релиз вошли 2 конфигурации:

🟢Trinity Mini — это обычная ризонинг-модель на 26 млрд. общих и 3 млрд активных параметров, обученная с нуля.

🟢Trinity Nano Preview — это модель чата. Она создана, чтобы быть харизматичной и интересной в общении несмотря на свои скромные 6 млрд. общих и 1 млрд. активных параметров.

И пока мы тестируем Nano и Mini, Arcee AI тренирует флагмана Trinity Large.

Его релиз запланирован на январь 2026 года. Это будет модель на 420 млрд. параметров, из которых 13 млрд. будут активны.

Обе доступные модели, Trinity Nano и Trinity Mini выпущены под лицензией Apache 2.0. Они опубликованы на Hugging Face и поддерживаются llama.cpp, LM Studio и vLLM.

Mini также доступна через OpenRouter по очень привлекательной цене - около 4,5 центов за 1 млн. токенов.


📌Лицензирование: Apache 2.0 License.


🟡Статья
🟡Набор моделей
🟡Demo Trinity Mini


@ai_machinelearning_big_data

#AI #ML #MoE #Trinity #ArceeAi

Читать полностью…

Machinelearning

🤖 Tesla Optimus: прогресс за 2.5 года

@ai_machinelearning_big_data

Читать полностью…

Machinelearning

⚡️ Как Яндекс внедрил LLM в QA и что из этого получилось

На Хабре вышел подробный разбор о том, как Яндекс внедряет LLM в процессы тестирования. Из интересного: генерация чек-листов и тест-кейсов, создание автотестов, первые шаги в сторону ИИ-агентов для ручного тестирования.

Разобрали и технические сложности: интеграции с TMS, единые MCP-коннекторы, LLM-As-A-Judge и работу с «зоопарком» инструментов. В статье много схем и цифр, включая рост скорости написания автотестов на ~30%.

@ai_machinelearning_big_data

#ai #LLM

Читать полностью…

Machinelearning

Закрытая питч-сессия фонда «Восход» для ИИ-стартапов

Фонд «Восход» активно ищет новые проекты для инвестиций в области ИИ и проводит закрытую питч-сессию, чтобы отсмотреть как можно больше РФ-компаний этого профиля.

📅Отбор состоится 15 января 2026 года онлайн

Приоритетные направлени
я
Посмотрят все заявки в рамках темы, но фокус будет на следующих нишах:

📌Вертикальные ИИ-решения
📌Инфраструктура и инструменты для разработки ИИ
📌Инструменты для работы с данными для ИИ
📌Корпоративные ИИ-приложения и копайлоты

📌Другое

Подробную разбивку тем в каждой из ниш можно изучить в канале «Восхода».

Требования к проектам:
- необходимо наличие MVP и воронки клиентов (стадии late seed, A и старше);
- инкорпорирование в РФ;
- сформированная опытная команда.

Инвестиции
Фонд вкладывает от нескольких десятков миллионов рублей до 1 млрд руб в один проект. Проекты, которые заинтересуют фонд, будут включены в пайплайн для дальнейшей работы. Другие получат сразу обратную связь.

🔥Приглашенный эксперт отбора – глава направления ИИ в Т-банке Виктор Тарнавский.

О фонде
«Восход» инвестирует в российские быстрорастущие технологические компании на стадиях от seed до pre-IPO. Якорный инвестор — группа «Интеррос», объем фонда — 18 млрд руб. В портфеле 40 компаний.

❗️Чтобы принять участие, присылайте питч-деки в pdf до 30 декабря 19.00 на info_vld@voskhod.vc с пометкой "Проект на AI"

Реклама: АО «Аркадия» ИНН: 7808004270 erid:2Vtzqv87ERQ

Читать полностью…

Machinelearning

🖥 XiYan-SQL - инструмент для интерактивной работы с SQL

XiYan-SQL - это open-source решение, позволяющее генерировать, анализировать и выполнять SQL-запросы с использованием больших языковых моделей. Инструмент ориентирован на ускорение исследования данных и автоматизацию рутинных операций, связанных с запросами к базе.

Ключевые возможности:
- Генерация SQL из естественного языка -пользователь формулирует задачу обычными словами, а система преобразует её в корректный SQL-запрос.
- Интерактивная работа с базой данных - запросы можно оперативно уточнять, редактировать и выполнять, получая быстрый цикл обратной связи.
- Поддержка нескольких СУБД - PostgreSQL, MySQL, SQLite и другие.
- 🛠️ Минимальная конфигурация - подходит для анализа данных, прототипирования и облегчения доступа к базе без сложной инфраструктуры.


🔗 Репозиторий: github.com/XGenerationLab/XiYan-SQL

@ai_machinelearning_big_data


#sql #llm #ai #opensource #database #datatools #postgresql

Читать полностью…

Machinelearning

🌟 OMC25: датасет для вычислительной химии.

ОMC25 - крупнейший набор данных по молекулярным кристаллам, рассчитанный методом теории функционала плотности (DFT) в пакете VASP.

В основе датасета лежат структуры, полученные из траекторий релаксации молекулярных кристаллов. Сами исходные кристаллы были сгенерированы с помощью инструмента Genarris 3.0, который, в свою очередь, использовал молекулы из известного набора OE62. Это обеспечивает преемственность данных и четкую привязку к проверенным химическим структурам, но масштаб здесь совершенно иной.

Тренировочная часть содержит почти 25 млн. фреймов. Это данные по 207 тыс. кристаллов, которые, в свою очередь, произошли от 44 тыс. уникальных молекул.

Валидационная часть меньше, но тоже весовая: около 1,4 миллиона кадров. Данные упакованы в формате ase-db как объекты LMDBDatabase, что является стандартом в задачах машинного обучения для химии.

Исходные кристаллы были созданы программой Genarris 3.0. Она, в свою очередь, использовала молекулы из популярного набора OE62. Так что у данных есть четкая привязка к проверенным химическим структурам.

Работа с данными сета происходит через библиотеку fairchem. Каждая структура хранится как объект ASE Atoms, что привычно для инженеров, работающих с атомистическим моделированием.

Ключевые метки для обучения моделей включают полную энергию DFT, силы, действующие на атомы, и тензор напряжений . Это "каноническая троица" для обучения межатомных потенциалов. Помимо физических величин, в атрибуте atoms.info зашиты критически важные метаданные.

Помимо самого набора, авторы выложили базовый чекпоинт eSEN-S, обученный на всём OMC25.


📌Лицензирование : CC-BY-4.0 License


🟡Датасет
🟡Модель
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #Dataset #FAIR #Chemistry

Читать полностью…

Machinelearning

✔️ GPT-5.2 Pro преодолела барьер в 90% на ARC-AGI-1.

ARC Prize зафиксировали рекорд GPT-5.2 Pro (X-High). Модель достигла точности 90,5% при стоимости вычислений $11,64 за задачу. Тесты ARC-AGI - это уникальные задачи, требующие навыков обобщения и логики, что исключает возможность запоминания паттернов из обучающей выборки.

Несмотря на успех, экономика процесса пока отстает от идеала. Стоимость решения одной задачи все еще в 58 раз превышает целевой показатель бенчмарка ($0,20), а до человеческого уровня (100% точности) сохраняется разрыв. На более сложном наборе ARC-AGI-2 модель показала результат 54,2%.
ARC Prize в сети Х

✔️ Стандарт RSL 1.0 официально утвержден.

Спецификация Really Simple Licensing (RSL), позволяющая издателям диктовать условия лицензирования для ИИ-краулеров, получила статус официального стандарта. Технически, это расширение файла robots.txt, которое дает возможность указывать правила компенсации за парсинг контента.

RSL получил поддержку со стороны гигантов: стандарт внедрили Cloudflare, Akamai и Fastly. Это превращает RSL из простой декларации в рабочий механизм — провайдеры смогут блокировать на уровне CDN тех ботов, которые игнорируют условия лицензии.

Еще одна важная особенность версии 1.0 — гранулярный контроль видимости. Теперь ресурсы могут запретить использование своих материалов в генеративных ответах, сохраняя при этом позиции в классической поисковой выдаче.
rslstandard.org

✔️ Disney и OpenAI заключили партнерство.

Компании объявили о соглашении, которое меняет правила игры в сфере авторского права в ИИ. Начиная со следующего года, Sora сможет официально использовать образы Микки Мауса, Йоды и других героев студии. В рамках сделки Disney получает долю в OpenAI размером в $1 млрд, а ее инженеры - приоритетный доступ к API ChatGPT для внутренних разработок.

Для Disney, известной своей жесткой позицией по защите авторских прав это стратегический разворот. Вместо безуспешных попыток полностью запретить генерацию своих персонажей, корпорация решила возглавить процесс и монетизировать его.

Стороны обещают внедрить жесткие фильтры безопасности, а на Disney+ появится раздел с фанатскими видео, созданными в Sora.
openai.com

✔️ Google обновила модели Gemini TTS.

DeepMind представила апдейт для моделей синтеза речи Gemini Flash TTS и Pro TTS, заменяющий майские версии этого года. Разделение по задачам осталось прежним: Flash для real-time приложений, а Pro - для максимального качества.

Теперь модели жестче придерживаются системных промптов, задающих тон, настроение и ролевую модель спикера. Добавили контекстно-зависимое управление темпом: алгоритм автоматически замедляет речь на плотной информации и ускоряется там, где это уместно, либо строго следует явно заданным таймингам.

Также инженеры стабилизировали работу мульти-спикерных диалогов: голоса собеседников больше не «плывут» и остаются четко различимыми.
blog.google

✔️ Microsoft проанализировала, как люди используют Copilot.

Компания опубликовала исследование об эволюции взаимодействия с ИИ-ассистентом за последний год. Данные показывают смену аудитории: если в январе среди запросов доминировало программирование, то к концу года вектор сместился в сторону социальных тем. Это подтверждает выход технологии в мейнстрим - пользователи всё чаще видят в ИИ не просто умный поиск, а полноценного советчика.

Отчет также подсвечивает зависимость запросов от контекста. Мобильные устройства закрепили за собой роль карманных консультантов по здоровью и психологии. Время суток тоже влияет на содержание: глубокой ночью растет доля философских и экзистенциальных бесед.

Для разработчиков эти метрики важны: следующее поколение ассистентов должно уметь адаптироваться не только под текст запроса, но и под устройство и время обращения.
microsoft.ai

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

Расскажем, как создать умных AI‑агентов, работая с MCP 🌨

17 декабря на вебинаре покажем, как создать полезных AI-агентов, которые не просто «думают», а реально работают - получают актуальные данные и принимают решения в режиме реального времени.

Ещё недавно разработчики AI‑агентов писали кастомные интеграции с внешними источниками данных и сервисами. Теперь появился способ подружить нейросети со всеми API всего за пару кликов!

Ключевые темы вебинара:

♦️эволюция агентов и роль MCP;
♦️обзор MCP — как разрабатывать умных ИИ-агентов;
♦️особенности MCP в Enterprise;
♦️свой MCP-сервер за пару шагов в Octapi.


Регистрация доступна по ссылке, ждём вас ↗️

Читать полностью…

Machinelearning

🚀 Вышло крупное обновление Qwen3-Omni-Flash (версия 2025-12-01)

Что изменилось:

🎙️ Модель намного лучше ведёт разговоры с голосом и видео - общение звучит естественно и непрерывно
✨ Теперь можно задавать характер ИИ через system prompts, например, стиль общения или роль
🗣️ Улучшена поддержка языков: 119 письменных и 19 голосовых
😊 Голоса звучат почти как настоящие люди

Где попробовать:

🎙️ В Qwen Chat - нажмите VoiceChat или VideoChat (правый нижний угол): http://chat.qwen.ai
📝 Подробности в блоге: https://qwen.ai/blog?id=qwen3-omni-20251201
🎧 Онлайн-демо: http://hf.co/spaces/Qwen/Qwen3-Omni-Demo
🎧 Второе демо: http://modelscope.cn/studios/Qwen/Qwen3-Omni-Demo
⚡ Realtime API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-realtime-2025-12-01
📥 Offline API: https://modelstudio.console.alibabacloud.com/?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3-omni-flash-2025-12-01

@ai_machinelearning_big_data


#Qwen #llm #ml

Читать полностью…

Machinelearning

📌Адвент-календарь по ML и DL.

Towardsdatascience запустил декабрьский Адвент-календарь "Machine and Deep Learning", котором предлагает разобраться, что под капотом у ML-процессов.

Фреймворки, например scikit-learn, сделали нас ленивыми. Вызов model.fit стал настолько обыденным, что в эпоху Gen AI кажется, будто обучение модели -это просто подбор параметров.

ML-инженеры жонглируют моделями со сложностью, которая растет в геометрической прогрессии, но при этом они не всегда способны вручную пересчитать и объяснить результаты даже самых простых алгоритмов: линейной регрессии или классификатора.

Модели превратились в "черные ящики", и это огромная проблема, ведь знание, что стоит за каждой функцией, критически важно для понимания процесса.


Фишка в том, что весь материал разбирается в Excel. Звучит диковато, но в этом и есть гений. В отличие от кода, где операции скрыты за функциями, в Excel каждая формула, каждое число, каждый расчет - всё на виду. Никаких "черных ящиков".

Уже вышло 7 статей:

🟢День 1 : k-NN Regressor

🟢День 2 : k-NN Classifier

🟢День 4 : GNB, LDA и QDA

🟢День 5 : GMM (Gaussian Mixture Model)

🟢День 6 : Decision Tree Regressor

🟢День 7 : Decision Tree Classifier

Цикл поможет ответить на вопросы, которые часто остаются за кадром: как грамотно обрабатывать категориальные признаки, когда масштабирование не является правильным решением, и как измерять важность признаков, интерпретируя их напрямую с моделью, минуя модель-агностические пакеты LIME и SHAP.

Серия будет полезна студентам для осмысления формул, и менеджерам для понимания какой ML-метод необходим для бизнеса. А для разработчиков это шанс наконец-то понять теорию.

В общем, это маст-рид для тех, кто хочет перестать быть оператором библиотек и по-настоящему понять, как работает ML-движок.

🔜 Мониторить выход новых статей можно тут, обещают публикацию до конца декабря в формате "один день - одна статья".



@ai_machinelearning_big_data

#AI #ML #DL #Tutorial #Excel

Читать полностью…

Machinelearning

❗️Быстрее! В OTUS начинается обучение на курсе «Компьютерное зрение. Advanced»
❓Что узнаете во время обучения?

●Основы и инструменты
Docker, PyTorch, OpenCV, Kornia, Hugging Face, OCR

●Нейронные сети и глубокое обучение
CNN: от AlexNet до EfficientNet, оптимизаторы: Adam, SAM, трансформеры: ViT, CLIP, Self-Supervised Learning: SimCLR, DINO

●Стандартные задачи CV
Детекция: R-CNN, YOLO, сегментация: U-Net, 3D, Face Recognition: ArcFace, трекинг: DeepSORT

●Генеративные модели
VAE, GAN, диффузионные модели: Stable Diffusion, ControlNet, генерация видео

●Продвинутые методы
Zero-Shot Learning: SAM, стереозрение, 3D-реконструкция: NeRF, SLAM, распознавание действий

●Проектная работа
Детекция, трекинг, генерация - с защитой проекта

🎁Бонусные занятия
Основы CNN, аугментация данных, градиентный спуск, регуляризация

🎓 4 месяца | 110 ч
⏰Старт группы: 24 декабря

🎁Познакомьтесь с программой курса и преподавателями на бесплатных вебинарах — регистрация на сайте.

Оставить заявку ➡️ OTUS.RU

#реклама
О рекламодателе

Читать полностью…

Machinelearning

Когда многие решили, что видео с T800 - это CGI, CEO EngineAI Чжао Тонъян вышел на ринг и лично принял удар ногой от робота🦶

Никакой графики, всё настоящее. 📷

@ai_machinelearning_big_data

#ai #robots

Читать полностью…

Machinelearning

Вчера на конференции облачного провайдера Cloud․ru про внедрение AI-инструментов в процесс разработки, показали коллекцию одежды, посвещенную релизу новой платформы для работы с GenAI — AI Factory. Лимитку создали совместно с брендом .Solutions.
Эта коллекция — не случайный мерч, а продуманная метафора: она визуализирует, как данные, идеи и цифровые процессы эволюционируют в реальные продукты, создаваемые пользователями на базе AI Factory.

Хорошая новость — вещи из коллекции можно выиграть. Участвуйте в розыгрыше в телеграм-канале Cloud․ru: /channel/cloudruprovider/1259

Читать полностью…

Machinelearning

✔️ Дарио Амодей: Anthropic не объявляет «красных кодов» в ответ на релизы.

Пока Сэм Альтман переводит OpenAI в режим «code red» после выхода Gemini 3, Anthropic демонстративно отказывается от паники. На саммите NYT Dealbook, CEO компании? Дарио Амодей заявил, что им не нужно реагировать на каждый шаг конкурентов авралами, так как у Anthropic принципиально иной вектор развития.

Вместо гонки за вниманием и метриками вовлеченности, Anthropic глубоко фокусируется на корпоративном сегменте. Дарио говорит, что их приоритет - высокая интеллектуальная деятельность: генерация чистого кода, научные исследования и сложная аналитика. Он также скептически оценил огромные бюджеты техногигантов, назвав их финансовую политику «YOLO-стратегией».
businessinsider.com

✔️ Anthropic выложила датасет из 1250 диалогов.

Проект Anthropic Interviewer - инструмент для автоматизации социологических исследований. Он позволяет проводить глубокие интервью в промышленных масштабах, делегируя роль интервьюера ИИ.

Компания опубликовала результаты первого масштабного эксперимента: массив из 1250 транскриптов бесед. В выборку попали представители массовых профессий, ученые и работники креативных индустрий. ИИ выяснял, как специалисты реально интегрируют нейросети в свои рабочие процессы и как оценивают карьерные риски. Датасет доступен на HuggingFace под лицензией CC-BY.
anthropic.com

✔️ Google запустила no-code платформу создания ИИ-агентов.

Google представила инструмент Workspace Studio для упрощения автоматизации в корпоративных средах. Платформа, построенная на Gemini 3, позволяет создавать кастомных ИИ-агентов без написания кода всего за несколько минут.

Инструмент получил глубокую интеграцию в экосистему Google: созданные помощники работают непосредственно внутри Gmail, Drive и Chat, беря на себя рутину: обработка почты, управление расписанием или анализ документов. Заявлена возможность подключения внешних систем - Asana, Jira, Mailchimp и Salesforce. Доступ к студии уже открыт для бизнес- и энтерпрайз-подписчиков.
workspace.google.com

✔️ Perplexity открыла модель BrowseSafe для защиты ИИ-браузеров от промпт-инъекций.

BrowseSafe - решение для обеспечения безопасности агентного веба. Инструмент защищает ИИ-ассистентов от вредоносных инструкций, которые злоумышленники скрывают в структуре веб-страниц.

Угроза заключается в способности агентов считывать весь HTML-код, включая невидимые пользователю элементы (комментарии, скрытые поля и мета-теги). Хакеры могут внедрять туда команды, перехватывающие управление моделью. BrowseSafe выступает в роли легковесного детектора: он сканирует контент в реальном времени и блокирует подозрительные инструкции до того, как они попадут в контекст основной LLM.

В релиз также вошел бенчмарк BrowseSafe-Bench, содержащий более 14 тысяч сценариев атак для тестирования надежности систем.
perplexity.ai

✔️ OpenAI проиграла спор о конфиденциальности.

Суд Манхэттена постановил, что компания должна передать The New York Times и другим новостным изданиям массив анонимизированных переписок пользователей. Это решение принято в рамках громкого процесса об авторских правах: истцы утверждают, что модели OpenAI незаконно обучались на их контенте.

Судья отклонила аргументы OpenAI о рисках для приватности, посчитав меры по обезличиванию данных достаточными. Доступ к логам важен для истцов: они намерены доказать, что ChatGPT способен дословно воспроизводить защищенные авторским правом статьи. OpenAI уже подала апелляцию, называя требование нарушением стандартов безопасности, но по текущему решению обязана подготовить данные в течение 7 дней.
reuters.com

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.

Вот что в нём разбирается:

1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.

2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.

3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.

Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.

https://arxiv.org/abs/2511.18538

@data_analysis_ml

Читать полностью…

Machinelearning

Объединение модальностей и развитие голосовых end-to-end моделей

На прошлой неделе Яндекс провёл Data Dojo — традиционную встречу ML-сообщества для тех, кто хочет расти и делиться личным опытом с другими.

Собрал для вас самое интересное с выступления Сергея Овчаренко, руководителя отдела мультимодального анализа и генерации. Он подвел предварительные итоги года и обсудил значимые тренды в ML:

— В будущем будут активно развиваться голосовые агенты. Причем фокус будет не на каскадные модели, где новый этап начинается только после полного завершения предыдущего, а на более комплексный end-to-end подход.

— VLM становятся больше и лучше. Например, у Qwen в этом году было 3 релиза. При этом всё активнее будет развиваться VLA-направление (модель, которая занимается высокоуровневым планированием).

— Рынок постепенно двигается к созданию omni-моделей, которые способны одновременно обрабатывать, понимать и генерировать контент в рамках нескольких объединенных модальностей.

Больше подробностей — в записи трансляции (VK, Youtube). Там же можно послушать доклад от руководителя команды голосовой активации Дмитрия Солодуха о том, как Алису научили слышать голосовые команды в условиях шума. А еще узнать, как готовили задачи ML-квалификации для Yandex Cup от Сергея Фиронова, ведущего разработчика службы поведения и предсказания департамента Автономного транспорта.

Читать полностью…

Machinelearning

Финальная ИИшница этого года пройдет 4 декабря ⤵️

Делимся расписанием онлайн-встречи, на которой исследователи AIRI расскажут про статьи, которые были приняты на NeurIPS 2025.

◼️14:00 Дмитрий Жемчужников cadrille: Multi-modal CAD Reconstruction with Online Reinforcement Learning

◼️14:20 Назар Бузун HOTA: Hamiltonian framework for Optimal Transport Advection

◼️14:40 Александр Коротин Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization

◼️15:00 Максим Бобрин Zero-Shot Adaptation of Behavioral Foundation Models to Unseen Dynamics

◼️15:20 Никита Качаев Memory, Benchmark & Robots: A Benchmark for Solving Complex Tasks with Reinforcement Learning

◼️15:40 Антон Корзников OrtSAE: Orthogonal Sparse Autoencoders Uncover Atomic Features

◼️16:00 Матвей Михальчук Inverting Black-Box Face Recognition Systems via Zero-Order Optimization in Eigenface Space

◼️16:20 Михаил Гончаров Screener: Self-supervised Pathology Segmentation Model for 3D Medical Images

◼️16:40 Артём Важенцев Uncertainty-Aware Attention Heads: Efficient Unsupervised Uncertainty Quantification for LLMs

◼️17:00 Даниил Сухоруков Block-wise distillation for lightweight weather models

◼️17:20 Илья Макаров Evaluating Generalization Capabilities of LLM-Based Agents in Mixed-Motive Scenarios Using Concordia

◼️17:40 Никита Гущин Diffusion & Adversarial Schrödinger Bridges via Iterative Proportional Markovian Fitting

◼️18:00 Егор Черепанов Recurrent Action Transformer with Memory

◼️18:20 Евгений Бурнаев Listening to the Wise Few: Query–Key Alignment Unlocks Latent Correct Answers in Large Language Models

◼️18:40 Андрей Шевцов A Benchmark for Arbitrary Geometric Preservation in Protein Generation

Ведущий ИИшницы — Артур Кадурин, AIRI.

YouTube | ВК

До встречи!

Читать полностью…

Machinelearning

✔️ Anthropic покупает создателей скоростного JavaScript-рантайма.

Компания объявила о приобретении Bun — популярного инструментария для запуска и сборки JavaScript-приложений. Технологии и команда стартапа станут фундаментом для дальнейшего масштабирования платформы Claude Code.

Bun, основанный Джаредом Самнером в 2021 году, завоевал популярность как экстремально быстрая альтернатива Node.js, объединяющая в себе рантайм, пакетный менеджер, бандлер и тестовый раннер.

Bun останется опенсорсным проектом под лицензией MIT. Anthropic обещает продолжить инвестировать в инструмент, сохраняя его статус независимого и универсального решения для JS/TS-экосистемы.
anthropic.com

✔️ AWS представила 3-нм чипы Trainium3 и серверы UltraServer.

Это третье поколение тензорных процессоров Amazon. Trainium3, изготовленный по 3-нм техпроцессу, показывает буст по производительности до 4.4x и энергоэффективности в 4 раза по сравнению с Trainium 2. Архитектура чипа поддерживает новые форматы данных MXFP8 и MXFP4.

UltraServer - это вычислительный узел, объединяющий 144 чипа с общим объемом памяти 20.7 ТБ HBM3e и агрегированной пропускной способностью 706 ТБ/с. Такие серверы можно объединять в кластеры EC2 UltraClusters масштабом более 1 млн. чипов.

Также AWS потизерила будущий Trainium 4: следующее поколение чипов получит совместимость с GPU NVIDIA через шину NVLink Fusion.
aws.amazon.com

✔️ vLLM-Omni: расширение экосистемы vLLM.

Команда vLLM анонсировала релиз vLLM-Omni, расширения, созданного для адаптации инфраструктуры под omni-модели, которые могут бесшовно работать с текстом, изображениями, видео и аудио в рамках одного процесса.

Архитектура vLLM-Omni предлагает полностью переработанный поток данных. Система использует дезагрегированный пайплайн, объединяющий 3 этапа: мультимодальные энкодеры, логическое ядро на базе vLLM и генераторы.

vLLM-Omni может эффективно оркестрировать сложные гетерогенные рабочие процессы и параллельно выполнять вычисления. Фреймворк сохраняет простоту внедрения, поддерживая полную совместимость с OpenAI API и Hugging Face.
blog.vllm.ai

✔️ SGLang получил поддержку NVIDIA Model Optimizer.

Важное обновление SGLang, которое кардинально упрощает работу ML-инженеров, позволяя проводить квантование и деплой моделей внутри одной экосистемы без использования сторонних утилит и сложных пайплайнов.

Теперь разработчики могут напрямую через API конвертировать модели в форматы NVFP4, MXFP4, FP8 и сразу запускать их в продакшн. Тесты на архитектуре NVIDIA Blackwell показали, что использование квантования NVFP4 через SGLang удваивает пропускную способность по сравнению с базовым FP8.
lmsys.org

✔️ Artificial Analysis запустила индекс открытости ИИ-моделей.

Openness Index — новый стандарт оценки ИИ, который отделяет настоящий опен-сорс от моделей, которые лишь притворяются открытыми. Рейтинг анализирует проекты по 2 направлениям: доступность весов и прозрачность процесса разработки (методология и датасеты для пре- и пост-трейна).

Верхние строчки рейтинга заняли китайские разработки. Среди коммерческих решений хороший результат показала Nemotron Nano 9B v2 (67 баллов), а вот полностью закрытые проприетарные модели ожидаемо остались на дне рейтинга с оценками в 1–5 баллов. Лидером списка стала модель OLMo с показателем 89.

Индекс наглядно подсвечивает проблему термина «open weights»: модели, публикующие только веса без контекста, теряют баллы на прозрачности.
Artificial Analysis в сети Х

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…
Subscribe to a channel