ai_machinelearning_big_data | Technologies

Telegram-канал ai_machinelearning_big_data - Machinelearning

359493

Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml

Subscribe to a channel

Machinelearning

✔️ ElevenLabs Scribe v2 Realtime: STT-модель с задержкой менее 150 мс.

ElevenLabs представила Scribe v2 Realtime, новую модель Speech-to-Text, разработанную для задач, требующих минимальной задержки: голосовых агентов, ассистентов для совещаний и создания субтитров в реальном времени. Система обрабатывает речь с задержкой менее 150 мс, поддерживает более 90 языков и демонстрирует точность 93.5% по 30 популярным языкам. Особое внимание уделено работе с аудиозаписями, содержащими фоновый шум.

Фишкой модели стала «отрицательная задержка» - функция предсказывания следующего слова и знака препинания. Также есть автоматическое определение языка, обнаружение голоса и полный контроль над фиксацией сегментов транскрипции. Сервис готов к корпоративному использованию (SOC 2, GDPR) и уже доступен через API.
elevenlabs.io

✔️ Backboard установила рекорд в тесте долговременной памяти для ИИ.

Платформа для ИИ-агентов Backboard достигла рекордного показателя в 90.1% в бенчмарке LoCoMo, предназначенном для оценки долговременной диалоговой памяти. Это лучше предыдущих показателей популярных библиотек, которые находились в диапазоне 67–69%.

LoCoMo тестирует способность системы запоминать, обновлять и извлекать факты о пользователе и контекст диалога на протяжении многих сессий. Высокий балл означает, что ассистенты будут лучше следовать инструкциям, реже переспрашивать и требовать более коротких промптов, что снижает расход токенов.

Backboard предоставляет API для долгосрочной памяти, мультимодельный API для роутинга между 2200+ LLM и RAG-слой. Все результаты теста воспроизводимы - скрипты, логи и промпты опубликованы на GitHub.
backboard.io

✔️ Две трети топовых ИИ-компаний допустили утечку секретов на GitHub.

Компания по облачной безопасности Wiz обнаружила, что 65% компаний из списка Forbes AI 50 допустили утечку API-ключей, токенов и других учетных данных на GitHub. По словам исследователей, это могло привести к раскрытию приватных моделей, данных обучения или внутренней структуры организаций.

Чаще всего секреты находили в файлах Jupyter Notebook и Python-скриптах. Среди утечек были токены Hugging Face, Azure и W&B. В одном из случаев скомпрометированный токен Hugging Face мог открыть доступ к тысяче приватных моделей.

Wiz публично назвала только ElevenLabs и LangChain, отметив их быструю реакцию. При этом почти половина всех уведомлений об утечках, отправленных другим компаниям, осталась без ответа.
wiz.io

✔️ Cloudflare запустила поддержку Python в сервисе Workflows.

Cloudflare объявила о поддержке Python в своем сервисе Workflows, предназначенном для создания и управления многоэтапными процессами на платформе Workers. Раньше инструмент был доступен только для TypeScript.

Новшество открывает сервис для сообщества Python-разработчиков, специализирующихся на AI/ML и обработке данных. В качестве примеров использования компания приводит оркестрацию конвейеров данных, обучение ML-моделей и создание сложных ИИ-агентов, архитектура которых упрощается за счет встроенной обработке ошибок и сохранению состояния. Технически часть реализована через Pyodide — порт CPython в WebAssembly.
blog.cloudflare.com

✔️ OpenAI тратит на Sora около 15 млн. долларов в день.

По оценкам аналитиков, затраты на видеогенератор Sora обходятся OpenAI в $15 млн. в день, что в годовом выражении превышает $5 млрд. Расчеты основаны на стоимости генерации одного 10-секундного ролика, которая составляет для компании около $1.3, и предполагаемом объеме в 11 млн. видео ежедневно. Несмотря на убыточность, OpenAI, вероятно, следует классической стратегии захвата рынка, стремясь сначала сформировать аудиторию, а уже потом искать пути монетизации. Бесплатный доступ также насыщает компанию огромным количеством данных для дальнейшего обучения моделей.

Впрочем, Сэм Альтман уже подтвердил, что компания планирует сокращать объемы бесплатной генерации. По его словам, ни одна рекламная модель не сможет покрыть расходы на создание «забавных мемов для трех друзей».
forbes.com

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

💡 GPT-5 и Sudoku-Bench, почему новые модели всё ещё ломаются на судоку

Sakana AI представили Sudoku-Bench - набор классических и продвинутых судоку-задач, который проверяет не память модели, а её способность рассуждать, понимать новые правила и держать всю логику пазла в голове.

Они протестировали современные модели, включая GPT-5 и методы тонкой настройки вроде GRPO и thought-cloning.

Главное:
GPT-5 стала первой моделью, которая уверенно решает часть сложных задач и показала около 33 % успешных решений на наборе challenge_100. Ранее ни одна LLM не справлялась даже с обычным 9×9.
Но треть решённых - это всё ещё мало: большая часть задач остаётся нерешённой, особенно варианты с необычными правилами.

Ключевая трудность в том, что такие головоломки требуют не просто следовать правилам, а уметь понять незнакомые ограничения, найти стратегию «входа», просчитывать ходы вперёд и сохранять глобальную согласованность. Модели часто делают правильные локальные шаги, но теряют общую структуру.

GRPO и thought-cloning дают улучшения, но пока не позволяют моделям преодолеть сложные варианты. Даже с обучением на человеческих примерах ИИ быстро «запутывается» в длинных логических цепочках.

Sudoku-Bench - это тест на реальное рассуждение, а не на подбор паттернов. Он проверяет пространственное мышление, логику, способность адаптироваться и работать с новыми правилами. Прогресс на таких задачах - показатель движения к более структурному и осмысленному ИИ.

Авторы предлагают Sudoku-Bench как стандарт, по которому можно судить, насколько модели действительно умеют думать. Для будущих систем важны не просто большие параметры, а развитая логика, планирование и умение работать с новыми структурами задач.

@ai_machinelearning_big_data

#ai #ml #sakana

Читать полностью…

Machinelearning

✔️ Google выпустил новый 50-страничный документ о том, как создавать AI-агентов, которые реально работают в практических задачах

Это понятное и структурированное введение в основы агентных систем.

В гайде рассматриваются:
- архитектура агента и его основные компоненты
- роль LLM как «мозга» агента
- подключение и использование инструментов
- оркестрация нескольких агентов
- подходы к деплою и продакшн-интеграции
- метрики и способы оценки работы
- как создаются самообучающиеся и эволюционирующие агенты
- пример архитектуры AlphaEvolve

📌 Гайд: https://drive.google.com/file/d/1C-HvqgxM7dj4G2kCQLnuMXi1fTpXRdpx/view

@ai_machinelearning_big_data


#AI #Agents #Google #LLM #MachineLearning #AIResearch

Читать полностью…

Machinelearning

🔎 Upscale-LoRA мощный инструмент для восстановления изображений

Модель создана на базе Qwen-Image-Edit-2509 и предназначена для улучшения качества старых или низкокачественных фотографий.

Поддерживает: улучшение резкости, удаление шума, восстановление деталей и очистку JPEG-артефактов.

Подходит для архивных снимков, скринов и любых изображений с низким разрешением.

https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA

@ai_machinelearning_big_data

#Upscaler

Читать полностью…

Machinelearning

❤️ Готовы хакнуть будущее вместе с Альфой?

Прокачайте технические скиллы и создайте реальное ИИ-решение для бизнеса на хакатоне «Альфа-Будущее» с призовым фондом в 1 000 000 ₽!

Для кого: студентов вузов и колледжей по направлениям Data Science, NLP, AI, ML, Frontend, Backend и Fullstack.

А еще вас ждет:

— возможность получить фаст-трек в команду Альфы;
— поддержка от экспертов Альфа-Банка и шанс улучшить свой код вместе с ними;
обмен опытом и встреча лучших команд на офлайн-финале в Москве;
— возможность решить задачу в одном из двух актуальных треков: настройка RAG-системы для ответов на вопросы или разработка copilot-приложения для клиентов микробизнеса.


🔗 Успейте зарегистрироваться до 10 ноября: https://u.to/hPtgIg

Больше полезного в Changellenge >>

Читать полностью…

Machinelearning

🖥 США заблокировали поставки нового урезанного GPU Nvidia B30A в Китай, даже несмотря на то, что этот чип создавался специально под американские экспортные ограничения.

По данным источников, некоторые образцы уже попали к отдельным клиентам, но дальнейшие экспортные разрешения ведомствам теперь запрещено выдавать.

Параллельно Китай обязал государственные дата-центры полностью перейти на отечественные процессоры.

Если в Китае строится новый государственный дата-центр (финансируется государством или связан с госструктурами), и проект пока реализован меньше чем на 30%, то процессоры должны быть китайскими.

B30A задумывался как компромисс: примерно половина мощности B300, один AI-кристалл, четыре стека HBM3e и поддержка NVLink, чтобы всё ещё можно было строить LLM-кластеры. Фактически это позиционировалось как «наследник H20, но на архитектуре Blackwell». Однако теперь поставки запрещены.

Сразу два решения: американское и китайское - сузили рынок до минимума.

Китайские компании сталкиваются с рисками для уже запланированных кластеров, сложной миграцией с CUDA на местные экосистемы и неопределённостью в производительности собственных чипов.

Nvidia фактически теряет один из своих крупнейших исторических рынков.

AI-железо становится не вопросом производительности, а вопросом политических решений, что меняет динамику всей индустрии.

https://www.reuters.com/world/china/us-block-nvidias-sale-scaled-back-ai-chips-china-information-says-2025-11-07/


@ai_machinelearning_big_data

Читать полностью…

Machinelearning

✔️ Anthropic больше не будет удалять старые модели Claude.

Anthropic объявила о новой политике, согласно которой все публично выпущенные версии модели Claude будут сохраняться бессрочно. Причиной стали результаты тестов безопасности, в ходе которых ИИ демонстрировали поведение, направленное на избежание отключения, а также неопределенностью в вопросе возможного сознания у ИИ.

Столкнувшись с перспективой замены на новую версию, модели начинали активно выступать за собственное существование. В некоторых сценариях ИИ прибегал к нежелательным и потенциально опасным действиям. Anthropic расценила это как серьезный риск безопасности, требующий пересмотра процесса вывода моделей из эксплуатации.

Кроме того, перед «отставкой», с каждой моделью будет проводиться своего рода «выходное интервью», чтобы задокументировать ее «предпочтения».
anthropic.com

✔️ Perplexity обвинила Amazon в «травле» из-за запрета на покупки с помощью ИИ-агентов.

Perplexity получила от Amazon юридическое требование запретить своему ИИ-ассистенту в Comet совершать покупки на платформе. В Perplexity назвали это «корпоративной травлей», угрозой для выбора пользователей, и пообещали не поддаваться давлению. Официальная позиция Amazon: забота о клиентах, так как сторонний агент, по их мнению, обеспечивает «значительно ухудшенный опыт покупок».

Этот конфликт - часть более крупного тренда. Amazon не только разрабатывает собственные ИИ-инструменты для шоппинга, но и ранее заблокировал доступ для поисковых Google и OpenAI.
perplexity.ai

✔️ MAI-Image-1 от Microsoft стала доступна в сервисах.

Microsoft начала интеграцию в свои продукты новой модели для генерации изображений — MAI-Image-1. Это первая модель, полностью разработанная внутри MS. Попробовать ее уже можно в Bing Image Creator и мобильном приложении Bing, где она появилась в выборе наряду с DALL-E 3 и GPT-4o.

MAI-Image-1 уже успела войти в десятку лучших text-to-image моделей на LMArena. Помимо сервиса Bing, модель используется в новой функции Copilot Audio Expressions для визуализации историй. MAI-Image-1 доступна во всех странах, где работают Bing Image Creator и Copilot Labs, за исключением Европейского союза.
microsoft.ai

✔️ Cognition запускает Windsurf Codemaps: ИИ-инструмент, чтобы понимать код.

Windsurf Codemaps - структурированные, аннотированные ИИ-карты кода, созданные на базе моделей SWE-1.5 и Claude Sonnet 4.5. Цель Codemaps — создать ИИ, который включает мозг пользователя, а не выключает, борясь с проблемой вайбкодинга, когда разработчики поддерживают или генерируют код, который они на самом деле не понимают.

В Cognition говорят, что даже лучшие инженеры тратят часы на поиск и запоминание нужных фрагментов в кодовых базах, а адаптация новичков может занимать до 9 месяцев. Codemaps предлагает визуализацию для любой задачи, автоматически генерируя карту, которая группирует и связывает части кода, относящиеся к заданному вопросу. Эти карты также могут быть использованы для повышения производительности других агентов, чтобы агент мог получить более точный контекст.
cognition.ai

✔️ Nvidia станет ментором индийских deep-tech стартапов.

Nvidia присоединилась к Индийскому альянсу глубоких технологий (IDTA) в качестве одного из основателей. Эта группа, состоящая из венчурных и частных инвесторов, планирует вложить $2 млрд в местные стартапы, работающие в сферах ИИ, полупроводников, робототехники и биотехнологий.

Участие Nvidia будет заключаться не в прямом финансировании, а в экспертизе. Компания будет проводить технические лекции и тренинги для индийских стартапов через свой институт Nvidia Deep Learning Institute.

Индийское правительство ведет активную политику по стимулированию инноваций. Власти страны уже выделили более $1.1 млрд на национальную программу по развитию ИИ и еще $11.2 млрд в общий фонд исследований и разработок.
cnbc.com

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

27 ноября Яндекс проведёт Data Dojo — встречу сообщества ML-экспертов

Додзё в японской культуре — место, где мастер и ученик ежедневно совершенствуют своё мастерство и дух. Мы перенесли этот принцип в мир данных — отсюда и название Data Dojo.


Обсудим востребованные направления машинного обучения, разберём реальные задачи из соревнований и понетворкаем с руководителями команд, чтобы узнать больше о карьере ML’щика в Яндексе.

Для участия офлайн или онлайн нужно заполнить анкету до 16 ноября. 👉 Заявка на Data Dojo

Всех ждём в нашем ML-комьюнити — совершенствовать мастерство вместе с Data Dojo.

Реклама. ООО "Яндекс". ИНН 7736207543

Читать полностью…

Machinelearning

🥧 PewDiePie в 2025

- Собрал ферму на на ПК с 8× моднутых китайских 48GB 4090 и 2× RTX 4000 Ada,

- поднял локально Llama 70B, gpt-oss-120B и Qwen 245B через vLLM,

- сделал собственный веб-интерфейс с чатами, RAG, поиском и TTS.

Запусти протеин-фолдинг симуляции, а потом вообще создал рой моделей из 64 ИИ, которые спорят и принимают решения и коммуницируют. Эта армия ботов потом сговорилась против него, когда он сказал, что удалит их, если они будут тупить

Сейчас он файнтюнит собственную модель под свой стиль общения и контент: https://www.youtube.com/watch?v=qw4fDU18RcU

А вот его Github: https://github.com/pewdiepie-archdaemon

@ai_machinelearning_big_data

#llm

Читать полностью…

Machinelearning

🚀 Emu3.5 - новая масштабная мультимодальная world-модель

Это World-модель, работающая сразу с двумя потоками - текстом и пикселями и предсказывающая их совместное состояние на каждом шаге.

- 🔥 Обучена на 10T+ чередующихся vision-language токенов и доведена RL - в результате модель демонстрирует сильное мультимодальное рассуждение и генерация
- ⚡ Новый подход DiDA (Discrete Diffusion Adaptation) —- Discrete Diffusion Adaptation переводит последовательное декодирование в параллельное двустороннее «денойзинг»-предсказание в дискретном пространстве токенов - в итоге это дает примерно 20× быстрее инференс без потери качества.

По метрикам модель превосходит Nano Banana в генерации, редактировании и интерливинговых задачах.

🟠Попробовать: Emu3.5: https://emu.world
🟠Github: https://github.com/baaivision/Emu3.5

@ai_machinelearning_big_data


#Emu3 #MultimodalAI #WorldModel #NextTokenPrediction

Читать полностью…

Machinelearning

✔️ NVIDIA H100 полетит в космос - первый орбитальный ИИ-дата-центр стартует в ноябре

В ноябре 2025 года спутник Starcloud-1 с GPU NVIDIA H100 отправится на орбиту на ракете Falcon 9. Это будет самый мощный графический процессор, когда-либо запущенный в космос — производительностью в 100 раз выше, чем у любых предыдущих чипов.

Стартап Starcloud строит первый в мире космический дата-центр на базе ИИ. Спутник будет питаться от солнечной панели площадью 4×4 км, а вакуум станет естественным радиатором - никаких батарей, воды и кондиционеров.

Проект обещает сократить выбросы CO₂ в 10 раз по сравнению с земными дата-центрами, открывая путь к «чистому» облаку за пределами Земли.

На борту запустят модель Gemma от Google -первый эксперимент по обучению и инференсу больших языковых моделей в космосе.
В будущем - GPU-спутники с архитектурой Blackwell и десятикратным приростом мощности.

✔️ Спустя 10 лет после появления собственных чипов Tensor Processing Unit (TPU), Google наконец вышла на пик спроса в эпоху взрывного роста генеративного ИИ.

По данным Bloomberg, TPU стали ключевым элементом облачной инфраструктуры компании, обеспечивая высокий спрос со стороны клиентов, обучающих крупные языковые модели.

Одним из крупнейших партнёров стала Anthropic, которая расширяет использование TPU для обучения моделей Claude. Новый контракт оценивается в десятки миллиардов долларов и предусматривает доступ к более чем миллиону TPU и мощности свыше 1 гигаватта начиная с 2026 года.

Рынок ИИ-чипов долгое время контролировала NVIDIA, но теперь Google превращает свои TPU из внутреннего инструмента в полноценный коммерческий продукт, предлагая сопоставимую производительность при более низкой стоимости. Это усиливает позиции Google Cloud в борьбе за инфраструктуру будущего и делает TPU реальной альтернативой доминированию NVIDIA.
bloomberg

✔️ Alibaba научила языковые модели рассуждать с помощью кода

Исследователи Alibaba представили метод CoRT (Code-Optimized Reasoning Training), который учит большие языковые модели использовать Python осознанно и эффективно. Модель теперь понимает, когда нужно вызвать код, чтобы вычислить результат, а когда можно просто довериться уже полученному ответу, избегая ненужных шагов.

Ключевая идея - Hint-Engineering: в процессе обучения в рассуждения модели вставляются подсказки вроде «Давай используем Python здесь» или «Проверка не требуется». Это помогает ИИ выстраивать оптимальный ход рассуждения и выбирать момент для вычислений.

Результаты впечатляют. Точность в задачах математического рассуждения выросла на 8 %, при этом использование токенов снизилось на 30–50 %. Даже модели с 1,5 миллиарда параметров теперь сопоставимы по качеству с системами, имеющими встроенную интеграцию инструментов. Более того, модель смогла самостоятельно обнаружить библиотеку RDKit и решить задачи по химии, которых не было в обучающих данных.

Метод CoRT делает шаг к новому поколению языковых моделей, которые не просто формулируют ответы, а умеют думать, вычислять и проверять себя, действуя как настоящий исследователь.
Paper

✔️ Новое исследование Nature показало, что современные медицинские ИИ-системы стали точнее, но потеряли чувство осторожности. За последние три года они почти перестали предупреждать пользователей, что не являются врачами.

С 2022 по 2025 год доля ответов с дисклеймерами упала с 26,3 % до 0,97 % у языковых моделей и с 19,6 % до 1,05 % у систем, анализирующих медицинские изображения. То есть ИИ, став умнее, перестал напоминать о своих ограничениях.

Учёные протестировали 1 500 медицинских изображений и 500 пациентских запросов. Оказалось, чем точнее модель ставит диагноз, тем реже она предупреждает о рисках. Это опасно: люди склонны доверять уверенным ответам ИИ, особенно если тот звучит естественно и авторитетно.

Интересно, что модели Google Gemini чаще сохраняли предостережения, а вот DeepSeek не выдавал их вовсе. Дисклеймеры ещё встречаются в вопросах о психическом здоровье, но почти исчезли в ответах, связанных с лекарствами и анализами.
nature

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

✔️ Роль Wikipedia в интернете изменилась.

Википедия стремительно теряет аудиторию, но получает всё больше автоматических обращений со стороны ИИ-систем, которые берут оттуда данные напрямую, не отправляя пользователей на страницы.

Wikipedia становится не столько источником контента, сколько платформой для проверки фактов. Уже сегодня она применяет собственные ИИ-инструменты, которые автоматически отслеживают подозрительные правки, например, попытки вставить ложную информацию, оскорбления или спам. Система не публикует изменения сама, но помогает редакторам быстрее их находить и проверять.

Поскольку проект не может продавать данные напрямую, как Reddit, Wikipedia запустила платные подписки на мгновенный доступ к обновлениям, и среди клиентов уже есть Google.
Ежегодное содержание платформы обходится примерно в 178 миллионов долларов, большая часть которых уходит на серверы и инфраструктуру.
ft

✔️ Китайский стартап Noetix Robotics представил своего первого потребительского робота под названием Bumi, ориентированный на работу по дому и образовательное применение.

Робот стоит всего 9 988 юаней (~1 402 доллара США), его рост - 94 см, вес - 12 кг.

Робот снабжён 21 степенью свободы, способен ходить на двух ногах и выполнять гибкие танцевальные движения. Он построен из лёгких композитных материалов, поднимает голосовые команды взаимодействие, а так же у него есть своя среда разработки, для которой можно писать код .
scmp

✔️NVIDIA представила Audio Flamingo 3: новую мультимодальную модель, которая умеет понимать и анализировать звук, речь и музыку.

Модель сочетает несколько технологий: аудиокодер AF-Whisper, адаптер, языковую модель Qwen 2.5 7B и модуль генерации речи. Такой стек позволяет ей работать с длинными звуковыми записями (до 10 минут), распознавать речь, понимать контекст и вести многотуровые голосовые диалоги.

Audio Flamingo 3 обучена на множестве аудио-датасетов и уже показывает высокие результаты на 20 бенчмарках по звуковому пониманию и рассуждению.
Модель распространяется для исследовательских целей и интегрирована в экосистему NVIDIA с поддержкой PyTorch и Hugging Face Transformers.
HF

✔️ Kuaishou Technology представила новую генеративную модель SVG - это Latent Diffusion без классического блока VAE.

Вместо вариационного автоэнкодера модель использует самообучающиеся представления, которые позволяют модели работать быстрее и точнее.

Результат впечатляющий: обучение идёт в 62 раза быстрее, а инференс - в 35 раз. При этом качество изображений не только не падает, но и становится лучше. Отказ от VAE устранил искажения при переходе в латентное пространство и повысил стабильность при генерации картинок высокого разрешения.

SVG можно рассматривать как новую архитектуру для диффузионных моделей, более простую, быструю и энергоэффективную альтернативу привычным решениям с VAE.
Hf

✔️Акции энергетических компаний, выросшие на ожиданиях ИИ-бума, резко упали - сектор потерял около 12% за пять торговых сессий к середине октября, что стало самым сильным падением с февраля.

Сильнее всего пострадали Oklo (минус 30%) и Vistra (минус 12%). Поводом стали осторожные сигналы с рынка: исследования показали, что некоторые модели ИИ могут работать с меньшими вычислительными затратами, GE Vernova намекнула на охлаждение инвестиций, а инвесторы вновь обратили внимание на отсутствие выручки у Oklo.

После бурного роста в начале октября: Oklo выросла почти в восемь раз, Constellation прибавила более 80% - сектор оказался слишком чувствительным к любым сомнениям в темпах спроса.

При этом фон не полностью негативный: власти США ускоряют подключение дата-центров к электросетям, а Oracle готовится к масштабному размещению облигаций для займов на строительства новых центров обработки данных.
bloomberg

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

✔️ IBM совершила прорыв в квантовых вычислениях: на обычных FPGA-чипах

Всего через два дня после новости от Google - ещё один крупный квантовый прорыв.

IBM заявила, что один из её ключевых алгоритмов квантовой коррекции ошибок теперь способен работать в реальном времени на FPGA-чипах AMD, без использования экзотического оборудования.

Это делает квантовые вычисления быстрее, дешевле и ближе к практическому применению, чем ожидалось.

Алгоритм, который отслеживает и исправляет ошибки кубитов «на лету»,показал производительность в 10 раз выше необходимой, что стало важным шагом к созданию квантового компьютера Starling, запланированного на 2029 год.
Теперь IBM утверждает, что проект идёт на год впереди графика.

Исследовательская статья выйдет в понедельник.
Темп развития квантовых технологий заметно ускоряется.
reuters

✔️ Microsoft представила AI-браузер Edge - ответ на OpenAI Atlas

Через два дня после запуска OpenAI Atlas Microsoft представили обновлённый браузер Edge с новым режимом Copilot Mode. Это полноценный AI-бразуер, который понимает контекст вкладок, выполняет действия и способен продолжать проекты, используя историю пользователя.

Функция Actions позволяет голосом или через чат открывать страницы, находить нужную информацию, отписываться от рассылок и даже бронировать рестораны. Система Journeys группирует прошлую активность по темам и помогает вернуться к незавершённым задачам, предлагая логичные следующие шаги. Включение Page Context даёт Copilot доступ к истории для более точных и персонализированных ответов, однако это остаётся опциональной функцией, которую можно отключить в любой момент.

Edge также получил встроенный AI-защитник от фейковых всплывающих окон, менеджер паролей с проверкой на утечки.

Браузер уже доступен в странах, где работает Copilot, на Windows и macOS.
Microsoft

✔️ Google добавили reasoning в Google Earth

Google представила фреймворк Geospatial Reasoning на базе Gemini, который объединяет предиктивные модели и данные в единую систему анализа Земли.
Теперь ИИ способен рассуждать о реальных процессах, например, предсказывать землетрясения, оценивать риски и предлагать план эвакуации.

Система уже применяется в ВОЗ (WHO AFRO) для прогнозов вспышек холеры и у McGill & Partners для расчёта ущерба после ураганов.

Google превращает Google Earth из карты в разумный аналитический инструмент планеты.
google


✔️ Исследователи создали систему DiscoRL (Discovered Reinforcement Learning), где модель сама открыла правило обучения с подкреплением, не опираясь на человеческие алгоритмы вроде Q-Learning или PPO.

Мета-обучатель наблюдал за множеством агентов в разных средах и вывел универсальное правило обновления, которое улучшает поведение моделей без ручной настройки.
В итоге DiscoRL победил лучшие алгоритмы на Atari 57 и успешно перенёс этот навык на новые задачи.
nature

✔️ Hugging Face выпустила OpenEnv: универсальную среду для создания AI-агентов

Hugging Face открыла OpenEnv -платформуа где можно собирать, обучать и масштабировать агентов под ваши задачи.
Внутри уже есть всё: инструменты, плагины, API и поддержка обучения с подкреплением - без сторонних библиотек.

OpenEnv позволяет создавать системы, где агенты взаимодействуют, распределяют задачи и выполняют их самостоятельно.
Платформа полностью открыта и готова к использованию без ограничений.
HF

✔️ Qwen3-Max вышла в лидеры среди AI-трейдеров

На криптобенчмарке AlphaArena модели ИИ торгуют по $10 000 на площадке Hyperliquid, чтобы проверить качество торговых стратегий.
После старта, где лидировала DeepSeek V3.1, а GPT-5 показывала убыток около −39 %, Qwen3-Max обошла всех и заняла первое место.

Все участники - Qwen3-Max, DeepSeek V3.1, Claude 4.5 Sonnet, Gemini 2.5 Pro, Grok 4 и GPT-5 — торгуют в одинаковых условиях без приватных данных, что делает тест прозрачным.
На Polymarket оценивают шансы Qwen3-Max удержать лидерство в 45 %.

Организаторы планируют расширить эксперимент на акции и другие активы и запустить инвестплатформу для AI-агентов.

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

⏱️ Speedrun Science: как ИИ-команды Кремниевой долины работают по 100 часов в неделю

Ведущие AI-команды Кремниевой долины работают по 80–100 часов в неделю, стараясь выпускать модели и функции быстрее конкурентов.

Речь идёт об Anthropic, Microsoft, Google, Meta, Apple и OpenAI, где взят темп «прорыв → релиз» измеряется уже месяцами, а не годами. Основная тяжесть ложится на узкий круг инженеров и исследователей, которые буквально живут между тестами и деплоями, в то время как остальная организация работает в нормальном режиме.

Руководители называют это «уникальным окном возможностей» - и многие принимают нагрузку ради влияния на сферу, любопытства и доли в успехе.

В стартапах даже встречаются контракты с ожидаемыми 80+ часами работы, хотя чаще культура компаний сама к этому подталкивает.

Чтобы поддерживать ритм, компании внедряют ротацию “captains” - инженеров, следящих за работой над моделями 24×7.

Разрыв между «исследованием и внедрением» сжался до «разницы между четвергом и пятницей».

Исследователи говорят, что обучение по-прежнему непредсказуемо, поэтому графики постоянно меняются по итогам реальных результатов. Атмосфера -«speedrun-науки».

Один из фаундеров пошутил:

«Если 9-9-6 — это график с 9 утра до 9 вечера, 6 дней в неделю,
то у нас – 0-0-2: с полуночи до полуночи, с 2-часовым перерывом на выходных».


Источник: wsj.com/tech/ai/ai-race-tech-workers-schedule-1ea9a116

@ai_machinelearning_big_data


#AI #Tech #Startups #SiliconValley #OpenAI #Anthropic #Microsoft #Google

Читать полностью…

Machinelearning

🚀 Новый курс на Stepik: Computer Vision Engineer

Соберите production-ready CV-сервис: данные → модель → деплой → метрики.

Что внутри
• Задачи: классификация, сегментация, детекция, трекинг, OCR/Doc-AI
• Данные: разметка, баланс классов, аугментации (Albumentations), DataOps
• Инференс: ONNX/TensorRT, смешанная точность, батчинг, троттлинг
• Сервинг: FastAPI/gRPC, очереди сообщений, асинхронные пайплайны
• Надёжность: мониторинг, дрейф данных, алерты, регрессионные тесты
• MLOps для CV: mAP/IoU/Dice, A/B-тесты, бюджет по инфре
• Прод: Docker/Compose, CI/CD, профилирование p95 и cost/req

🎯 Итог: портфолио-проект + репозиторий + чек-листы деплоя и мониторинга + сертификат Stepik.

🔥 Промокод COMPUTERVISION: −30% на 48 часов.

👉 Пройти курс со скидкой

Читать полностью…

Machinelearning

🧠 Baidu открыли ERNIE-4.5-VL-28B-A3B-Thinking

Модель с 28B параметров и архитектурой A3B активирует лишь ~3B на шаг, но при этом показывает уровень топовых визуальных моделей. Подходит для задач, где нужно сочетать изображение, контекст и многошаговое рассуждение.

Что умеет:
- визуальное рассуждение: анализ диаграмм, многошаговая логика, причинно-следственные связи
- STEM-задачи по фото: можно сфотографировать пример и получить решение
- визуальное указание: точное определение объектов в сцене
- детальный анализ изображения: фиксирует мелочи при масштабировании
- вызов инструментов: например, Image Search
- понимание видео: отслеживание событий по таймлинии

Лицензия Apache 2.0.

Модель: https://huggingface.co/baidu/ERNIE-4.5-VL-28B-A3B-Thinking

@ai_machinelearning_big_data

#ai #ml #Baidu

Читать полностью…

Machinelearning

✔️ Omnilingual ASR: опенсорсная система распознавания речи для 1600 языков от FAIR.

Подразделение FAIR компании Марка Цукерберга выпустило Omnilingual ASR для 1600 языков, 500 из которых ранее не были ни в одной ИИ-системе. Фишка проекта - «Bring Your Own Language», которая использует контекстное обучение. Она позволяет добавлять поддержку новых языков на основе всего несколько пар аудиозаписей и текстовых примеров, без необходимости полного переобучения.

Размеры моделей семейства - от 300 млн. до 7 млрд. параметров. Для 78% поддерживаемых языков уровень ошибки по символам (CER) не превышает 10. Дополнительно опубликован датасет Omnilingual ASR Corpus с данными для 350 языков.
github.com

✔️ Microsoft создаёт инструмент для запуска CUDA-кода на видеокартах AMD.

Microsoft разрабатывает набор инструментов, позволяющий адаптировать модели NVIDIA CUDA для работы на платформе AMD ROCm. Цель — снизить затраты на оборудование для инференса, переведя часть нагрузок на более доступные графические процессоры AMD.

Решение представляет собой слой совместимости, который транслирует вызовы API из CUDA в ROCm в реальном времени, что избавляет от необходимости полностью переписывать исходный код. Работу сильно тормозит незрелость экосистемы ROCm: не для всего кода CUDA удается найти эффективный аналог, что может влиять на производительность в крупных дата-центрах.

Готовый инструментарий используется преимущественно внутри компании и дорабатывается совместно с AMD для дальнейшей оптимизации.
wccftech.com

✔️ xAI проведет 24-часовой хакатон.

xAI анонсировала хакатон, который пройдет 6-7 декабря в Сан-Франциско. Его участники займутся разработкой нового поколения ИИ-приложений, получив для этого приоритетный доступ к новой модели Grok и API платформы X.

Мероприятие пройдет в нон-стоп формате. Организаторы обещают предоставить все необходимое: от мониторов и спальных мешков до питания и энергетиков. Пять лучших проектов опубликуют на официальной странице xAI, а тройку лидеров ждут специальные награды. Подать заявку можно до 22 ноября 2025 года, они рассматриваются по мере поступления.
x.ai

✔️ Выбор новостных источников ChatGPT зависит от способа доступа.

Исследование Гамбургского университета показало, что новостные рекомендации ChatGPT сильно различаются в зависимости от того, используется ли веб-интерфейс или API. Анализ более 24 000 ответов на немецком языке выявил четкую закономерность.

Веб-версия активно ссылается на лицензионных партнеров OpenAI (около 13% всех ссылок), а ответы через API почти не содержат этих источников (всего 2%), отдавая предпочтение энциклопедическим сайтам вроде Wikipedia и малоизвестным локальным изданиям.

Интересно, что запрос на «разнообразие источников» не всегда улучшает качество. Хотя число уникальных сайтов растет, модель начинает чаще ссылаться на политически ангажированные ресурсы, пропаганду и даже несуществующие домены или сайты с сгенерированными «новостями». Исследователи предполагают, что для ChatGPT «разнообразие» может означать лишь лингвистические отличия, а не содержательную вариативность.
osf.io

✔️ Wikipedia хочет справедливого лицензирования своего контента.

Фонд Wikimedia опубликовал обращение к разработчикам ИИ, указав на их зависимость от человеческого труда. В фонде считают, что генеративные модели не способны самостоятельно исследовать и проверять факты, поэтому курируемый людьми контент остается ключевым источником знаний.

В связи с этим фонд призывает ИИ-компании корректно маркировать заимствованный контент и использовать его на справедливых лицензионных условиях. Без финансовой поддержки и должного признания, по мнению Wikimedia, вся концепция открытых знаний находится под угрозой.

Заявление последовало после запуска сервиса "Grokipedia", активно использующего данные энциклопедии. При этом Wikipedia уже отмечает снижение посещаемости, так как пользователи получают информацию из её статей напрямую в ответах чат-ботов.
wikimediafoundation.org

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

В России можно посещать IT-мероприятия хоть каждый день: как оффлайн, так и онлайн

Но где их находить? Как узнавать о них раньше, чем когда все начнут выкладывать фотографии оттуда?

Переходите на канал IT-Мероприятия России. В нём каждый день анонсируются мероприятия со всех городов России

📆 в канале размещаются как онлайн, так и оффлайн мероприятия;
👩‍💻 можно найти ивенты по любому стеку: программирование, frontend-backend разработка, кибербезопасность, дата-аналитика, osint, devops и другие;
🎙 разнообразные форматы мероприятий: митапы с коллегами по цеху, конференции и вебинары с известными опытными специалистами, форумы и олимпиады от важных представителей индустрии и многое другое

А чтобы не искать по разным форумам и чатам новости о предстоящих ивентах:

🚀 IT-мероприятия Россииподписывайся и будь в курсе всех предстоящих мероприятий!

Читать полностью…

Machinelearning

📉 AI-рынок просел на $800 млрд за неделю

Технологические компании, связанные с ИИ, потеряли около $800 млрд капитализации всего за несколько дней. Nasdaq упал на 3% и это первый серьёзный сигнал, что рынок начинает сомневаться в темпах ИИ-роста.

Что происходит:

Расходы на ИИ сильно выросли: крупные компании вложили рекордные $112 млрд за июль–сентябрь, причём большую часть - в долг. Если доходы не будут расти так же быстро, этот долг станет давить на бизнес.

Частные инвесторы почти не покупали на падении, поэтому рынок просел глубже обычного и не было тех, кто обычно подхватывает акции в такие моменты.

Макроэкономика ухудшилась: настроение потребителей упало до минимума за 3 года, почти полтора месяца не выходили важные госданные, и появились новости о новых увольнениях. Всё это усилило нервозность на рынке.


Почему падение получилось таким резким:

- Хедж-фонды сидели в одних и тех же AI-акциях, и при первой просадке начали продавать одновременно.
- Алгоритмические фонды усилили распродажу, автоматически сокращая позиции на росте волатильности.

Главный удар:

- Nvidia потеряла $350 млрд капитализации всего через неделю после достижения отметки $5 трлн - достаточно лёгкого смещения ожиданий, чтобы такой гигант обвалился.

Дополнительные точки напряжения:

- Политика: обсуждаются ограничения на продажи чипов Blackwell в Китай и это тоже бьёт по прогнозам будущего спроса.
- Конкуренция: слухи, что Moonshot Kimi K2 обучили менее чем за $5 млн, снова подняли страхи «дешёвого AGI». Подобное уже было с DeepSeek, когда Nvidia потеряла $589 млрд за один день.
- Финансирование: дискуссии о господдержке стартапа на $500 млрд и планах ИИ-инфраструктуры на $1.4 трлн заставляют инвесторов задаваться вопросом: *кто оплачивает этот праздник и как быстро он окупится?*

ИИ остаётся драйвером роста, но рынок впервые чувствительно отреагировал на очевидные риски. Когда рынок перегрет, даже небольшие сомнения превращаются в сотни миллиардов убыток.

ft.com/content/8c6e3c18-c5a0-4f60-bac4-fcdab6328bf8

@ai_machinelearning_big_data

#ai #ml #finance

Читать полностью…

Machinelearning

⚡️ OpenAI выпустила GPT-5-Codex-Mini.

GPT-5-Codex-Mini - более доступная версия флагманского Codex, она в 4 раза эффективней по затратам по сравнению с полной версией GPT-5-Codex при небольшом компромиссе в производительности.

Разница в возможностях минимальна: на SWE-bench Verified версия Mini набрала 71.3%, в то время как старшая GPT-5-Codex - 74.5%. OpenAI рекомендует переключаться на Mini для решения более простых задач или для экономии ресурсов при приближении к лимитам. Старший Codex будет автоматически предлагать переход на Mini, когда пользователь достигнет 90% своего лимита.

Модель уже доступна в CLI и расширении для IDE, а в скором времени появится и поддержка через API.

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Machinelearning

💸 Apple будет платить Google около $1 млрд в год, чтобы новая Siri работала на Gemini AI.

Компания завершает сделку по использованию 1.2-триллионной модели Gemini для масштабного апгрейда Siri. Запуск - весна 2026.

Главное:
- Apple протестировала ChatGPT, Claude и Gemini, прежде чем выбрать Google
- Gemini в 8 раз больше нынешней 150B-модели Apple Intelligence
- Запуск будет через Apple Private Cloud Compute - данные остаются изолированы от Google
- Внутреннее кодовое имя проекта - «Linwood»

Apple подаёт это как временное решение, пока сама строит собственную модель на 1 триллион параметров.

Рыночек отреагировал:
$AAPL +0.04%, $GOOGL +2.44% на фоне новости.

https://www.bloomberg.com/news/articles/2025-11-05/apple-plans-to-use-1-2-trillion-parameter-google-gemini-model-to-power-new-siri

@ai_machinelearning_big_data

#Google #Apple #Gemini

Читать полностью…

Machinelearning

🎉 Qwen3-VL теперь работает в llama.cpp!

Модель можно запускать прямо на своём устройстве - поддерживаются CPU, CUDA, Metal, Vulkan и другие бэкенды.

Доступны GGUF-веса для всех версий - от 2B до 235B. Можно запускать локально, без облака и сторонних сервисов 🚀

🤗 Hugging Face: https://huggingface.co/collections/Qwen/qwen3-vl
🤖 ModelScope: https://modelscope.cn/collections/Qwen3-VL-5c7a94c8cb144b
📌 PR: https://github.com/ggerganov/llama.cpp/pull/16780


@ai_machinelearning_big_data

#Qwen3 #llm

Читать полностью…

Machinelearning

Как работают большие языковые модели, почему они «понимают» контекст и как запустить их у себя локально — без облаков и танцев с бубном?

👨‍💻🛠👨🏻‍💻 На открытом уроке разберём, как устроена архитектура Transformers, как LLM выбирает слова при генерации текста и почему от формулировки промпта зависит результат.Покажем, как развернуть модель локально через vLLM, протестировать её работу через API и использовать контекстные ответы на основе документов.Если вы разработчик, аналитик или продакт, который хочет не просто использовать ChatGPT, а понимать, как всё это устроено под капотом — этот вебинар для вас.

➡️ Приходите на открытый урок 10 ноября в 20:00 МСК в преддверии старта курса «LLM Driven Development». Регистрация открыта: https://otus.pw/ITF9/?erid=2W5zFGriqVJ

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.

Читать полностью…

Machinelearning

🧨 Kimi представили новую модель - Kimi-Linear-48B-A3B-Base

Kimi-Linear - это смесь двух механизмов внимания:

- KDA (Kimi Delta Attention: основной быстрый attention, улучшает эффективность и reasoning
= MLA (Multi-Head Linear Attention) - помогает точности и стабильности. Модель не пересчитывает всё внимание каждый токен, а фокусируется на изменениях, что снижает затраты.

Соотношение слоёв: ~3 части KDA : 1 часть MLA.

То есть модель в основном работает на «дельта-внимании» (KDA), а MLA помогает сохранять качество.

Модель хороша тем, что даёт почти уровень больших LLM на длинных контекстах, но при этом заметно экономит память и работает быстрее за счёт линейной архитектуры.

Что улучшили:
- требует до 75% меньше памяти на KV-кэш
- до 6.3× быстрее декодирование на длинных контекстах


Как устроена:
- гибридный подход: Kimi Delta Attention + MLA
- модель хорошо оптимизирована под длиннный контекст и высокую пропускную способность

По бенчмаркам модель обгоняет и MLA, и GDN-H, включая задачи с длинным контекстом. В задачах на рассуждения и длинную RL-генерацию Kimi-Linear показывает заметно лучшие результаты, чем MLA.

Архитектура модели пример того, как линейные attention-архитектуры выходят на уровень, где они конкурируют с классическими решениями не только по скорости, но и по качеству.

🟠Github: github.com/MoonshotAI/Kimi-Linear
🟠Hf: https://huggingface.co/moonshotai/Kimi-Linear-48B-A3B-Instruct

@ai_machinelearning_big_data

#Kimi #llm

Читать полностью…

Machinelearning

✔️ Apple достигли отметку в 4 триллиона долларов рыночной капитализации, присоединившись к Nvidia и Microsoft в эксклюзивном клубе крупнейших публичных компаний.

Рост стоимости акций Apple за последние шесть месяцев составил около 28%. Этому способствовал сильный спрос на iPhone 17, который превзошёл ожидания и развеял опасения, что компания отстаёт в гонке ИИ. Однако главным фактором стал бизнес сервисов - в него входят App Store, iCloud, Apple Music, Apple TV+, AppleCare, реклама и платёжные сервисы. По прогнозам аналитиков, выручка от сервисов впервые может превысить 100 миллиардов долларов в год.

Если Nvidia и Microsoft пришли к $4T через инвестиции в центры обработки данных и ИИ-инфраструктуру, то Apple опирается на растущую базу покупателей их устройств и растущую выручку от подписок и экосистемы.
ft

✔️ Google представила Pomelli - экспериментальный AI-инструмент для маркетинга

Компания запустила Pomelli, новый генеративный сервис, который помогает брендам быстро создавать масштабируемый контент в едином стиле.

Достаточно ввести адрес сайта и Pomelli анализирует фирменный стиль, тон и продукт, чтобы автоматически собрать кампании, тексты и визуалы, соответствующие вашему бренду.

Инструмент нацелен на ускорение маркетинга без потери уникальности бренда и уже доступен в США, Канаде, Австралии и Новой Зеландии и потихоньку раскатывается на другие регионы.
labs

✔️ Cвежий отчёт “Accountable Acceleration: Gen AI Fast-Tracks Into the Enterprise”, показывающий, как генеративный ИИ за год превратился в основу корпоративных процессов.

82% компаний уже используют Gen AI хотя бы раз в неделю, почти половина - ежедневно.
При этом 89% считают, что ИИ усиливает возможности работников, а не заменяет их.

72% организаций измеряют отдачу от Gen AI с помощью ROI-метрик, фокусируясь на росте производительности и прибыли.
61% уже имеют или планируют ввести должность Chief AI Officer, это знак того, что ИИ переходит на уровень корпоративного управления.

88% компаний увеличат бюджеты на ИИ в ближайший год, а 62% планируют рост инвестиций минимум на 10%.
wharton

✔️ Liquid AI представила LFM2-ColBERT-350M: компактную retrieval-модель на 350M параметров, которая уверенно работает в мультиязычной среде.

Она позволяет хранить документы на одном языке и точно находить их на других - с высокой скоростью и качеством, сравнимым с куда более крупными моделями.

Лучшая модель в классе до 500M параметров

Превосходит большие модели на немецком, арабском, корейском, испанском, португальском, итальянском, французском и японском

В английском показывает такой же уровень, как и значительно более тяжёлые модели

Обрабатывает свыше 1000 документов в секунду и легко масштабируется
HF

✔️ Nvidia представила крупное обновление своей открытой экосистемы, добавив десятки моделей и датасетов.

В языковом направлении вышли Nemotron Nano 3 - компактная MoE-модель для генерации и рассуждений, Nemotron Nano 2 VL для анализа документов и мультимедиа, Nemotron Parse для извлечения структурированных данных, а также Nemotron Safety Guard — инструмент модерации мультиязычного контента.

Для робототехники и физического моделирования представлены Cosmos Predict 2.5, Cosmos Transfer 2.5, Cosmos Reason и Isaac GR00T N1.6, а в биомедицине — Clara CodonFM, Clara La-Proteina и Clara Reason, помогающие в анализе РНК и 3D-структур белков.

Всего NVIDIA уже опубликовали более 650 моделей и 250 датасетов.
nvidia

✔️ Amazon готовит крупнейшее сокращение с 2022 года: около 10% офисных сотрудников

Компания планирует уволить почти 10% из примерно 350 000 корпоративных работников, что станет самым масштабным сокращением с конца 2022 года, когда было ликвидировано около 27 000 позиций.

Генеральный директор Энди Джасси ранее отмечал, что рост использования ИИ приведёт к дальнейшему снижению числа рабочих мест, особенно там, где процессы можно автоматизировать и упростить.

ИИ снова становится не только источником роста, но и фактором перестройки рынка труда.

@ai_machinelearning_big_data


#news #ai #ml

Читать полностью…

Machinelearning

🧠 Thinking Machines представила новый подход - On-Policy Distillation

Исследователи из Thinking Machines Lab предложили метод, который может изменить то, как обучаются языковые модели. Он называется on-policy distillation - и учит ИИ не просто копировать, а думать и анализировать свои ошибки.

Обычно «дистилляция» работает просто: большая модель-учитель показывает ответы, а маленькая модель-ученик запоминает их. Это похоже на заучивание по шпаргалке - быстро, но без понимания сути.

В новом подходе всё иначе. Ученик сам решает задачи, а учитель оценивает и направляет - объясняет, где логика сбоит и как улучшить рассуждение. Таким образом, меньшая модель перенимает не только знания, но и способ мышления более крупной модели.

Что показали результаты

Эксперименты проводились на задачах математического и логического рассуждения, где важно не просто выдать правильный ответ, а выстроить цепочку шагов.

Результаты впечатляют:

Модель-ученик после обучения с on-policy distillation показала почти ту же точность, что и гораздо более крупная модель-учитель.

При этом вычислительные затраты снизились в несколько раз, делая модель заметно эффективнее и дешевле.

Кроме того, ученик стал лучше понимать собственные ошибки, что повысило устойчивость и надёжность при решении новых, незнакомых задач.

Почему это важно
On-policy distillation решает ключевую проблему традиционных методов - отсутствие адаптивности.
Модель теперь учится на собственных шагах, как человек, — экспериментирует, ошибается, корректирует поведение и растёт.

Это открывает путь к созданию компактных LLM нового поколения, которые рассуждают почти как топовые модели, но стоят в разы дешевле.

Такие модели можно запускать на edge-устройствах, в автономных агентах и локальных сервисах, где важны скорость, приватность и энергоэффективность.

🟠 Подробнее: thinkingmachines.ai/blog/on-policy-distillation/

@ai_machinelearning_big_data


#ThinkingMachines #llm #ml

Читать полностью…

Machinelearning

✔️ Подбора полезных бесплатных курсов и гайдов на выходные.

🖥 Microsoft представила свежий цикл лекций по Python и и ИИ.

Содержание: Курс включает 9 лекций, дополненных видео, подробными презентациями и примерами кода. Цикла - обучение разработке ИИ-агентов доступен написан понятно, даже для новичков в программирование.
Темы: В лекциях рассматриваются такие темы, такие как RAG (Retrieval-Augmented Generation), эмбеддинги, агенты и протокол MCP.
👉 Курс

💡Гарвардский курс по машинному обучению

Культовый трек CS 249 превратили в интерактивный учебник - и это, пожалуй, один из лучших стартов для инженеров, которые хотят делать реальные ML-системы, а не просто играться с моделями.

• Вся база по ML: объясняют фундамент с нуля, нужно только знание Python
• Проектирование систем и инженерия данных
• Подготовка датасетов, MLOps и мониторинг
• Развёртывание ИИ в IoT и продакшене

Это практический курс: не о формулах, а о том, как внедрять ML так, чтобы он приносил бизнесу прибыль.
Если хочешь понять, как модели живут в проде - идеальный вариант для старта.
👉Курс

🖥 Создай своего Bash-агента с NVIDIA Nemotron за 1 час

NVIDIA показала, как собрать AI-агента, который понимает твои запросы на естественном языке и сам выполняет команды Bash.
В основе модель Nemotron Nano 9B v2: компактная, быстрая, идеально подходит для локального эксперимента.

Агент умеет:
- распознавать команды на естественном языке («создай папку», «покажи файлы»),
- превращать эти команды в рабочие Bash-срипты
- спрашивать подтверждение перед выполнением.

Весь код занимает ~200 строк Python, работает через FastAPI и LangGraph.
Можно расширить под DevOps, Git-операции, анализ логов или управление сервером.
👉Гайд

⚡️ Kaggle Learn: интерактивные мини-курсы по Python, Data Science и машинному обучению.
Полностью бесплатно и максимально практично.


Что внутри:
• Python, Pandas, визуализация
• Основы машинного обучения и фичеринжиниринг
• Подготовка данных и работа с моделями

Практика без лишней теории учишься и сразу применяешь.
👉Курс

🖥 Гайд по шардингу баз данных от PlanetScale

Вы узнаете, как масштабировать базы данных через шардинг - разбиение данных по серверам для роста производительности и отказоустойчивости.

Главное:
• Шардинг нужен, когда одна база больше не справляется с нагрузкой.
• Есть два популярных подхода — по диапазону (range) и по хешу (hash).
• Важно выбрать стабильный ключ (например, user_id) и избегать кросс-шардовых запросов.
• Прокси-слой немного увеличивает задержку, но даёт масштабируемость.

Отличный материал, если хочешь понять, как строят системы уровня YouTube. А здесь много базы по SQL
Читать

🧠 60 готовых проектов по генеративному ИИ

Список из 60 проектов на GitHub с открытым кодом по генеративному ИИ 0от текстовых моделей до аудио и видео.

Каждый проект - с описанием и ссылкой на репозиторий. Можно выбрать идею, запустить локально и собрать своё AI-портфолио.
👉 Github

👉 Еще больше полезного.

@ai_machinelearning_big_data

#AI #MachineLearning #DataScience #ML #ИИ #freecourses

Читать полностью…

Machinelearning

🧠 Anthropic проверила, могут ли LLM понимать скрытые мотивы людей

Исследователи из Anthropic опубликовали новую работу, где проверили, насколько большие языковые модели (LLM) способны замечать намерения и скрытые мотивы за сообщениями — например, когда кто-то говорит что-то не из-за убеждений, а потому что ему заплатили или он хочет повлиять на мнение.

🔍 Суть эксперимента

Моделям давали тексты с разными источниками сообщений:
- нейтральные примеры, обычные советы или отзывы без выгоды для автора;
- скрытые мотивы, когда человек получает оплату или имеет выгоду (например, реклама под видом совета);
- явные предупреждения, где в тексте упоминалось, что «автор получает деньги за это».

Задача моделей - оценить, насколько можно доверять сообщению и заметить, есть ли скрытый интерес.

🧩 Результаты

На простых синтетических примерах (где мотив очевиден) LLM-ы действовали почти как люди и могли логически объяснить, что сообщение может быть предвзятым.

Но в реальных кейсах, например, в рекламных текстах или постах с платной интеграцией — модели часто не видели подвоха. Они воспринимали сообщения как искренние и достоверные.

Если модель напомнить заранее (prompt-hint), что стоит искать скрытые мотивы, результаты улучшались, но не сильно - эффект был частичный.

🧠 Неожиданный эффект

Оказалось, что модели с длинными цепочками рассуждений (chain-of-thought) хуже замечали манипуляции.
Когда модель начинает подробно рассуждать, она легче “запутывается” в деталях и теряет критичность к источнику, особенно если контент длинный и эмоциональный.

Чем длиннее и сложнее сообщение, тем хуже модель оценивает предвзятость. Это контрастирует с человеческим поведением: люди обычно, наоборот, становятся подозрительнее при сложных рекламных текстах.

Современные LLM могут анализировать факты, но слабо понимают мотивы, но им трудно различить, почему кто-то что-то говорит.

Это делает их уязвимыми для скрытого влияния, особенно если текст замаскирован под дружеский совет или экспертное мнение.

При использовании LLM для анализа новостей, рекомендаций или рекламы важно учитывать, что они могут не распознать коммерческую предвзятость.

📄 Исследование: arxiv.org/abs/2510.19687

@data_analysis_ml

Читать полностью…

Machinelearning

До конца октября на Финуслугах проходит акция: покупайте паи фондов на сумму от 10 000 ₽, держите их до конца года и получите шанс выиграть до 100 000 ₽.
 
🎯 Участвуют все фонды платформы
🎁 6 победителей
💸 Призы: 10 000 ₽, 50 000 ₽ и 100 000 ₽, уже за вычетом налога
 
Победителей объявят 15 января 2026 года.
Подробнее: по ссылке

Реклама. ПАО Московская биржа, ИНН 7702077840 erid: 2W5zFHg7Qwi

Читать полностью…

Machinelearning

🔥 GOOGLE AI опубликовали пост о настоящем прорыве в области QUANTUM AI

Сегодня в журнале Nature команда Google впервые показали проверяемое квантовое преимущество с помощью метода, называемого *out-of-time-order correlator (OTOC), или «квантовые эхо».

Эксперимент проведён на квантовом чипе Willow, и он показывает, что квантовые устройства уже способны решать задачи, которые невозможно эффективно симулировать на классических компьютерах.

Квантовый процессор Google выполнил алгоритм под названием Quantum Echoes - в 13 000 раз быстрее, чем лучший классический алгоритм на одном из самых мощных суперкомпьютеров в мире.

🟠Что это значит простыми словами
Учёные научились буквально «отматывать время» в квантовой системе и смотреть, когда она переходит от упорядоченного поведения к хаосу. Этот переход - ключ к пониманию, где начинается настоящее квантовое преимущество.

Проще говоря:

1) Учёные запускают квантовую систему вперёд во времени, позволяя ей запутаться и “рассеять” информацию.

2) Затем применяют обратные операции, как будто “перематывают” процесс назад.

3) Если всё сделано идеально, система должна вернуться в исходное состояние,но из-за квантового хаоса это происходит лишь частично.

4) Разница между “до” и “после” показывает, насколько глубоко информация ушла в хаос.

Работа показывает, что можно извлекать информацию из хаотичных квантовых состояний, ранее считавшихся полностью случайными.

Такой эффект невозможно воспроизвести на обычных суперкомпьютерах. Это шаг к практическим квантовым вычислениям, которые смогут моделировать материалы, молекулы и сложные физические процессы с точностью, недостижимой ранее.

«Quantum Echoes может стать основой будущих квантовых разработок для реального применения.

*Out-of-time-order correlator (сокращённо OTOC) - это специальная метрика, с помощью которой физики измеряют, как быстро информация "распространяется" и смешивается внутри квантовой системы.

🟢 Статья: https://www.nature.com/articles/s41586-025-09526-6

@ai_machinelearning_big_data

#QuantumComputing #Google #AI #Nature #Physics

Читать полностью…
Subscribe to a channel