46226
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
🚀 Qwen3.6-Plus- новый мультимодальный агент от Alibaba
Ключевые особенности:
💻 Agentic Coding - умнее и быстрее в написании кода
👁️ Улучшенное мультимодальное зрение - точнее воспринимает и анализирует визуальный контент
🏆 Топовые общие способности - сохраняет лидерские позиции
📄 Контекстное окно 1M токенов - доступно через API по умолчанию
Модель создана на основе обратной связи от сообщества Qwen3.5. Доступна уже сейчас через chat.qwen.ai и API. Обещают открыть исходный код других моделей серии Qwen3.6.
Chat: https://chat.qwen.ai
API: https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3.6-plus
Blog: https://qwen.ai/blog?id=qwen3.6
#Qwen #AI #AgenticCoding #VibeCoding #Agents
🐍 полезные ресурсы 🚀Max
@data_analysis_ml
⚙️ AutoResearchClaw — попытка автоматизировать исследовательский пайплайн
В последнее время заметен сдвиг от отдельных моделей к агентным системам, способным решать сложные многошаговые задачи. Репозиторий AutoResearchClaw предлагает подход к частичной автоматизации научного процесса: исследователь задаёт идею, а система берёт на себя значительную часть рутинной работы — от экспериментов до оформления результатов.
1️⃣ Основной результат
Система реализует итеративный исследовательский цикл. На вход подаётся идея (например, в виде короткого описания задачи), после чего система:
🟣формализует постановку;
🟣собирает контекст и related work;
🟣предлагает метод;
🟣проводит эксперименты;
🟣анализирует результаты и оформляет текст.
Ключевая особенность — это не линейный pipeline, а замкнутый цикл с возвратами, где результаты экспериментов используются для улучшения гипотезы.
2️⃣ Техническая реализация (как устроен цикл)
AutoResearchClaw представляет собой иерархическую агентную систему с оркестратором.
На верхнем уровне находится контроллер, который хранит состояние исследования (гипотеза, код, результаты, текст) и управляет переходами между шагами. Ниже — специализированные агенты: генерация метода, код, запуск экспериментов, анализ и написание текста. Все они взаимодействуют через общее состояние (shared memory).
Цикл работы системы можно описать так:
гипотеза → код → эксперимент → анализ → обновление гипотезы → ...
При этом важна именно стадия обновления гипотезы. После каждого эксперимента система формирует контекст (метрики, ошибки, сравнение с baseline) и с помощью LLM предлагает модификации:
🟣изменение архитектуры или pipeline;
🟣добавление регуляризации или новых признаков;
🟣корректировку training-стратегии.
Эти изменения применяются к коду, после чего цикл повторяется. Таким образом реализуется итеративный поиск в пространстве решений, где гипотеза постепенно уточняется.
3️⃣ Условие выхода из цикла
Остановка процесса задаётся эвристически. Обычно используется комбинация:
🟣достижение приемлемого качества (по метрикам),
🟣отсутствие значимого улучшения на нескольких итерациях,
🟣ограничение по числу запусков или времени.
После этого система переходит к финальному этапу — сборке текста статьи на основе накопленных результатов.
4️⃣ Заключительные замечания
Сильная сторона подхода — в том, что он делает явным исследовательский цикл и переносит рутинные этапы (эксперименты, код, текст) на агентную систему. Это может существенно ускорить проверку гипотез и построение baseline-решений.
Ограничения при этом остаются: качество сильно зависит от прокси-метрик, новизна часто носит композиционный характер, а интерпретация результатов по-прежнему требует участия исследователя. В этом смысле система выступает скорее как инструмент-ассистент, чем автономный «учёный».
Как вы думаете, если такие системы станут зрелыми, как изменится роль исследователя — и где пройдёт граница между идеей и её реализацией?
Обзор инструмента подготовлен командой AI VK
#обзоринструмента
Парень переписал Claude Code на Python за ночь - и взорвал GitHub
Anthropic случайно засветили исходники своего ИИ-редактора Claude Code и они мгновенно разлетелись по сети.
Разработчик из Южной Кореи, Sigrid Jin, увидел это в 4 утра и не стал ждать.
За одну ночь он переписал ключевые части проекта на Python и выложил форк под названием Claw Code.
Результат:
- 50 000 звёзд всего за 2 часа
- вирусное распространение по всему GitHub
- полноценный агентный стек, сохранённый в новой реализации
Сейчас он уже работает над версией на Rust.
История про то, как скорость и скилл иногда решают больше, чем команды и бюджеты
https://github.com/instructkr/claw-code
🐍 полезные ресурсы 🚀Max
@machinelearning_interview
❗️ GitHub Copilot будет обучаться на данных пользователей с 24 апреля 2026 по умолчанию
С 24 апреля GitHub Copilot по умолчанию начнет использовать данные пользователей тарифов Free, Pro и Pro+ для обучения своих ИИ-моделей. Нововведение не затрагивает корпоративных клиентов с подписками Business и Enterprise.
К собираемой информации относятся: «вводимая информация, получаемые результаты, фрагменты кода и сопутствующий контекст». Официальные представители подчеркивают, что не обучают модели на данных из закрытых репозиториев. При этом любой участок приватного кода, проанализированный плагином Copilot для генерации подсказок, классифицируется как пользовательское взаимодействие и забирается в обучающую выборку.
👆Аудитория портала Hacker News восприняла анонс крайне негативно, расценив его как нарушение приватности и злоупотребление доверием. Разработчики и IT-специалисты возмущены тем, что компания активирует передачу данных по умолчанию. Сообщество настаивает на том, что предоставление доступа к приватному коду должно происходить исключительно путем добровольного и явного согласия. Текущий подход воспринимается как попытка незаметно завладеть чужой интеллектуальной собственностью, рассчитывая на невнимательность людей.
Заявления сотрудников GitHub о том, что репозитории не используются целиком, не успокоили аудиторию. Пользователи сочли это объяснение лукавством и жонглированием словами. Copilot анализирует огромные массивы контекстного кода из приватного репозитория. Закрытый код неизбежно попадает в обучающую выборку в виде «контекста взаимодействия».
😎Чтобы отказаться от сбора данных, нужно перейти в раздел настройки конфиденциальности учетной записи (Privacy) и отключить опцию♋️Allow GitHub to use my data for AI model training.
✋ @Russian_OSINT
Недавно крупная — пожалуй даже, возможно, крупнейшая — конференция по ИИ, NeurIPS — заблокировала доступ китайских исследователей. Официальная причина — не может взаимодействовать с находящимися под санкциями США, неофициальная — доминирование китайских участников.
Китайцы массово возмутились и раскачали ситуацию до выбивания извинений, но дальнейшие шаги гораздо показательнее.
Все китайские спонсоры, а их много и платили они прилично — свернули поддержку. Там Huawei, Tencent и так далее.
Китайские участники, которых приглашали вести там секции, массово отказались, чем загнали организаторов в ситуацию с масштабным переформатированием события.
CCF, Китайская компьютерная федерация, сказала участникам никак не взаимодействовать с NeurIPS и будет убирать организацию из учитываемых ачивок. Вы там участвовали — это теперь ни во что не засчитывается.
Китайская академия наук вообще зарубила всё что связано с NeurIPS; участие в review научных работ, публикации в связанных с конференцией журналах (!!!) и прочее теперь не будут учитываться для карьеры. Вы не сможете добавить в резюме свою деятельность и научные работы, если публикуетесь.
Лихо взялись, показательно.
Наши же, после такого же подхода (см. последний скриншот), продолжают пытаться подаваться. И никаких ограничений для структур американского научного события, которое стало из научного политическим, не вводят.
ДИСТИЛЛЯЦИЯ МОЗГОВ
В Кремниевой долине — великий плач нейро-куколдов: «Нас дистиллируют!». Китайские братушки и просто ушлые кодеры берут их жирные модели, в которые вбуханы миллиарды инвесторской нефти, и выжимают из них эссенцию в копеечный файл. Вор у вора дубинку украл: ребята годами пылесосили весь интернет, воруя наши книги, посты и фотки бывших под соусом «прогресса», а теперь искренне корчатся, когда их самих засунули в цифровой самогонный аппарат. Карма — штука алгоритмическая.
Для тех, кто в танке: дистилляция в AI — это когда ты не жжешь электричество целой страны на обучение сетки, а просто заставляешь маленькую модельку повторять ответы большой и тупой. Дешево, эффективно и без лишнего пафоса про «миссию человечества». Это просто краткий конспект чужого грабежа. Ну типа "дай шпоры списать".
А правда в том, что идет ДИСТИЛЛЯЦИЯ МОЗГОВ. Вот сам придумал термин — самому нравится. Но с этим процессом вы уже ничего не сделаете. Уж больно много ресурсов вбухано в глобальный самогонный аппарат!
Ездили с коллегами на неделю в AI-экспедицию в Китай. Были в нескольких компаниях. Презентации показать не могу, а про разницу корпоративных культур расскажу 😎
China Telecom. Государственная машина. Вход по паспортам. Доклад на трибуне. Параллельно-перпендикулярная дисциплина. Ощущение как будто на приёме в министерстве. При этом у них 160 AI-приложений внутри, собственная LLM на отечественных чипах Huawei и 40% кода пишется AI. Военная выправка + непрерывная трансформация. Уважаю 💪
Baidu. Расслабленные техногики. Презентации перевели на русский… но не дальше первой страницы. Наклеечки "посетитель" на одежду, на которые всем наплевать 😁 Хороший демо-стенд, свои чипы Kunlun, ERNIE 5.0. Атмосфера — университетская лаборатория, в которую случайно пустили серьезных дядек в пиджаках
Alibaba. Пожалуй, ближе всех к теме AI. Презы на русском. Кофе-брейк сделали (единственные!). Культура в меру формальная, в меру амбициозная. Единственные из всех показали реальные метрики с конкретными цифрами результатов внедрения AI. Не слайды «мы планируем», а «вот что получилось» 🔥
JD. Лучшая демо-зона. Единственные напоили горячим чаем ☕️ Транспарант на стене: Don’t forget the customers when making decision. Осведомлены о нас, интродакшн на русском, бейджи VIP на шею. В меру техногики, в меру enterprise
И вот что меня зацепило в JD больше всего. Они не аутсорсят людей. Все функции — внутренние. 50 000 AI-агентов создают сами сотрудники. Не можешь делать агентов — не получаешь повышение. 40% кода генерирует AI. R&D +66% год к году. При этом финальное решение — всегда за человеком. Это не «AI заменит людей». Это «AI усилит тех, кто готов учиться».
И ещё: когда мы спросили про безопасность агентов — не ответили, посчитав вопрос «щекотливым». Мол, мы всё решили, у нас всё безопасно 😏 Впрочем, у всех компаний уровень раскрытия по ИБ — примерно ноль: строгие требования от государства, есть команда, всё безопасно, точка. Знакомо, правда? 🤷
Больше всего мне понравилась культура в JD. Не потому что чай вкусный (хотя да). А потому что это редкая комбинация — технологическая амбиция + уважение к людям + культура, где каждый сотрудник создатель, а не исполнитель. Где agent literacy — это не модное слово, а карьерный KPI. В JD нет разговоров про «внедрение AI». Там AI — это просто то, как все работают 🤯
Это войдёт в историю: как основатель GitLab использовал ИИ в борьбе с раком
У Сида Сийбранди, основателя GitLab, диагностировали редкую форму рака. Стандартные протоколы лечения не давали результата, и в какой-то момент врачи сказали: больше ничего нельзя сделать.
Сид не принял это как приговор. Он собрал команду экспертов, погрузился в медицинскую литературу и начал самостоятельно разбираться в вариантах терапии. В этом процессе одним из главных инструментов стал ChatGPT.
Что именно делал ИИ в этой истории? Не ставил диагнозы и не назначал лечение - это по-прежнему задача врачей.
Но он помог в разы ускорить работу с огромным массивом научных данных: быстро находить релевантные исследования среди тысяч публикаций, структурировать медицинскую информацию о состоянии здоровья, формулировать правильные вопросы для специалистов и сравнивать разные подходы к лечению.
Сейчас рак Сида в ремиссии ♥
@machinelearning_interview
🔥 Huawei бьёт рекорды: новый ИИ-чип Ascend 950PR нашёл крупных клиентов в Китае
Китайские гиганты активно переходят на отечественные решения. По свежим данным, ByteDance и Alibaba получили образцы нового флагманского ИИ-чипа Huawei и планируют крупные заказы.
Речь идёт об Ascend 950PR — чипе, который используется в ускорителе Atlas 350. Он выдаёт впечатляющие 1,56 петафлопс в FP4-вычислениях и в два раза мощнее китайской версии Nvidia H20. При этом чип оптимизирован именно для этапа prefill в инференсе и рекомендательных систем, а также использует более дешёвое решение HBM, что делает его значительно выгоднее по цене.
Что известно о заказах:
• ByteDance и Alibaba уже протестировали образцы в январе.
• В 2026 году они ожидают поставки около 750 000 единиц Ascend 950PR.
• Массовое производство может стартовать уже к концу апреля, а объёмы существенно вырастут во второй половине года.
Это яркий сигнал: несмотря на санкции США, Huawei уверенно закрывает технологический разрыв и выигрывает доверие главных игроков китайского ИИ-рынка. Правительство КНР активно продвигает переход на domestic-чипы, и новый Ascend 950PR идеально вписывается в эту стратегию — мощный, совместимый с CUDA-экосистемой и при этом экономически привлекательный.
Huawei продолжает наращивать производство и развивать roadmap Ascend на ближайшие годы. Похоже, 2026-й станет переломным в борьбе за китайский рынок.
Оригинальная статья
#КитайскийИИ #Huawei #Ascend #ByteDance #Alibaba
Российский бизнес массово сворачивает ИТ-проекты по внедрению генеративного ИИ.
Статья на cnews сообщает, что из всех запущенных проектов с использованием ИИ живы остались только 10%.
Из причин респонденты называют - вндеряли не туда, внедряли для хайпа а не для пользы, внедряли без понимания, как это работает.
Мы как айтишники, все еще ждем серьезных подтверждений работающих решении ИИ, которые make a difference, а не просто чуть-чуть помогают. Пока успехи с реальными примерами наблюдаются не у бизнеса, а у багхантеров.
А в реальной жизни пока что советы ии (Пентагон подтвердил внедрение Palantir, и за 2025 отгрузил им $1,3 млрд.) приводят к военным преступлениям.
ARC-AGI-3 - бенчмарк,показал неприятную для всей индустрии вещь: даже топовые frontier-модели сейчас набирают меньше 1%.
Лучшие результаты на старте такие:
- Gemini 3.1 Pro Preview - 0.37%
- GPT-5.4 High - 0.26%
- Opus 4.6 Max - 0.25%
И это, пожалуй, главный вывод.
ARC-AGI-3 - это уже не набор статичных головоломок, как в прошлых версиях ARC. Теперь это интерактивные игровые миры, где агенту нужно самому разбираться, что вообще происходит.
Что именно проверяет новый тест:
- исследование незнакомой среды с нуля
- поиск целей и правил без текстовых инструкций
- построение своей модели мира по ходу задачи
- длинное планирование на много шагов вперёд
- обучение на опыте, а не по шаблону
- пересмотр гипотез, если первые догадки оказались неверными
То есть здесь уже мало просто "хорошо рассуждать в чате".
Нужно адаптироваться в реальном времени, помнить прошлые действия, извлекать сигналы из слабой обратной связи и не скатываться в перебор.
Внутри ARC-AGI-3:
- 150+ новых интерактивных окружений
- почти 1 000 уровней
- replay-сессии, где можно смотреть весь таймлайн решений агента
Скоринг считает не только факт решения, а то, насколько эффективно модель осваивает навык по сравнению с человеком.
Именно поэтому результаты выглядят настолько жёстко.
По сути, ARC Prize говорит прямо:
пока между человеком и ИИ есть такой разрыв в освоении новых задач, говорить о настоящем AGI рано.
И это, возможно, один из самых честных тестов за последнее время.
Не потому что модели "слабые".
А потому что реальная универсальная адаптация всё ещё не решена.
https://arcprize.org/
🐍 полезные ресурсы 🚀Max
@data_analysis_ml
ГОЛЛИВУД ПОБЕДИЛ
Сёма развёлся с Sora
Самая расхайпованная на свете лавка Шмуля Альтмана (фото) – изобретатель ChatGPT – OpenAI объявила о закрытии генеративной нейросети Sora. Эту фичу специально вывели два года назад для создавания качественных видео по текстовому запросу. Массовый пользователь получил доступ к этому ГИИ в ноябре 2025-го.
Sora вызвала бурю негодований в Голливуде и бурную радость криминала. Первым это ПО угрожало минимум – исключением живых актеров из съёмок, вторым – сулила лёгкое и почти даровое создание дипфейков для любых кибервзломов. В сопоре о Sora победил Голливуд.
OpenAI откажется от поддержки версии нейросети для разработчиков и от видеофункционала в чат-боте ChatGPT.
"Мы прощаемся с приложением Sora. Спасибо всем, кто творил с помощью Sora, делился своими работами и создавал вокруг них сообщество", – написали якобы от команды проекта в Х. Создатели обещали рассказать о способах сохранить сгенерированный контент. Позже.
По словам самого Шмуля Иеремиевича, команда Sora займется долгосрочными проектами, например, – робототехникой. Но это – не точно. Возможно, уволят всех, как обычно. OpenAI планирует изменить стратегию, сосредоточиться на разработке инструментов для повышения продуктивности корпораций и частных пользователей.
ВАШУ ЦИФРУ! Настоящая причина, конечно, не опасность интернет-ворья и не визги с хуйливудских пригорков. Дело – в деньгах и рынке. OpenAI запустила Sora в надежде ее применения в создании вертикальных видео для TikTok. Но много воды утекло. Китаёзскую сеть в США прижали, а Сёму заткнули, точнее – "направили в позитивное русло" крупным контрактом с Пентагоном.
Ведь еще год назад сотрудники OpenAI поражались: зачем сколько денежных и вычресурсов Сэмэн вкладывает в крайне рискованный проект, при полном отсутствии признаков его востребованности для работы на благие цели
Openpilot 0.11 — первый робо-агент, обученный только на симуляциях
Команда Comma.ai опубликовала интересный пост, где утверждает, что впервые в истории индустрии выпустила на дороги робо-агент, полностью обученный в вымышленной нейросетями симуляции.
Немного контекста: в Comma.ai разрабатывают систему помощи водителю, совместимую со многими моделями автомобилей. Система работает на втором уровне автономности — умный лейн-кипинг в широком спектре сценариев. Эта задача гораздо проще, чем полностью автономное вождение, что позволяет Comma.ai экспериментировать.
В то время как Waymo и британская команда Wayve интегрируют модели мира в свои пайплайны, Comma.ai идёт ещё дальше и отказывается от всего, кроме модели мира. Похожую идею предлагали учёные из Беркли в классической для робототехники статье DayDreamer — интересно, что этот подход удалось адаптировать для автономного вождения.
Вот что предлагают создатели Openpilot 0.11:
Шаг 1. Собрать 40 тысяч часов интересных видео, записанных флотом автономного транспорта и разбить их на сцены по 10 секунд с частотой 5 Гц.
Шаг 2. Обучить на этом датасете двухголовую модель мира:
🔴 первая голова предсказывает по видеоконтексту следующее действие эго-агента,
🔴 вторая — генерирует следующий кадр по видеоконтексту и только что полученному следующему действию.
Потом к контексту добавляется сгенерированный кадр, и процесс повторяется.
Секретный ингредиент — подавать на вход модели не только две секунды истории, но и последнюю секунду в эпизоде. Так ей понадобится предсказывать только промежуточную траекторию — это значительно улучшает сходимость. В итоге получается достаточно реалистичный симулятор вождения, который генерирует следующий кадр по двум секундам видео и действию эго.
Шаг 3. Обучить в полученном симуляторе небольшую модель-водителя, которая должна сходиться в финальное состояние по одному лишь видео, не видя последний кадр. Щедро насыпать шум на всех стадиях для устойчивости.
Openpilot 0.11 обучали on-policy — модель много едет по сгенерированной ей самой траектории, что выгодно отличает подход от обычного imitation learning.
При этом награды или штрафы не задавались явно — по опыту reinforcement learning, конструирование наград иногда всё только портит. Авторы усвоили горький урок: для того чтобы всё сошлось, достаточно увеличить количество данных и размер модели.
Единственная проблема, которая остаётся, — модель-водитель может научиться ломать симуляцию непредсказуемыми способами. Авторы утверждают, что это решается за счёт гипотезы большого мира: одновременно увеличивать и модель мира, и размеры водителя так, чтобы мир всегда был на порядок больше.
В парадигме Level 2 получается хороший результат — агент держит линию и расстояние до других, объезжает запаркованные авто. Но вопрос, будет ли это скейлиться на более сложные задачи, остаётся открытым.
Разбор подготовил ❣️ Кирилл Федянин
404 driver not found
В Китае озабочены Generative Engine Optimization
Китайские сервисы по оптимизации генеративных запросов наполняют интернет большим объёмом мусорных статей. О проблемах манипуляции ИИ-моделями в рекламных целях рассказала ежегодная передача по случаю Дня защиты прав потребителей (3.15 Gala).
Поскольку интернет-пользователи всё больше полагаются на ИИ-решения (в Китае DeepSeek, Doubao и Kimi), а не поисковики, на смену поисковой оптимизации приходит генеративная (Generative Engine Optimization, GEO). В Китае сформировался рынок GEO-услуг: компании могут заказывать выведение в топ своего бренда или дискредитацию конкурента. Для этого моделям скармливается нужная информация, которую генерируют с помощью тех же моделей.
Журналисты продемонстрировали, насколько просто сейчас можно заставить ИИ выдать нужный результат. Иными словами, насколько неразборчивы модели. GEO-сервис использовался для продвижения несуществующего фитнес-трекера Apollo-9. Спустя пару часов после генерации и публикации рекламного контента два ИИ-чатбота не только упомянули «продукт» по тематическому запросу, но и включили его в топ лучших.
Проблема касается и западных моделей: в феврале журналист BBC поставил опыт и, потратив 20 минут, смог сделать себя лучшим технологическим журналистом по поеданию хот-догов в «глазах» ChatGPT и Gemini. Для этого ему потребовалось всего лишь написать статью с рейтингом на личном сайте (позднее он добавил приписку, что это не сатира, чтобы и ИИ относился к материалу серьёзно).
Возможно, в Китае ситуация с рекламным отравлением моделей обстоит острее в связи с большим внедрением ИИ в повседневную жизнь, чем на Западе или в России. Но это только вопрос времени.
🚀 Gemma 4 - новое семейство открытых моделей Google, которые можно запускать прямо на своём железе.
Модели заточены для сложного reasoning и агентных задач.
🔵 Доступны в четырёх вариантах:
• 31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.
• E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.
🤖 Что можно делать:
• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API
👉 Встроенная работа с инструментами (tool use) из коробки.
🧠 Контекст до 256K токенов:
• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях
⚡️ Начать можно уже сейчас через Google AI Studio
Также веса моделей доступны на Hugging Face, Kaggle и Ollama
Лицензия: Apache 2.0.
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
@ai_machinelearning_big_data
#Gemma
Ув. подписчик поделился ресурсом, который аггрегирует случаи ущерба от вайбкодинга.
Среди них - потерям Амазоном 6 млн заказов, Zero-click RCE на устройствах пользователей vibe-coding площадки, и закрытие одного стартапа, полностью написанного ИИ из-за доступа к платным фичам через смену одного параметра в куках.
Что интересно, что сделал его стартап, продукт которого - AI интервьюер, который тренирует тебя к собеседованиям.
Поговорка про стеклянный инструмент и дурака обретает новые смыслы.
✔️ OpenAI сделала плагин Codex для Claude Code.
Расширение позволяет вызывать Codex напрямую из рабочего процесса для код-ревью и делегирования задач. Инструмент поддерживает базовую проверку синтаксиса, расширенное интерактивное ревью с наводящими вопросами и автоматическое расследование дефектов с исправлением багов.
Плагин работает через локальный Codex CLI и не изолирован от системы. Он наследует авторизацию устройства, конфигурацию, переменные окружения и доступ к репозиториям.
Для установки дополнения потребуется Node.js версии 18.18 или новее, а также любая учетная запись ChatGPT, включая бесплатный тариф, либо API-ключ OpenAI. Исходники плагина опубликованы на Github.
community.openai.com
✔️ Google выпустила Veo 3.1 Lite.
Новинка замыкает линейку Veo 3.1 и ориентирована на массовую генерацию контента. Стоимость создания на новой модели на 50% меньше. чем на версии Fast.
Lite генерирует ролики на основе текста или изображений, предлагая базовые настройки ориентации кадра и длительность в 4, 6 или 8 секунд. 4K не поддерживается, доступны только 720p и 1080p.
Доступ к Veo 3.1 Lite уже открыт на платных тарифах в Gemini API и платформе Google AI Studio. Одна секунда видео в 720p обойдется в 5 центов, а в 1080p - в 8 центов. Также анонсировано снижение тарифов для Veo 3.1 Fast с 7 апреля.
blog.google
✔️ Nebius Group построит в Финляндии один из крупнейших в Европе дата-центров для ИИ.
Nebius, основанная бывшим главой Яндекса Аркадием Воложем, инвестирует более 10 млрд. долларов в вычислительный комплекс мощностью 310 МВт. Объект возводится в Лаппеэнранте, а его поэтапный ввод в эксплуатацию начнется в 2027 году.
Выбор локации продиктован холодным климатом и прямым доступом к недорогой возобновляемой энергии. Этот дата-центр станет крупнейшей площадкой Nebius за пределами США и обеспечит около 10% от всей запланированной мощности компании.
reuters.com
✔️ В Китае запущена первая полностью автоматизированная линия по производству гуманоидных роботов.
Предприятие в городе Фошань рассчитано на выпуск 10 000 человекоподобных машин ежегодно. Переход на конвейерный формат сократил время сборки одного устройства в среднем до 30 минут. Это повысило общую эффективность производства более чем на 50% по сравнению с традиционными методами сборки.
Технологический процесс состоит из 24 этапов и включает 77 процедур для проверки безопасности и надежности узлов. Линия отличается высокой гибкостью: архитектура конвейера позволяет одновременно выпускать различные модификации роботов для разных нужд - от заводских цехов до медицинских учреждений.
Тренд на массовое производство поддерживают и другие локальные разработчики: Unitree и UBTech планируют поставить на рынок десятки тысяч роботов уже к концу этого года, а Agibot отгрузила более 5 тыс. единиц в 2025 году.
cctvplus.com
✔️ Micron начал разработку многослойной графической памяти GDDR.
Вендор применит к GDDR подход вертикальной компоновки из чипов HBM, чтобы заполнить нишу между дорогой HBM и классической GDDR. До конца года Micron подготовит оборудование и приступит к тестовому производству, а первые четырехслойные инженерные образцы появятся в 2027 году,
С развитием ИИ рынку требуются более доступные решения, особенно для инференса, где HBM избыточна, а производительности обычной графической памяти не хватает. Многослойная GDDR даст повышенную пропускную способность и увеличенную емкость, сохранив при этом конкурентную цену. Помимо ИИ-ускорителей, новые чипы найдут применение в игровых видеокартах.
Для запуска производства Micron предстоит преодолеть ряд инженерных барьеров: контроль тепловыделения, оптимизация энергопотребления и удержание низкой себестоимости сложного процесса упаковки.
etnews.com
@ai_machinelearning_big_data
🐍 полезные ресурсы 🚀Max
#news #ai #ml
И.А. Самыловский (ФКИ МГУ), Задачи оптимизации в планировании орбитальной съёмки
YouTube->
Дзен->
RuTube->
Файл->
И канал, который ведёт докладчик: @astrodynlab
Привет!
Встречайте двенадцатый выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают конференцию по обработке текстов в Марокко, достижения в области искусственного общего интеллекта (AGI) и важность взаимодействия между людьми и ИИ. Они также затрагивают тему программирования с помощью LM-агентов и подчеркивают значимость умения слушать в современном мире.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
🤖 Компания Z.ai (создатели моделей GLM) выпустили AutoClaw - инструмент, который позволяет запускать OpenClaw локально, без интернета и без API-ключей.
OpenClaw - это ИИ-агент, который умеет выполнять многошаговые задачи и использовать инструменты (например, подключаться к Slack, Telegram, Discord, WhatsApp и другим сервисам).
В чем плюсы AutoClaw:
• Скачал - запустил. Никаких API-ключей не нужно
• Можно использовать любую модель или встроенную GLM-5-Turbo, заточенную под работу с инструментами и сложными задачами
• Полностью локально, твои данные никуда не уходят
По сути, это локальный аналог таких агентов, как Cursor или Operator, но работающий целиком на твоей машине, без слежки и без подписок.
AutoClaw: https://autoglm.z.ai/autoclaw/
Discord: https://discord.gg/jvrbCRSF3x
@ai_machinelearning_big_data
ИИ начал находить настоящие баги в ядре Linux. И никто не понимает, почему именно сейчас
Грег Кроа-Хартман, один из ключевых мейнтейнеров ядра Linux, заявил что ситуация с AI-сгенерированными баг-репортами кардинально изменилась.
Ещё недавно это был поток мусора - теперь это реальные баги с рабочими патчами.
Его слова: «Что-то произошло месяц назад, и мир переключился.
Теперь к нам приходят настоящие отчёты». И это не только Linux - по его словам, все крупные open source проекты видят то же самое. Команды безопасности общаются между собой неформально, и картина везде одинаковая.
Никто не понимает, что именно изменилось. Кроа-Хартман говорит прямо: «Мы не знаем. Никто не знает почему. То ли инструменты стали сильно лучше, то ли люди просто начали пробовать. Похоже, что это много разных групп и компаний одновременно».
Ядро Linux справляется - команда большая и распределённая.
Баги мелкие, не критические, но поток реальный и не замедляется.
А вот для маленьких open source проектов это проблема. У них просто нет людей, чтобы обработать внезапный наплыв качественных AI-репортов.
Раньше страдали от мусорных репортов, теперь страдают от настоящих.
По сути мы наблюдаем момент, когда AI-инструменты для поиска уязвимостей перешли из категории «игрушка» в категорию «инфраструктура». И open source к этому не готов.
theregister.com/2026/03/26/greg_kroahhartman_ai_kernel/
🐍 Linux полезные ресурсы 🚀Max
@linuxkalii
В AIRI, «Сбере» и «Сколтехе» создали детектор ошибок сжатия в работе ИИ-систем
Решение направлено на улучшение обработки длинных диалогов. Детектор решает проблему переполнения токенов (Token Overflow) — искажения данных при превышении пороговых значений сжатия. Он представляет собой обучаемый классификатор, который проверяет токены до того, как они попадут в большую языковую модель, и не пропускает испорченный контекст. В этом случае система может использовать несжатый текст или найти актуальные документы.
«Наше решение выполняет функцию защитного механизма: мы научились автоматически детектировать порог, за которым краткость перестает быть оптимизацией и ведет к ошибкам, вызывая потерю устойчивости модели», — объяснил директор Центра практического искусственного интеллекта «Сбера» Николай Тиден.
Классификатор задействовали при обновлении GigaChat Ultra от «Сбера». С помощью детектора модель научилась запоминать факты о пользователях и применять их для персонализации общения.
🔗Источник: https://www.sberbank.ru/ru/sberpress/all/article?newsID=63721a59-801d-489e-9537-6f7f2e79b279&blockID=1303&regionID=77&lang=ru&type=NEWS
---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
коллеги прислали ссылку на статью из журнала "Природа" Nature, которая посвящена тому, чтобы обучить LLM рассуждать байесовски; тут надо сделать отступление и пояснить, что это такое, а то не все в курсе; байесовское принятие решений - это когда субъект делает вероятностное суждение об объекте: например, вдалеке видно какое-то животное, можно предположить, что это скорее всего собака, но может быть и волк (1 картинка)
важно отметить, что а) люди в среднем без специального обучения так рассуждать не умеют, про это написано много литературы, б) как следствие, LLM тоже не умеют; так вот коллеги придумали, как их обучить (2 картинка); интересно, что байесовские рассуждения распространяются за пределы обучаемого домена, то есть модели реально выучивают этот навык
но самый большой недостаток статьи на мой взгляд раскрывает 3 картинка - при взаимодействии с реальным пользователем улучшения против необученной LLM нет; это возвращает нас к началу - люди байесовски думать не умеют и не могут
@valuableai
Похоже, «война токов» возвращается ⚡️ Дата-центры предлагают перевести на постоянный ток
ИИ-инфраструктура заставляет пересматривать то, что десятилетиями считалось нормой. Сегодня почти все ЦОДы работают на переменном токе, и выглядит примерно так: ток приходит, понижается, превращается в постоянный, потом обратно в переменный… и снова в постоянный уже перед серверами. Несколько преобразований подряд – и на каждом этапе теряется энергия.
Раньше это было терпимо: стойка на 10 кВт не делала погоды. Но в эпоху ИИ всё иначе – одна стойка может потреблять до 1 МВт. И тут потери, нагрев и даже расход меди начинают бить по экономике всерьёз.
И тут возникла идея: убрать «качели» AC-DC, перейти на постоянный ток и сразу преобразовывать входящие 13,8 кВ в 800 В DC, чтобы максимально упростить всю схему питания.
В итоге мы сокращаем потери энергии, точки отказа, количество оборудования и меди. Плюс на 85% увеличивается передаваемая мощность по тем же проводам.
Vertiv, Delta, Eaton и другие компании активно готовят решения на основе постоянного тока, а первые коммерческие системы ожидаются уже в 2026 году.
🏃♂️ GigaChat 3.1 Ultra & Lightning: большое обновление открытых моделей
В ноябре мы открыли preview-версии GigaChat 3 Ultra и Lightning. С тех пор серьёзно доработали и модели, и весь пайплайн — высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1. Сегодня выпускаем обновлённые GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс под MIT лицензией!
GigaChat 3.1 Ultra
🔘 702B параметров (36B активных на токен)
🔘 По нашим замерам обходит non-reasoning Qwen3-235B-A22B и DeepSeek-V3-0324 в математике и general reasoning
🔘 Существенный прирост качества по сравнению с ноябрьским preview — как в метриках, так и в реальных диалогах
🔘 Контекст 131K токенов
➡️ GitVerse | HuggingFace
GigaChat 3.1 Lightning
🔘 10B параметров (1.8B активных)
🔘 На аренах отвечает на уровне GPT-4o
🔘 Остаётся одной из лучших моделей в своём размере, особенно сильна в function calling
🔘 Серьёзный выигрыш по скорости за счёт MoE + MTP + FP8
🔘 Контекст 256K токенов
➡️ GitVerse | HuggingFace
Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang
Для нас это не просто апдейт весов — это история про то, как переход на новую архитектуру вскрывает неожиданные проблемы на всех уровнях стека, от данных до инфраструктуры.
🤖 Подробнее — в статье на Habr
📌 Google разработала алгоритм квантования KV-кэша без потери точности.
Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.
TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.
KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.
Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.
При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.
Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.
«Сбер» представил новое поколение GigaChat на основе модели GigaChat Ultra
«Сбер» обновил ИИ-помощника 🏷GigaChat. В его основу легла версия модели GigaChat Ultra, которая разработана и обучена в России.
Теперь он запоминает факты о пользователе и использует их для дальнейшей персонализации общения и предлагаемых решений. Кроме этого, помощник самостоятельно ищет информацию в интернете.
GigaChat Ultra позволяет создавать на своей основе прикладные ИИ-продукты и сервисы, а также запускать код в интерпретаторе — изолированной среде в интерфейсе помощника. Помимо этого, обновленный GigaChat генерирует текстовые ответы в два раза быстрее, чем предыдущая версия.
ИИ-модель прошла три этапа обучения. Первый — заключался в обучении на различных материалах. На промежуточном этапе улучшались специализированные навыки: расширен корпус кода, добавлены данные по наукам. На финальном этапе стабилизировалась работа в реальных условиях.
🔗 Источник: https://www.sberbank.ru/ru/sberpress/all/article?newsID=f1a3ecf6-09cd-4d5d-bc58-3b92f4ba790b&blockID=1303&regionID=77&lang=ru&type=NEWS
---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.
🧊 0DIN выпускает сканер безопасности ИИ с открытым исходным кодом
Сканер 0DIN — специализированная платформа для оценки безопасности генеративного ИИ и агентных моделей, созданная на базе открытого проекта GARAK, разработанного командой NVIDIA. На протяжении последних двух лет 0DIN занималась созданием инфраструктуры для поиска, отслеживания и анализа уязвимостей в передовых ИИ-моделях.
Главная особенность сканера заключается в его библиотеке: в отличие от инструментов со статическими проверками, она непрерывно пополняется новыми методами атак (джейлбрейками и инъекциями промптов) на основе реальных отчетов из программы вознаграждений за найденные уязвимости (bug bounty) от 0DIN. Проект имеет открытый исходный код и распространяется по лицензии Apache 2.0.
Сканер построен на основе сканера уязвимостей NVIDIA GARAK LLM. Мы расширили возможности GARAK, добавив графический интерфейс, функцию планирования, нашу собственную библиотеку, отчетность корпоративного уровня и информацию об уязвимостях, поступающую непосредственно из нашей программы вознаграждения за обнаружение ошибок.