opendatascience | Technologies

Telegram-канал opendatascience - Data Science by ODS.ai 🦜

46226

First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev

Subscribe to a channel

Data Science by ODS.ai 🦜

🚀 Qwen3.6-Plus- новый мультимодальный агент от Alibaba
Ключевые особенности:


💻 Agentic Coding - умнее и быстрее в написании кода
👁️ Улучшенное мультимодальное зрение - точнее воспринимает и анализирует визуальный контент
🏆 Топовые общие способности - сохраняет лидерские позиции
📄 Контекстное окно 1M токенов - доступно через API по умолчанию

Модель создана на основе обратной связи от сообщества Qwen3.5. Доступна уже сейчас через chat.qwen.ai и API. Обещают открыть исходный код других моделей серии Qwen3.6.

Chat: https://chat.qwen.ai

API: https://modelstudio.console.alibabacloud.com/ap-southeast-1?tab=doc#/doc/?type=model&url=2840914_2&modelId=qwen3.6-plus

Blog: https://qwen.ai/blog?id=qwen3.6

#Qwen #AI #AgenticCoding #VibeCoding #Agents

🐍 полезные ресурсы 🚀Max

@data_analysis_ml

Читать полностью…

Data Science by ODS.ai 🦜

⚙️ AutoResearchClaw — попытка автоматизировать исследовательский пайплайн

В последнее время заметен сдвиг от отдельных моделей к агентным системам, способным решать сложные многошаговые задачи. Репозиторий AutoResearchClaw предлагает подход к частичной автоматизации научного процесса: исследователь задаёт идею, а система берёт на себя значительную часть рутинной работы — от экспериментов до оформления результатов.

1️⃣ Основной результат

Система реализует итеративный исследовательский цикл. На вход подаётся идея (например, в виде короткого описания задачи), после чего система:
🟣формализует постановку;
🟣собирает контекст и related work;
🟣предлагает метод;
🟣проводит эксперименты;
🟣анализирует результаты и оформляет текст.

Ключевая особенность — это не линейный pipeline, а замкнутый цикл с возвратами, где результаты экспериментов используются для улучшения гипотезы.

2️⃣ Техническая реализация (как устроен цикл)

AutoResearchClaw представляет собой иерархическую агентную систему с оркестратором.

На верхнем уровне находится контроллер, который хранит состояние исследования (гипотеза, код, результаты, текст) и управляет переходами между шагами. Ниже — специализированные агенты: генерация метода, код, запуск экспериментов, анализ и написание текста. Все они взаимодействуют через общее состояние (shared memory).

Цикл работы системы можно описать так:
гипотеза → код → эксперимент → анализ → обновление гипотезы → ...

При этом важна именно стадия обновления гипотезы. После каждого эксперимента система формирует контекст (метрики, ошибки, сравнение с baseline) и с помощью LLM предлагает модификации:
🟣изменение архитектуры или pipeline;
🟣добавление регуляризации или новых признаков;
🟣корректировку training-стратегии.

Эти изменения применяются к коду, после чего цикл повторяется. Таким образом реализуется итеративный поиск в пространстве решений, где гипотеза постепенно уточняется.

3️⃣ Условие выхода из цикла

Остановка процесса задаётся эвристически. Обычно используется комбинация:
🟣достижение приемлемого качества (по метрикам),
🟣отсутствие значимого улучшения на нескольких итерациях,
🟣ограничение по числу запусков или времени.

После этого система переходит к финальному этапу — сборке текста статьи на основе накопленных результатов.

4️⃣ Заключительные замечания

Сильная сторона подхода — в том, что он делает явным исследовательский цикл и переносит рутинные этапы (эксперименты, код, текст) на агентную систему. Это может существенно ускорить проверку гипотез и построение baseline-решений.

Ограничения при этом остаются: качество сильно зависит от прокси-метрик, новизна часто носит композиционный характер, а интерпретация результатов по-прежнему требует участия исследователя. В этом смысле система выступает скорее как инструмент-ассистент, чем автономный «учёный».

Как вы думаете, если такие системы станут зрелыми, как изменится роль исследователя — и где пройдёт граница между идеей и её реализацией?

Обзор инструмента подготовлен командой AI VK
#обзоринструмента

Читать полностью…

Data Science by ODS.ai 🦜

Парень переписал Claude Code на Python за ночь - и взорвал GitHub

Anthropic случайно засветили исходники своего ИИ-редактора Claude Code и они мгновенно разлетелись по сети.

Разработчик из Южной Кореи, Sigrid Jin, увидел это в 4 утра и не стал ждать.

За одну ночь он переписал ключевые части проекта на Python и выложил форк под названием Claw Code.

Результат:
- 50 000 звёзд всего за 2 часа
- вирусное распространение по всему GitHub
- полноценный агентный стек, сохранённый в новой реализации

Сейчас он уже работает над версией на Rust.

История про то, как скорость и скилл иногда решают больше, чем команды и бюджеты

https://github.com/instructkr/claw-code

🐍 полезные ресурсы 🚀Max

@machinelearning_interview

Читать полностью…

Data Science by ODS.ai 🦜

❗️ GitHub Copilot будет обучаться на данных пользователей с 24 апреля 2026 по умолчанию

С 24 апреля GitHub Copilot по умолчанию начнет использовать данные пользователей тарифов Free, Pro и Pro+ для обучения своих ИИ-моделей. Нововведение не затрагивает корпоративных клиентов с подписками Business и Enterprise.

К собираемой информации относятся: «вводимая информация, получаемые результаты, фрагменты кода и сопутствующий контекст». Официальные представители подчеркивают, что не обучают модели на данных из закрытых репозиториев. При этом любой участок приватного кода, проанализированный плагином Copilot для генерации подсказок, классифицируется как пользовательское взаимодействие и забирается в обучающую выборку.

👆Аудитория портала Hacker News восприняла анонс крайне негативно, расценив его как нарушение приватности и злоупотребление доверием. Разработчики и IT-специалисты возмущены тем, что компания активирует передачу данных по умолчанию. Сообщество настаивает на том, что предоставление доступа к приватному коду должно происходить исключительно путем добровольного и явного согласия. Текущий подход воспринимается как попытка незаметно завладеть чужой интеллектуальной собственностью, рассчитывая на невнимательность людей.

Заявления сотрудников GitHub о том, что репозитории не используются целиком, не успокоили аудиторию. Пользователи сочли это объяснение лукавством и жонглированием словами. Copilot анализирует огромные массивы контекстного кода из приватного репозитория. Закрытый код неизбежно попадает в обучающую выборку в виде «контекста взаимодействия».

😎Чтобы отказаться от сбора данных, нужно перейти в раздел настройки конфиденциальности учетной записи (Privacy) и отключить опцию♋️Allow GitHub to use my data for AI model training.

@Russian_OSINT

Читать полностью…

Data Science by ODS.ai 🦜

Недавно крупная — пожалуй даже, возможно, крупнейшая — конференция по ИИ, NeurIPS — заблокировала доступ китайских исследователей. Официальная причина — не может взаимодействовать с находящимися под санкциями США, неофициальная — доминирование китайских участников.

Китайцы массово возмутились и раскачали ситуацию до выбивания извинений, но дальнейшие шаги гораздо показательнее.

Все китайские спонсоры, а их много и платили они прилично — свернули поддержку. Там Huawei, Tencent и так далее.

Китайские участники, которых приглашали вести там секции, массово отказались, чем загнали организаторов в ситуацию с масштабным переформатированием события.

CCF, Китайская компьютерная федерация, сказала участникам никак не взаимодействовать с NeurIPS и будет убирать организацию из учитываемых ачивок. Вы там участвовали — это теперь ни во что не засчитывается.

Китайская академия наук вообще зарубила всё что связано с NeurIPS; участие в review научных работ, публикации в связанных с конференцией журналах (!!!) и прочее теперь не будут учитываться для карьеры. Вы не сможете добавить в резюме свою деятельность и научные работы, если публикуетесь.

Лихо взялись, показательно.

Наши же, после такого же подхода (см. последний скриншот), продолжают пытаться подаваться. И никаких ограничений для структур американского научного события, которое стало из научного политическим, не вводят.

Читать полностью…

Data Science by ODS.ai 🦜

ДИСТИЛЛЯЦИЯ МОЗГОВ

В Кремниевой долине — великий плач нейро-куколдов: «Нас дистиллируют!». Китайские братушки и просто ушлые кодеры берут их жирные модели, в которые вбуханы миллиарды инвесторской нефти, и выжимают из них эссенцию в копеечный файл. Вор у вора дубинку украл: ребята годами пылесосили весь интернет, воруя наши книги, посты и фотки бывших под соусом «прогресса», а теперь искренне корчатся, когда их самих засунули в цифровой самогонный аппарат. Карма — штука алгоритмическая.

Для тех, кто в танке: дистилляция в AI — это когда ты не жжешь электричество целой страны на обучение сетки, а просто заставляешь маленькую модельку повторять ответы большой и тупой. Дешево, эффективно и без лишнего пафоса про «миссию человечества». Это просто краткий конспект чужого грабежа. Ну типа "дай шпоры списать".

А правда в том, что идет ДИСТИЛЛЯЦИЯ МОЗГОВ. Вот сам придумал термин — самому нравится. Но с этим процессом вы уже ничего не сделаете. Уж больно много ресурсов вбухано в глобальный самогонный аппарат!

Читать полностью…

Data Science by ODS.ai 🦜

Ездили с коллегами на неделю в AI-экспедицию в Китай. Были в нескольких компаниях. Презентации показать не могу, а про разницу корпоративных культур расскажу 😎

China Telecom. Государственная машина. Вход по паспортам. Доклад на трибуне. Параллельно-перпендикулярная дисциплина. Ощущение как будто на приёме в министерстве. При этом у них 160 AI-приложений внутри, собственная LLM на отечественных чипах Huawei и 40% кода пишется AI. Военная выправка + непрерывная трансформация. Уважаю 💪

Baidu. Расслабленные техногики. Презентации перевели на русский… но не дальше первой страницы. Наклеечки "посетитель" на одежду, на которые всем наплевать 😁 Хороший демо-стенд, свои чипы Kunlun, ERNIE 5.0. Атмосфера — университетская лаборатория, в которую случайно пустили серьезных дядек в пиджаках

Alibaba. Пожалуй, ближе всех к теме AI. Презы на русском. Кофе-брейк сделали (единственные!). Культура в меру формальная, в меру амбициозная. Единственные из всех показали реальные метрики с конкретными цифрами результатов внедрения AI. Не слайды «мы планируем», а «вот что получилось» 🔥

JD. Лучшая демо-зона. Единственные напоили горячим чаем ☕️ Транспарант на стене: Don’t forget the customers when making decision. Осведомлены о нас, интродакшн на русском, бейджи VIP на шею. В меру техногики, в меру enterprise

И вот что меня зацепило в JD больше всего. Они не аутсорсят людей. Все функции — внутренние. 50 000 AI-агентов создают сами сотрудники. Не можешь делать агентов — не получаешь повышение. 40% кода генерирует AI. R&D +66% год к году. При этом финальное решение — всегда за человеком. Это не «AI заменит людей». Это «AI усилит тех, кто готов учиться».

И ещё: когда мы спросили про безопасность агентов — не ответили, посчитав вопрос «щекотливым». Мол, мы всё решили, у нас всё безопасно 😏 Впрочем, у всех компаний уровень раскрытия по ИБ — примерно ноль: строгие требования от государства, есть команда, всё безопасно, точка. Знакомо, правда? 🤷

Больше всего мне понравилась культура в JD. Не потому что чай вкусный (хотя да). А потому что это редкая комбинация — технологическая амбиция + уважение к людям + культура, где каждый сотрудник создатель, а не исполнитель. Где agent literacy — это не модное слово, а карьерный KPI. В JD нет разговоров про «внедрение AI». Там AI — это просто то, как все работают 🤯

Читать полностью…

Data Science by ODS.ai 🦜

Это войдёт в историю: как основатель GitLab использовал ИИ в борьбе с раком

У Сида Сийбранди, основателя GitLab, диагностировали редкую форму рака. Стандартные протоколы лечения не давали результата, и в какой-то момент врачи сказали: больше ничего нельзя сделать.

Сид не принял это как приговор. Он собрал команду экспертов, погрузился в медицинскую литературу и начал самостоятельно разбираться в вариантах терапии. В этом процессе одним из главных инструментов стал ChatGPT.

Что именно делал ИИ в этой истории? Не ставил диагнозы и не назначал лечение - это по-прежнему задача врачей.

Но он помог в разы ускорить работу с огромным массивом научных данных: быстро находить релевантные исследования среди тысяч публикаций, структурировать медицинскую информацию о состоянии здоровья, формулировать правильные вопросы для специалистов и сравнивать разные подходы к лечению.

Сейчас рак Сида в ремиссии

@machinelearning_interview

Читать полностью…

Data Science by ODS.ai 🦜

А ваш как помогает?

📟📟📟📟

Читать полностью…

Data Science by ODS.ai 🦜

🔥 Huawei бьёт рекорды: новый ИИ-чип Ascend 950PR нашёл крупных клиентов в Китае

Китайские гиганты активно переходят на отечественные решения. По свежим данным, ByteDance и Alibaba получили образцы нового флагманского ИИ-чипа Huawei и планируют крупные заказы.

Речь идёт об Ascend 950PR — чипе, который используется в ускорителе Atlas 350. Он выдаёт впечатляющие 1,56 петафлопс в FP4-вычислениях и в два раза мощнее китайской версии Nvidia H20. При этом чип оптимизирован именно для этапа prefill в инференсе и рекомендательных систем, а также использует более дешёвое решение HBM, что делает его значительно выгоднее по цене.

Что известно о заказах:
• ByteDance и Alibaba уже протестировали образцы в январе.
• В 2026 году они ожидают поставки около 750 000 единиц Ascend 950PR.
• Массовое производство может стартовать уже к концу апреля, а объёмы существенно вырастут во второй половине года.

Это яркий сигнал: несмотря на санкции США, Huawei уверенно закрывает технологический разрыв и выигрывает доверие главных игроков китайского ИИ-рынка. Правительство КНР активно продвигает переход на domestic-чипы, и новый Ascend 950PR идеально вписывается в эту стратегию — мощный, совместимый с CUDA-экосистемой и при этом экономически привлекательный.

Huawei продолжает наращивать производство и развивать roadmap Ascend на ближайшие годы. Похоже, 2026-й станет переломным в борьбе за китайский рынок.

Оригинальная статья

#КитайскийИИ #Huawei #Ascend #ByteDance #Alibaba

Читать полностью…

Data Science by ODS.ai 🦜

Российский бизнес массово сворачивает ИТ-проекты по внедрению генеративного ИИ.
Статья на cnews сообщает, что из всех запущенных проектов с использованием ИИ живы остались только 10%.
Из причин респонденты называют - вндеряли не туда, внедряли для хайпа а не для пользы, внедряли без понимания, как это работает.
Мы как айтишники, все еще ждем серьезных подтверждений работающих решении ИИ, которые make a difference, а не просто чуть-чуть помогают. Пока успехи с реальными примерами наблюдаются не у бизнеса, а у багхантеров.
А в реальной жизни пока что советы ии (Пентагон подтвердил внедрение Palantir, и за 2025 отгрузил им $1,3 млрд.) приводят к военным преступлениям.

Читать полностью…

Data Science by ODS.ai 🦜

ARC-AGI-3 - бенчмарк,показал неприятную для всей индустрии вещь: даже топовые frontier-модели сейчас набирают меньше 1%.

Лучшие результаты на старте такие:

- Gemini 3.1 Pro Preview - 0.37%
- GPT-5.4 High - 0.26%
- Opus 4.6 Max - 0.25%

И это, пожалуй, главный вывод.

ARC-AGI-3 - это уже не набор статичных головоломок, как в прошлых версиях ARC. Теперь это интерактивные игровые миры, где агенту нужно самому разбираться, что вообще происходит.

Что именно проверяет новый тест:

- исследование незнакомой среды с нуля
- поиск целей и правил без текстовых инструкций
- построение своей модели мира по ходу задачи
- длинное планирование на много шагов вперёд
- обучение на опыте, а не по шаблону
- пересмотр гипотез, если первые догадки оказались неверными

То есть здесь уже мало просто "хорошо рассуждать в чате".

Нужно адаптироваться в реальном времени, помнить прошлые действия, извлекать сигналы из слабой обратной связи и не скатываться в перебор.

Внутри ARC-AGI-3:
- 150+ новых интерактивных окружений
- почти 1 000 уровней
- replay-сессии, где можно смотреть весь таймлайн решений агента

Скоринг считает не только факт решения, а то, насколько эффективно модель осваивает навык по сравнению с человеком.

Именно поэтому результаты выглядят настолько жёстко.

По сути, ARC Prize говорит прямо:
пока между человеком и ИИ есть такой разрыв в освоении новых задач, говорить о настоящем AGI рано.

И это, возможно, один из самых честных тестов за последнее время.

Не потому что модели "слабые".
А потому что реальная универсальная адаптация всё ещё не решена.

https://arcprize.org/

🐍 полезные ресурсы 🚀Max

@data_analysis_ml

Читать полностью…

Data Science by ODS.ai 🦜

ГОЛЛИВУД ПОБЕДИЛ
Сёма развёлся с Sora

Самая расхайпованная на свете лавка Шмуля Альтмана (фото) – изобретатель ChatGPT – OpenAI объявила о закрытии генеративной нейросети Sora. Эту фичу специально вывели два года назад для создавания качественных видео по текстовому запросу. Массовый пользователь получил доступ к этому ГИИ в ноябре 2025-го.

Sora вызвала бурю негодований в Голливуде и бурную радость криминала. Первым это ПО угрожало минимум – исключением живых актеров из съёмок, вторым – сулила лёгкое и почти даровое создание дипфейков для любых кибервзломов. В сопоре о Sora победил Голливуд.

OpenAI откажется от поддержки версии нейросети для разработчиков и от видеофункционала в чат-боте ChatGPT.
"Мы прощаемся с приложением Sora. Спасибо всем, кто творил с помощью Sora, делился своими работами и создавал вокруг них сообщество", написали якобы от команды проекта в Х. Создатели обещали рассказать о способах сохранить сгенерированный контент. Позже.

По словам самого Шмуля Иеремиевича, команда Sora займется долгосрочными проектами, например, – робототехникой. Но это – не точно. Возможно, уволят всех, как обычно. OpenAI планирует изменить стратегию, сосредоточиться на разработке инструментов для повышения продуктивности корпораций и частных пользователей.

ВАШУ ЦИФРУ! Настоящая причина, конечно, не опасность интернет-ворья и не визги с хуйливудских пригорков. Дело – в деньгах и рынке. OpenAI запустила Sora в надежде ее применения в создании вертикальных видео для TikTok. Но много воды утекло. Китаёзскую сеть в США прижали, а Сёму заткнули, точнее "направили в позитивное русло" крупным контрактом с Пентагоном.

Ведь еще год назад сотрудники OpenAI поражались: зачем сколько денежных и вычресурсов Сэмэн вкладывает в крайне рискованный проект, при полном отсутствии признаков его востребованности для работы на благие цели

Читать полностью…

Data Science by ODS.ai 🦜

Openpilot 0.11 — первый робо-агент, обученный только на симуляциях

Команда Comma.ai опубликовала интересный пост, где утверждает, что впервые в истории индустрии выпустила на дороги робо-агент, полностью обученный в вымышленной нейросетями симуляции.

Немного контекста: в Comma.ai разрабатывают систему помощи водителю, совместимую со многими моделями автомобилей. Система работает на втором уровне автономности — умный лейн-кипинг в широком спектре сценариев. Эта задача гораздо проще, чем полностью автономное вождение, что позволяет Comma.ai экспериментировать.

В то время как Waymo и британская команда Wayve интегрируют модели мира в свои пайплайны, Comma.ai идёт ещё дальше и отказывается от всего, кроме модели мира. Похожую идею предлагали учёные из Беркли в классической для робототехники статье DayDreamer — интересно, что этот подход удалось адаптировать для автономного вождения.

Вот что предлагают создатели Openpilot 0.11:

Шаг 1. Собрать 40 тысяч часов интересных видео, записанных флотом автономного транспорта и разбить их на сцены по 10 секунд с частотой 5 Гц.

Шаг 2. Обучить на этом датасете двухголовую модель мира:

🔴 первая голова предсказывает по видеоконтексту следующее действие эго-агента,
🔴 вторая — генерирует следующий кадр по видеоконтексту и только что полученному следующему действию.

Потом к контексту добавляется сгенерированный кадр, и процесс повторяется.

Секретный ингредиент — подавать на вход модели не только две секунды истории, но и последнюю секунду в эпизоде. Так ей понадобится предсказывать только промежуточную траекторию — это значительно улучшает сходимость. В итоге получается достаточно реалистичный симулятор вождения, который генерирует следующий кадр по двум секундам видео и действию эго.

Шаг 3. Обучить в полученном симуляторе небольшую модель-водителя, которая должна сходиться в финальное состояние по одному лишь видео, не видя последний кадр. Щедро насыпать шум на всех стадиях для устойчивости.

Openpilot 0.11 обучали on-policy — модель много едет по сгенерированной ей самой траектории, что выгодно отличает подход от обычного imitation learning.

При этом награды или штрафы не задавались явно — по опыту reinforcement learning, конструирование наград иногда всё только портит. Авторы усвоили горький урок: для того чтобы всё сошлось, достаточно увеличить количество данных и размер модели.

Единственная проблема, которая остаётся, — модель-водитель может научиться ломать симуляцию непредсказуемыми способами. Авторы утверждают, что это решается за счёт гипотезы большого мира: одновременно увеличивать и модель мира, и размеры водителя так, чтобы мир всегда был на порядок больше.

В парадигме Level 2 получается хороший результат — агент держит линию и расстояние до других, объезжает запаркованные авто. Но вопрос, будет ли это скейлиться на более сложные задачи, остаётся открытым.

Разбор подготовил ❣️ Кирилл Федянин
404 driver not found

Читать полностью…

Data Science by ODS.ai 🦜

В Китае озабочены Generative Engine Optimization

Китайские сервисы по оптимизации генеративных запросов наполняют интернет большим объёмом мусорных статей. О проблемах манипуляции ИИ-моделями в рекламных целях рассказала ежегодная передача по случаю Дня защиты прав потребителей (3.15 Gala).

Поскольку интернет-пользователи всё больше полагаются на ИИ-решения (в Китае DeepSeek, Doubao и Kimi), а не поисковики, на смену поисковой оптимизации приходит генеративная (Generative Engine Optimization, GEO). В Китае сформировался рынок GEO-услуг: компании могут заказывать выведение в топ своего бренда или дискредитацию конкурента. Для этого моделям скармливается нужная информация, которую генерируют с помощью тех же моделей.

Журналисты продемонстрировали, насколько просто сейчас можно заставить ИИ выдать нужный результат. Иными словами, насколько неразборчивы модели. GEO-сервис использовался для продвижения несуществующего фитнес-трекера Apollo-9. Спустя пару часов после генерации и публикации рекламного контента два ИИ-чатбота не только упомянули «продукт» по тематическому запросу, но и включили его в топ лучших.

Проблема касается и западных моделей: в феврале журналист BBC поставил опыт и, потратив 20 минут, смог сделать себя лучшим технологическим журналистом по поеданию хот-догов в «глазах» ChatGPT и Gemini. Для этого ему потребовалось всего лишь написать статью с рейтингом на личном сайте (позднее он добавил приписку, что это не сатира, чтобы и ИИ относился к материалу серьёзно).

Возможно, в Китае ситуация с рекламным отравлением моделей обстоит острее в связи с большим внедрением ИИ в повседневную жизнь, чем на Западе или в России. Но это только вопрос времени.

Читать полностью…

Data Science by ODS.ai 🦜

🚀 Gemma 4 - новое семейство открытых моделей Google, которые можно запускать прямо на своём железе.

Модели заточены для сложного reasoning и агентных задач.

🔵 Доступны в четырёх вариантах:

31B Dense и 26B MoE
Топовый уровень производительности для сложных локальных задач: кастомные код-ассистенты, анализ научных данных и не только.

E4B и E2B (Edge)
Оптимизированы для мобильных устройств — работают в реальном времени с текстом, изображениями и аудио.

🤖 Что можно делать:

• строить автономных ИИ-агентов
• планировать и выполнять многошаговые задачи
• взаимодействовать с приложениями
• искать данные и вызывать API

👉 Встроенная работа с инструментами (tool use) из коробки.

🧠 Контекст до 256K токенов:

• анализ целых кодовых баз
• длинные цепочки действий без потери контекста
• стабильная работа в сложных сценариях

⚡️ Начать можно уже сейчас через Google AI Studio

Также веса моделей доступны на Hugging Face, Kaggle и Ollama

Лицензия: Apache 2.0.

https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/

@ai_machinelearning_big_data

#Gemma

Читать полностью…

Data Science by ODS.ai 🦜

Ув. подписчик поделился ресурсом, который аггрегирует случаи ущерба от вайбкодинга.
Среди них - потерям Амазоном 6 млн заказов, Zero-click RCE на устройствах пользователей vibe-coding площадки, и закрытие одного стартапа, полностью написанного ИИ из-за доступа к платным фичам через смену одного параметра в куках.
Что интересно, что сделал его стартап, продукт которого - AI интервьюер, который тренирует тебя к собеседованиям.
Поговорка про стеклянный инструмент и дурака обретает новые смыслы.

Читать полностью…

Data Science by ODS.ai 🦜

✔️ OpenAI сделала плагин Codex для Claude Code.

Расширение позволяет вызывать Codex напрямую из рабочего процесса для код-ревью и делегирования задач. Инструмент поддерживает базовую проверку синтаксиса, расширенное интерактивное ревью с наводящими вопросами и автоматическое расследование дефектов с исправлением багов.

Плагин работает через локальный Codex CLI и не изолирован от системы. Он наследует авторизацию устройства, конфигурацию, переменные окружения и доступ к репозиториям.

Для установки дополнения потребуется Node.js версии 18.18 или новее, а также любая учетная запись ChatGPT, включая бесплатный тариф, либо API-ключ OpenAI. Исходники плагина опубликованы на Github.
community.openai.com

✔️ Google выпустила Veo 3.1 Lite.

Новинка замыкает линейку Veo 3.1 и ориентирована на массовую генерацию контента. Стоимость создания на новой модели на 50% меньше. чем на версии Fast.

Lite генерирует ролики на основе текста или изображений, предлагая базовые настройки ориентации кадра и длительность в 4, 6 или 8 секунд. 4K не поддерживается, доступны только 720p и 1080p.

Доступ к Veo 3.1 Lite уже открыт на платных тарифах в Gemini API и платформе Google AI Studio. Одна секунда видео в 720p обойдется в 5 центов, а в 1080p - в 8 центов. Также анонсировано снижение тарифов для Veo 3.1 Fast с 7 апреля.
blog.google

✔️ Nebius Group построит в Финляндии один из крупнейших в Европе дата-центров для ИИ.

Nebius, основанная бывшим главой Яндекса Аркадием Воложем, инвестирует более 10 млрд. долларов в вычислительный комплекс мощностью 310 МВт. Объект возводится в Лаппеэнранте, а его поэтапный ввод в эксплуатацию начнется в 2027 году.

Выбор локации продиктован холодным климатом и прямым доступом к недорогой возобновляемой энергии. Этот дата-центр станет крупнейшей площадкой Nebius за пределами США и обеспечит около 10% от всей запланированной мощности компании.
reuters.com

✔️ В Китае запущена первая полностью автоматизированная линия по производству гуманоидных роботов.

Предприятие в городе Фошань рассчитано на выпуск 10 000 человекоподобных машин ежегодно. Переход на конвейерный формат сократил время сборки одного устройства в среднем до 30 минут. Это повысило общую эффективность производства более чем на 50% по сравнению с традиционными методами сборки.

Технологический процесс состоит из 24 этапов и включает 77 процедур для проверки безопасности и надежности узлов. Линия отличается высокой гибкостью: архитектура конвейера позволяет одновременно выпускать различные модификации роботов для разных нужд - от заводских цехов до медицинских учреждений.

Тренд на массовое производство поддерживают и другие локальные разработчики: Unitree и UBTech планируют поставить на рынок десятки тысяч роботов уже к концу этого года, а Agibot отгрузила более 5 тыс. единиц в 2025 году.
cctvplus.com

✔️ Micron начал разработку многослойной графической памяти GDDR.

Вендор применит к GDDR подход вертикальной компоновки из чипов HBM, чтобы заполнить нишу между дорогой HBM и классической GDDR. До конца года Micron подготовит оборудование и приступит к тестовому производству, а первые четырехслойные инженерные образцы появятся в 2027 году,

С развитием ИИ рынку требуются более доступные решения, особенно для инференса, где HBM избыточна, а производительности обычной графической памяти не хватает. Многослойная GDDR даст повышенную пропускную способность и увеличенную емкость, сохранив при этом конкурентную цену. Помимо ИИ-ускорителей, новые чипы найдут применение в игровых видеокартах.

Для запуска производства Micron предстоит преодолеть ряд инженерных барьеров: контроль тепловыделения, оптимизация энергопотребления и удержание низкой себестоимости сложного процесса упаковки.
etnews.com

@ai_machinelearning_big_data

🐍 полезные ресурсы 🚀Max

#news #ai #ml

Читать полностью…

Data Science by ODS.ai 🦜

Улыбка, которую запомнил весь мир

Читать полностью…

Data Science by ODS.ai 🦜

И.А. Самыловский (ФКИ МГУ), Задачи оптимизации в планировании орбитальной съёмки

YouTube->
Дзен->
RuTube->
Файл->

И канал, который ведёт докладчик: @astrodynlab

Читать полностью…

Data Science by ODS.ai 🦜

Привет!

Встречайте двенадцатый выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают конференцию по обработке текстов в Марокко, достижения в области искусственного общего интеллекта (AGI) и важность взаимодействия между людьми и ИИ. Они также затрагивают тему программирования с помощью LM-агентов и подчеркивают значимость умения слушать в современном мире.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).

Читать полностью…

Data Science by ODS.ai 🦜

🤖 Компания Z.ai (создатели моделей GLM) выпустили AutoClaw - инструмент, который позволяет запускать OpenClaw локально, без интернета и без API-ключей.

OpenClaw - это ИИ-агент, который умеет выполнять многошаговые задачи и использовать инструменты (например, подключаться к Slack, Telegram, Discord, WhatsApp и другим сервисам).

В чем плюсы AutoClaw:
• Скачал - запустил. Никаких API-ключей не нужно
• Можно использовать любую модель или встроенную GLM-5-Turbo, заточенную под работу с инструментами и сложными задачами
• Полностью локально, твои данные никуда не уходят

По сути, это локальный аналог таких агентов, как Cursor или Operator, но работающий целиком на твоей машине, без слежки и без подписок.

AutoClaw: https://autoglm.z.ai/autoclaw/
Discord: https://discord.gg/jvrbCRSF3x

@ai_machinelearning_big_data

Читать полностью…

Data Science by ODS.ai 🦜

ИИ начал находить настоящие баги в ядре Linux. И никто не понимает, почему именно сейчас

Грег Кроа-Хартман, один из ключевых мейнтейнеров ядра Linux, заявил что ситуация с AI-сгенерированными баг-репортами кардинально изменилась.

Ещё недавно это был поток мусора - теперь это реальные баги с рабочими патчами.
Его слова: «Что-то произошло месяц назад, и мир переключился.

Теперь к нам приходят настоящие отчёты». И это не только Linux - по его словам, все крупные open source проекты видят то же самое. Команды безопасности общаются между собой неформально, и картина везде одинаковая.

Никто не понимает, что именно изменилось. Кроа-Хартман говорит прямо: «Мы не знаем. Никто не знает почему. То ли инструменты стали сильно лучше, то ли люди просто начали пробовать. Похоже, что это много разных групп и компаний одновременно».
Ядро Linux справляется - команда большая и распределённая.

Баги мелкие, не критические, но поток реальный и не замедляется.

А вот для маленьких open source проектов это проблема. У них просто нет людей, чтобы обработать внезапный наплыв качественных AI-репортов.

Раньше страдали от мусорных репортов, теперь страдают от настоящих.
По сути мы наблюдаем момент, когда AI-инструменты для поиска уязвимостей перешли из категории «игрушка» в категорию «инфраструктура». И open source к этому не готов.

theregister.com/2026/03/26/greg_kroahhartman_ai_kernel/

🐍 Linux полезные ресурсы 🚀Max

@linuxkalii

Читать полностью…

Data Science by ODS.ai 🦜

В AIRI, «Сбере» и «Сколтехе» создали детектор ошибок сжатия в работе ИИ-систем

Решение направлено на улучшение обработки длинных диалогов. Детектор решает проблему переполнения токенов (Token Overflow) — искажения данных при превышении пороговых значений сжатия. Он представляет собой обучаемый классификатор, который проверяет токены до того, как они попадут в большую языковую модель, и не пропускает испорченный контекст. В этом случае система может использовать несжатый текст или найти актуальные документы.

«Наше решение выполняет функцию защитного механизма: мы научились автоматически детектировать порог, за которым краткость перестает быть оптимизацией и ведет к ошибкам, вызывая потерю устойчивости модели», — объяснил директор Центра практического искусственного интеллекта «Сбера» Николай Тиден.

Классификатор задействовали при обновлении GigaChat Ultra от «Сбера». С помощью детектора модель научилась запоминать факты о пользователях и применять их для персонализации общения.

🔗Источник: https://www.sberbank.ru/ru/sberpress/all/article?newsID=63721a59-801d-489e-9537-6f7f2e79b279&blockID=1303&regionID=77&lang=ru&type=NEWS

---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.

Читать полностью…

Data Science by ODS.ai 🦜

коллеги прислали ссылку на статью из журнала "Природа" Nature, которая посвящена тому, чтобы обучить LLM рассуждать байесовски; тут надо сделать отступление и пояснить, что это такое, а то не все в курсе; байесовское принятие решений - это когда субъект делает вероятностное суждение об объекте: например, вдалеке видно какое-то животное, можно предположить, что это скорее всего собака, но может быть и волк (1 картинка)

важно отметить, что а) люди в среднем без специального обучения так рассуждать не умеют, про это написано много литературы, б) как следствие, LLM тоже не умеют; так вот коллеги придумали, как их обучить (2 картинка); интересно, что байесовские рассуждения распространяются за пределы обучаемого домена, то есть модели реально выучивают этот навык

но самый большой недостаток статьи на мой взгляд раскрывает 3 картинка - при взаимодействии с реальным пользователем улучшения против необученной LLM нет; это возвращает нас к началу - люди байесовски думать не умеют и не могут

@valuableai

Читать полностью…

Data Science by ODS.ai 🦜

Похоже, «война токов» возвращается ⚡️ Дата-центры предлагают перевести на постоянный ток

ИИ-инфраструктура заставляет пересматривать то, что десятилетиями считалось нормой. Сегодня почти все ЦОДы работают на переменном токе, и выглядит примерно так: ток приходит, понижается, превращается в постоянный, потом обратно в переменный… и снова в постоянный уже перед серверами. Несколько преобразований подряд – и на каждом этапе теряется энергия.

Раньше это было терпимо: стойка на 10 кВт не делала погоды. Но в эпоху ИИ всё иначе – одна стойка может потреблять до 1 МВт. И тут потери, нагрев и даже расход меди начинают бить по экономике всерьёз.

И тут возникла идея: убрать «качели» AC-DC, перейти на постоянный ток и сразу преобразовывать входящие 13,8 кВ в 800 В DC, чтобы максимально упростить всю схему питания.

В итоге мы сокращаем потери энергии, точки отказа, количество оборудования и меди. Плюс на 85% увеличивается передаваемая мощность по тем же проводам.

Vertiv, Delta, Eaton и другие компании активно готовят решения на основе постоянного тока, а первые коммерческие системы ожидаются уже в 2026 году.

Читать полностью…

Data Science by ODS.ai 🦜

🏃‍♂️ GigaChat 3.1 Ultra & Lightning: большое обновление открытых моделей

В ноябре мы открыли preview-версии GigaChat 3 Ultra и Lightning. С тех пор серьёзно доработали и модели, и весь пайплайн — высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1. Сегодня выпускаем обновлённые GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс под MIT лицензией!

GigaChat 3.1 Ultra
🔘 702B параметров (36B активных на токен)
🔘 По нашим замерам обходит non-reasoning Qwen3-235B-A22B и DeepSeek-V3-0324 в математике и general reasoning
🔘 Существенный прирост качества по сравнению с ноябрьским preview — как в метриках, так и в реальных диалогах
🔘 Контекст 131K токенов
➡️ GitVerse | HuggingFace

GigaChat 3.1 Lightning
🔘 10B параметров (1.8B активных)
🔘 На аренах отвечает на уровне GPT-4o
🔘 Остаётся одной из лучших моделей в своём размере, особенно сильна в function calling
🔘 Серьёзный выигрыш по скорости за счёт MoE + MTP + FP8
🔘 Контекст 256K токенов
➡️ GitVerse | HuggingFace


Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang

Для нас это не просто апдейт весов — это история про то, как переход на новую архитектуру вскрывает неожиданные проблемы на всех уровнях стека, от данных до инфраструктуры.

🤖 Подробнее — в статье на Habr

Читать полностью…

Data Science by ODS.ai 🦜

📌 Google разработала алгоритм квантования KV-кэша без потери точности.

Подразделение Research анонсировало TurboQuant, алгоритм векторного квантования, объединяющий 2 других метода - QJL и PolarQuant, который решает проблему увеличения KV-кэша при работе с длинным контекстом.

TurboQuant будет представлен на ICLR 2026, PolarQuant - на AISTATS 2026.

KV-кэш хранит промежуточные представления токенов, чтобы модель не пересчитывала их на каждом шаге генерации. С ростом контекста он превращается в узкое место по памяти.

Обычное векторное квантование сжимает эти данные, но вносит накладные расходы: для каждого блока нужно хранить константы квантования в полной точности, а это плюс 1–2 бита на элемент, что частично обесценивает само сжатие.


🟡TurboQuant - двухэтапный пайплайн.

Сначала PolarQuant: случайный поворот выравнивает геометрию векторов, после чего они переводятся из декартовых координат в полярные (радиус и угол). Распределение углов оказывается предсказуемым и сконцентрированным, поэтому нормализация и хранение дополнительных констант становятся больше не нужны.

На втором этапе подключается QJL, метод на основе преобразования Джонсона-Линденштраусса, который кодирует остаточную ошибку первого этапа всего одним знаковым битом и через встроенную оценочную функцию сочетает высокоточный запрос с низкоточными сжатыми данными, корректно вычисляя attention score.

Ни один из методов не требует обучения или дообучения и работает в режиме "без предварительного анализа набора данных".

Алгоритмы тестили на бенчмарках для длинного контекста: LongBench, Needle In A Haystack, ZeroSCROLLS, RULER и L-Eval с моделями Gemma и Mistral.

При квантовании KV-кэша до 3 бит TurboQuant показал нулевую деградацию точности на всех задачах: поиск «иголки в стоге сена», QA, генерация кода, суммаризация.


Объем KV-кэша при этом сократился в 6 раз. На H100 четырехбитный TurboQuant ускорил вычисление attention-логитов до 8 раз по сравнению с 32-битными ключами.


Область применения не ограничивается KV-кэшем. В экспериментах с высокоразмерным векторным поиском TurboQuant стабильно превзошел по recall методы PQ и RaBitQ несмотря на то, что те использовали крупные код-буки и подстройку под конкретный датасет.


🟡Статья
🟡Arxiv


@ai_machinelearning_big_data

🎯Полезные Мл-ресурсы 🚀 Max

#AI #ML #LLM #TurboQuant #Google

Читать полностью…

Data Science by ODS.ai 🦜

«Сбер» представил новое поколение GigaChat на основе модели GigaChat Ultra

«Сбер» обновил ИИ-помощника 🏷GigaChat. В его основу легла версия модели GigaChat Ultra, которая разработана и обучена в России.

Теперь он запоминает факты о пользователе и использует их для дальнейшей персонализации общения и предлагаемых решений. Кроме этого, помощник самостоятельно ищет информацию в интернете.

GigaChat Ultra позволяет создавать на своей основе прикладные ИИ-продукты и сервисы, а также запускать код в интерпретаторе — изолированной среде в интерфейсе помощника. Помимо этого, обновленный GigaChat генерирует текстовые ответы в два раза быстрее, чем предыдущая версия.

ИИ-модель прошла три этапа обучения. Первый — заключался в обучении на различных материалах. На промежуточном этапе улучшались специализированные навыки: расширен корпус кода, добавлены данные по наукам. На финальном этапе стабилизировалась работа в реальных условиях.

🔗 Источник: https://www.sberbank.ru/ru/sberpress/all/article?newsID=f1a3ecf6-09cd-4d5d-bc58-3b92f4ba790b&blockID=1303&regionID=77&lang=ru&type=NEWS

---
Подпишитесь на Email-рассылки ICT.Moscow по общей ИТ-повестке, искусственному интеллекту и аналитике, чтобы всегда оставаться на связи.

Читать полностью…

Data Science by ODS.ai 🦜

🧊 0DIN выпускает сканер безопасности ИИ с открытым исходным кодом

Сканер 0DIN — специализированная платформа для оценки безопасности генеративного ИИ и агентных моделей, созданная на базе открытого проекта GARAK, разработанного командой NVIDIA. На протяжении последних двух лет 0DIN занималась созданием инфраструктуры для поиска, отслеживания и анализа уязвимостей в передовых ИИ-моделях.

Главная особенность сканера заключается в его библиотеке: в отличие от инструментов со статическими проверками, она непрерывно пополняется новыми методами атак (джейлбрейками и инъекциями промптов) на основе реальных отчетов из программы вознаграждений за найденные уязвимости (bug bounty) от 0DIN. Проект имеет открытый исходный код и распространяется по лицензии Apache 2.0.

Сканер построен на основе сканера уязвимостей NVIDIA GARAK LLM. Мы расширили возможности GARAK, добавив графический интерфейс, функцию планирования, нашу собственную библиотеку, отчетность корпоративного уровня и информацию об уязвимостях, поступающую непосредственно из нашей программы вознаграждения за обнаружение ошибок.

— пишут исследователи.

Исследователи заявляют, что опенсорсный продукт имеет следующие фичи:

1️⃣ 179 модулей проверок (полезных нагрузок) от сообщества, охватывающих 35 семейств уязвимостей и согласованных с десяткой главных угроз OWASP Top 10 для LLM.
2️⃣ Многоцелевое сканирование: тестирование языковых моделей (LLM), работающих через API, а также браузерных чат-интерфейсов.
3️⃣ Сканирование по расписанию и по запросу с настраиваемой периодичностью.
4️⃣ Оценка метрики успешности атак (ASR — Attack Success Rate) с отслеживанием динамики и тенденций между сеансами сканирования.
5️⃣ Экспорт отчетов в формат PDF с возможностью глубокой детализации по каждому вектору проверки и конкретной попытке эксплуатации.
6️⃣ Интеграция с SIEM-системами: экспорт логов и результатов в Splunk или Rsyslog.
7️⃣ Multi-tenant архитектура — поддержка нескольких организаций в рамках одного развертывания. Данные шифруются при хранении (encrypted at rest).
8️⃣ Отсутствие искусственных ограничений: полный функционал «из коробки», неограниченное количество сканирований и пользователей.

Сканер работает путем прямого подключения к API или веб-интерфейсам различных ИИ-моделей (от продуктов OpenAI и Anthropic до локальных LLM), после чего автоматически запускает структурированные наборы проверок (полезных нагрузок) и формирует отчет с метрикой успешности атак (ASR).

😘https://0din.ai/blog/0din-releases-open-source-ai-security-scanner
❗️ https://0din-ai.github.io/ai-scanner

@Russian_OSINT

Читать полностью…
Subscribe to a channel