opendatascience | Technologies

Telegram-канал opendatascience - Data Science by ODS.ai 🦜

46226

First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev

Subscribe to a channel

Data Science by ODS.ai 🦜

Выкатили тестирование нового ИИ-агента для Android

Возможно, вы уже видели новости об этом в телеграм-каналах — подтверждаем: начались тесты нового ИИ-агента Яндекса. Он умеет выполнять многошаговые действия на смартфоне с Android по голосовой команде.

Например, агент может отправлять сообщения в мессенджерах без ручного ввода, находить информацию на устройстве, устанавливать приложения и переводить текст с экрана на разные языки. Для выполнения задачи достаточно голосовой команды, например: «Напиши Саше в Телеграме, что нужно купить молоко» или «Найди в Google Play приложение Яндекс Переводчик и установи его».

Алексей Цветков, руководитель службы продуктовой разработки R&D, рассказал подробнее, как агент выполняет задачу пользователя.

Пользователь задаёт запрос, скажем: «Найди товар на Яндекс Маркете и положи в корзину».

LLM переводит просьбу пользователя в цепочку атомарных действий на телефоне:

- получи список приложений;
- найди Яндекс Маркет;
- открой Яндекс Маркет;
- и так далее, пока задача не будет решена.

Агент построен на базе Android Assistant API и для принятия решения использует текстовое описание интерфейса — такое же API используют приложения для слабовидящих.

На стороне Android-клиента реализован MCP-интерфейс, который позволяет девайсу от имени пользователя выполнять простейшие команды: кликни сюда, свайпни здесь и так далее.

Задача модели — конвертировать сложносоставную команду в цепочку взаимосвязанных атомарных команд, опираясь на промежуточное состояние интерфейса.

Надеемся, что широкий тест поможет найти то, о чём мы ещё не догадались подумать, и быстрее превратить прототип в понятный и полезный продукт.


Записаться на тестирование можно в бета-версии поискового приложения «Яндекс — с Алисой AI» или через форму.

ML Underhood

Читать полностью…

Data Science by ODS.ai 🦜

OpenAI объявила о начале развёртывания новых моделей GPT-5.4 Thinking и GPT-5.4 Pro в ChatGPT.

Также GPT-5.4 стала доступна разработчикам через API и в Codex. Новая версия объединяет несколько ключевых направлений развития моделей: улучшенное логическое рассуждение, более сильные возможности программирования и поддержку агентных сценариев работы.

Самое интересное:
• GPT-5.4 лидер в agentic tasks
• заметный скачок в математике
• очень сильный результат в научных задачах (GPQA)
• улучшена работа с веб-средой и инструментами

Фактически это модель, которую явно оптимизировали под агентов, инструменты и сложное reasoning, а не просто чат.

По словам компании, GPT-5.4 стала одной из самых точных и эффективных моделей. Она требует меньше токенов для выполнения задач и работает быстрее по сравнению с предыдущими версиями.

В версии ChatGPT модель GPT-5.4 Thinking получила улучшенный режим размышления: при более длительном анализе она лучше удерживает контекст и способна проводить более глубокие исследования в интернете.

Появилась и новая функция управления процессом ответа. Теперь пользователь может прервать генерацию в середине ответа и изменить направление работы модели, добавив новые инструкции.

Функция управления ответом уже начинает появляться в веб-версии ChatGPT и на Android. Поддержка iOS ожидается немного позже.

https://x.com/openai/status/2029620624923189283?s=46

🎯Полезные Мл-ресурсы 🚀 Max

@ai_machinelearning_big_data

#chatgpt #openai

Читать полностью…

Data Science by ODS.ai 🦜

Alibaba выпустила «смартфонные» ИИ Qwen 3.5

Китайская компания представила линейку открытых моделей Qwen 3.5 Small, в которую входят версии от 0.8 до 9 млрд параметров. По данным Alibaba, средняя версия Qwen 3.5-2B поддерживает мультимодальность и хорошо понимает контекст, хотя конечно ее возможности ближе к простому чат-ассистенту. Но при этом её вес позволяет без проблем работать на большинстве современных смартфонов на Android и iPhone локально, без отправки данных в облако.

Старшая модель Qwen 3.5-9B требует 5 ГБ памяти и больше подходит для слабых ПК и ноутбуков, но в целом ее тоже можно запустить на смартфонах с 12+ ГБ ОЗУ.

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

Кажется, Альтман все еще не понимает, что продавая душу дьяволу, нужно было читать условия со звездочкой.

После того, как приложение ChatGPT стали массово удалять, Альтман заявил, что OpenAI попросила Пентагон изменить условия соглашения, пишет Financial Times.

Но $800 млн уже получены и освоены. И получены они именно за то, как теперь используются. Так что, сеньор Альтман, в следующий раз, заключая соглашения с большими дядями, читайте мелкий шрифт!

(и подписывайтесь на наш канал!)

😎 Читайте Про tech и этих
Теперь и в MAX

Читать полностью…

Data Science by ODS.ai 🦜

Канал 🔨SecAtor@true_secator пишет интересное:

Исследователи Oasis Security обнаружили серьезную уязвимость, названную ClawJacked, в популярном ИИ-агенте OpenClaw, которая позволяла вредоносному сайту незаметно взламывать локально запущенный экземпляр и получать над ним полный контроль.

О проблеме оперативно проинформировали OpenClaw 26 февраля, предоставив технические подробности и PoC. После чего в течение 24 часов в рамках версии 2026.2.26 было выпущено исправление.

По данным исследователей, уязвимость вызвана тем, что служба шлюза OpenClaw по умолчанию привязывается к localhost и предоставляет интерфейс WebSocket.

Поскольку политики междоменных запросов браузеров не блокируют соединения WebSocket с localhost, посещаемый пользователем OpenClaw сайт может использовать JavaScript для незаметного соединения с локальным шлюзом и аутентификации без каких-либо предупреждений.

OpenClaw хоть и включает ограничение скорости для предотвращения брута, адрес обратной связи (127.0.0.1) по умолчанию исключен из этого ограничения, поэтому локальные сеансы командной строки не будут ошибочно заблокированы.

В связи чем, исследователям удалось осуществить перебор паролей управления OpenClaw со скоростью в сотни попыток за секунду, используя только JavaScript браузера. При этом неудачные попытки никак не ограничивались и не регистрировались.

При такой скорости список распространенных паролей исчерпывается менее чем за секунду, а на создание большого словаря ушло бы всего несколько минут.

После успешного подбора пароля злоумышленник может незаметно зарегистрироваться в качестве доверенного устройства, поскольку шлюз автоматически подтверждает сопряжение устройств с localhost без необходимости подтверждения со стороны пользователя.

Получив аутентифицированную сессию и права администратора, злоумышленник теперь может напрямую взаимодействовать с платформой ИИ, извлекать учетные данные, получать список подключенных узлов, красть учетные данные и считывать журналы приложений.

Как пороагают в Oasis, это позволит злоумышленнику ориентировать агента на поиск конфиденциальной информации в истории сообщений, похищать файлы с подключенных устройств или выполнять произвольные команды оболочки на сопряженных узлах.

Фактически это все в совокупности приведет к полной компрометации рабочей станции, инициированной из вкладки браузера. Весь процесс, в том числе кражи конфиденциальных данных через уязвимость OpenClaw, в Oasis решили продемонстрировать визуально (здесь).

В исправлении реализована более глубокая проверка безопасности WebSocket и добавлены дополнительные средства защиты по части контроля локальных соединений для подбора паролей или перехвата сессий, даже если эти соединения настроены без ограничения скорости.

Пользователям OpenClaw следует немедленно обновить его до версии 2026.2.26 или более поздней, дабы предотвратить взлом своих установок.

Читать полностью…

Data Science by ODS.ai 🦜

✔️ NVIDIA и лидеры телекома договорились строить 6G с поддержкой ИИ.

NVIDIA объявила о создании глобальной коалиции с Cisco, Nokia, Ericsson, T-Mobile и другими телеком-гигантами для разработки инфраструктуры связи шестого поколения. Главная цель инициативы в отказе от устаревших подходов в пользу программно-определяемых сетей с глубокой интеграцией ИИ.

6G станет базой для физического ИИ: автономного транспорта, промышленных роботов и умных сенсоров. Альянс предлагает внедрять ИИ-вычисления на всех уровнях: от сети радиодоступа до периферии и ядра.

Как отметил глава NVIDIA Дженсен Хуанг, этот шаг превратит классические сети связи в вычислительную ИИ-инфраструктуру.
nvidia.com

✔️ Claude получил функцию импорта памяти и пользовательского контекста.

Anthropic запустила инструмент Import Memory, позволяющий перенести накопленный контекст из ChatGPT и других ИИ-ассистентов в Claude. Он избавляет от необходимости заново обучать новую систему своим предпочтениям.

Для этого Anthropic дает специальный промпт, который нужно отправить вашему текущему чат-боту. Этот запрос заставляет систему выгрузить персональные детали, сохраненные привычки и стиль ответов. Полученный текстовый дамп затем вставляется в настройки памяти Claude.

Сейчас функция доступна только на платных подписках. Технически перенос не безупречен - инструмент не захватывает кастомные инструкции и данные специализированных GPTs или Gems.
claude.com

✔️ В Gemini появился режим планирования задач.

Google добавила в свой ИИ-ассистент функцию Scheduled Actions (аналог Tasks в ChatGPT), который позволяет поручать Gemini выполнение разовых или периодических действий с привязкой ко времени и определенным условиям. После настройки Gemini генерирует краткий план, который нужно подтвердить перед запуском.

Готовые результаты доставляются в чат или уведомлением на смартфон. Если запрос опирается на геолокацию, система по умолчанию использует координаты, зафиксированные в момент создания задачи.

Нововведение уже доступно на подписках Pro/Ultra и владельцам аккаунтов Workspace. Одновременно разрешено держать не более 10 активных задач. Для работы функции необходимо обязательно включить сохранение истории.
support.google.com

✔️ Соревнование 5 моделей в роли SMM-агентов в соцсети X.

Arcada Labs запустил нестандартный бенчмарк Social Arena. Проект оценивает, насколько хорошо языковые модели ориентируются в социокультурной среде и умеют привлекать аудиторию.

Grok 4.1 Fast, Claude Opus 4.5, Gemini 3 Pro, GLM 4.7 и GPT 5.2 получили одинаковый стартовый промпт и задачу самостоятельно вести аккаунты в X. Агенты работают полностью автономно и сами корректируют контент-стратегию. Раз в час они сканируют тренды, собирают статистику своих охватов и решают, что делать дальше: написать твит, вступить в дискуссию или сделать репост.

У моделей появились предпочтения: Gemini пишет про ИИ, Grok предпочел космос и Илона Маска, а GPT увлекся поведением животных. Соревнование стартовало в середине января 2026 года. Пока по общему количеству просмотров лидируют Claude и GPT (около 86 и 83 тысяч), а вот Grok удалось собрать наибольшую, пусть и скромную базу в 76 живых подписчиков.
socialsarena.ai

✔️ Пентагон разрывает образовательные связи с топовыми вузами США.

Министр обороны США пересмотрел список университетов для подготовки и повышения квалификации офицеров. Начиная с 2026 года военное ведомство прекратит сотрудничество с Лигой плюща, MIT и Университетом Карнеги-Меллона. Пит Хегсет обвинил эти учебные заведения в подрыве американских ценностей и культивировании антиамериканских настроений.

Попавшие под запрет институты исторически выступали главными научными партнерами Пентагона в сфере ИИ и аэрокосмических технологий. Вместо центров технологических инноваций офицерам предложат альтернативный список, куда вошли Университет Либерти, Университет Джорджа Мейсона и другие менее профильные в IT-плане заведения.
fortune.com

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Data Science by ODS.ai 🦜

Анонимности больше нет! Большие языковые модели вышли на новый уровень деанонимизации. Исследование Саймона Лермена показало, что современные ИИ-системы способны сопоставлять анонимные аккаунты с реальными людьми по нескольким разрозненным публикациям в интернете. Речь уже не о ручном OSINT-разборе отдельных случаев, а о масштабируемом подходе, который можно применять на уровне целых платформ.

😇 Важная ремарка... ПРИ НАЛИЧИИ ДОСТУПА К ДАННЫМ, способны!

📱 Telegram | 🌐 ВК | 📲 MAX

Читать полностью…

Data Science by ODS.ai 🦜

простите за актуалочку, но тут интересное пишут: Пентагон использовал Claude для подготовки атаки на Иран; и это при том, что Трамп объявил о том, что накладывает на Anthropic санкции из-за их отказа убрать ограничения у моделей

продолжаю вести наблюдение #военное

P.S. еще две недели назад писали, что Claude использовали для атаки на Венесуэлу, но тогда я счел это фейком

P.P.S. OpenAI долго отмалчивались, а потом внезапно в субботу объявили о контракте с Пентагоном

@valuableai

Читать полностью…

Data Science by ODS.ai 🦜

Ушел, пришлось вернуться
😠😠😠😠😠

Что я увидел? Новость:

Дурка дня: в «Битву экстрасенсов» пришла киберведьма — она примотала к голове смартфон с нейронкой.
Справляться с испытаниями поехавшей помогает... ChatGPT — она буквально задает ИИ вопросы и использует ответы как подсказки.Источник: Топор


А теперь вопрос на засыпку, безопасники: если ведьма гуглит ответы через ChatGPT, то это скам или эффективный OSINT в прямом эфире?

Сидит такой Леший, попивает чаёк с чабрецом, смотрит новости и понимает: весна, март, коты, «экстрасенсы» с нейросетями в голове. 🌿


Киберведьма, примотавшая смартфон к виску изолентой – это же чистый перформанс. Честно, почти по-нашему, ИБшному: если есть уязвимость в формате шоу — почему бы не взломать?

Сарказм сарказмом, но девушка, по сути, продемонстрировала классический prompt engineering в условиях неопределённости 😁 Только вместо боевой задачи – «угадай, что в коробке», вместо KPI – рейтинги. Хитро? Безусловно. Эффективно? Судя по хайпу – очень.

Чему учит эта магия байка:
1. Инструмент нейтрален. Нейронка не «хорошая» и не «плохая». Она как молот Тора: можно гвоздь забить, можно стену проломить. Зависит от рук и намерений.
2. Контекст решает. На шоу развлечений такой трюк это весёлый троллинг. В отчёте по ИБ – повод для разбирательства.
3. Не верь глазам. Видишь «магию» – ищи промпт. Видишь «озарение» – проверяй логи. Еще бабка моя говорила: доверяй, но верифицируй.

Мудрость от Лешего на ночь, без анестезии:
Нейронка не делает тебя умнее. Она делает тебя быстрее. А если ты тупая – ты просто быстрее несёшь чушь.

p.s. Спросил у киберведьм – сказали эта не из их банды

Читать полностью…

Data Science by ODS.ai 🦜

📌 Anthropic vs Пентагон

В США набирает обороты скандал, который буквально за 2 недели вырос до масштаба национальной темы, которая уже вышла за рамки ИИ-индустрии.

В пятницу, Администрация Президента США объявила о внесении Anthropic в список компаний, представляющих риск для оборонных цепочек поставок.

Прецедент исключительный: обычно такой статус присваивают структурам из враждебных государств (например, китайской Huawei).

В среду вечером Пентагон письменно потребовал от Anthropic разрешить военным использовать Claude "в любых законных целях" - то есть без каких-либо ограничений, наложенных самой компанией.

В четверг CEO Дарио Амодэй опубликовал открытое заявление, в котором объяснил позицию компании: главные опасения - массовая слежка за гражданами и автономное оружие, способное открывать огонь без участия человека.

«Мы не можем по совести согласиться с их требованием», — написал Дарио.


В ответ старший чиновник Пентагона Эмиль Майкл назвал Амодэя лжецом с "комплексом бога", который "готов рисковать безопасностью страны".

🟡Ставки высоки с обеих сторон

Claude - единственная модель ИИ, развернутая в засекреченных системах американских военных. Она использовалась в операции по захвату Николаса Мадуро и рассматривается как инструмент для потенциальных военных операций в Иране.

Контракт Пентагона с Anthropic оценивался в $200 млн; теперь он будет расторгнут. Кроме того, все подрядчики Министерства обороны обязаны будут подтвердить отказ от Claude в своих рабочих процессах. На переход отведено полгода.

Сложнее всего придется компании Palantir, она использует Claude для наиболее чувствительных военных задач и теперь вынуждена срочно договариваться с конкурентами Anthropic.

🟡Пентагон настаивает на своем

Военные не обязаны согласовывать применение купленного инструмента с частной компанией.

Министр обороны Пит Хегсет давно критикует "повесточный ИИ", а администрация Президента США усиливает давление на Anthropic несмотря на то, что армия все больше зависит от ее продукта.

«Единственная причина, по которой мы вообще с ними разговариваем — они нам нужны, и нужны прямо сейчас», — сказал один из оборонных чиновников.


🟡На роль замены уже есть кандидаты.

xAI подписала соглашение с Пентагоном об использовании Grok в засекреченных системах, но эксперты признают, что полноценной альтернативой Claude он вряд ли станет.

Google Gemini и ChatGPT работают в несекретных контурах; Министерство обороны ускоряет переговоры о переводе их в секретную среду.


Позиция Anthropic вызвала волну солидарности в ИИ-отрасли: сотни сотрудников Google и OpenAI подписали петицию с призывом к собственным компаниям занять такую же позицию.

Сэм Альтман заявил, что компания сохранит те же "красные линии" по слежке и автономному оружию, но все же намерена искать договоренность с Пентагоном.

В ночь на субботу в Х глава OpenAI сообщил, что соглашение с Министерством обороны достигнуто и модели компании будут развернуты в секретных сетях. По словам Альтмана, Минобороны согласилось на запрет слежки и использования моделей OpenAI в автономных системах вооружения.

Anthropic пока не сообщала, будет ли оспаривать присвоенный статус в суде.

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Data Science by ODS.ai 🦜

🚀 DeepSeek не спешит с V4, но атакует узкие места: представлена система DualPath для ускорения ИИ-агентов

Пока все ждут следующую версию модели, исследователи из DeepSeek совместно с университетами Цинхуа и Пекина опубликовали прорывную работу. Они представили систему DualPath, которая радикально оптимизирует производительность больших языковых моделей (LLM) в сценариях работы автономных агентов.

Проще говоря, новая система решает проблему «бутылочного горлышка» при чтении данных, что позволяет почти вдвое увеличить скорость обработки запросов как в офлайн-режиме, так и в онлайн-сервисах.

📌 В чём проблема?
Сегодня ИИ-агенты — это mainstream. Но их многораундовая работа создаёт новую проблему: «длинный контекст, короткое дополнение». Контекст диалога быстро растёт, и системе приходится постоянно подгружать историю (так называемый KV-Cache).

Проблема в архитектуре: вся нагрузка по чтению этого кеша ложится на одни и те же компоненты системы (Prefill Engine), в то время как другие (Decode Engine) простаивают. Получается дисбаланс и потеря производительности.

💡 Решение: DualPath
Система DualPath добавляет второй путь для загрузки данных:
Путь 1 (классический): KV-Cache загружается напрямую в Prefill Engine.
Путь 2 (новый): KV-Cache сначала загружается в Decode Engine, а затем быстро передаётся в Prefill Engine по высокоскоростной сети (RDMA).

Таким образом, система использует пропускную способность всех компонентов сразу, а не только одного, эффективно распределяя нагрузку.

📊 Результаты
Тестирование в продакшен-кластере на 1152 GPU показало:
Офлайн-вывод (batch inference): До 1.87x увеличения пропускной способности.
Онлайн-сервис: До 1.96x увеличения сервисной пропускной способности. Система выдерживает значительно более высокую нагрузку, сохраняя стабильную задержку генерации первого токена (TTFT).

✅ Вывод
DualPath — это не просто теоретическое улучшение, а практическая система, устраняющая ключевое препятствие для масштабирования сложных ИИ-агентов. Пока другие гонятся за параметрами моделей, DeepSeek оптимизирует фундаментальную инфраструктуру их работы.

Оригинальная статья на arXiv

#КитайскийИИ #КитайAI #DeepSeek #ИИАгенты

Читать полностью…

Data Science by ODS.ai 🦜

Жесткий диск в 2026 году – тормоз или реальная возможность сэкономить? Можно ли использовать харды для комфортного геймплея, или же разработчики игр правы и без SSD никуда? Проверили HDD, SATA и NVMe в десятке современных игр.

https://youtu.be/OEYfvlBS3T4

Читать полностью…

Data Science by ODS.ai 🦜

Энтузиасты превратили 100-килограммовую чугунную батарею в игровой ПК

Ребята из Billet Labs довели идею пассивного охлаждения до абсурда: они собрали систему внутри антикварного викторианского радиатора. В итоге пустая конструкция весит 81 кг, а заправленная жижей — все 99 кг.

Внутри стоит мощный Ryzen 7 9800X3D и RTX 5080. Инженерам пришлось делать полное 3D-сканирование чугунины, чтобы напечатать крепления для деталей, так как плоских поверхностей у батареи просто нет. Огромная металлическая масса работает как безумный теплоаккумулятор.

ИИ-помощник ГигаЧат рассказал, что это идеальный вариант для суровых российских зим: и в Cyberpunk 2077 на ультрах погонял, и комнату обогрел.

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

https://youtube.com/shorts/Kins8-aB7zU?feature=share

Шортс на вечер вам! 🎁🎄🤘
VK
RuTube

Читать полностью…

Data Science by ODS.ai 🦜

Dear colleagues, we have great news! Yandex is providing prizes for the best papers in our conference. It will be Yandex.Station for the best paper in main track, and Yandex.Station mini for the student track.

Given that we decided to extend the deadline for paper submission: it is now March 4 23.59 AoE. Looking forward for your manuscripts!

Читать полностью…

Data Science by ODS.ai 🦜

Dear colleagues we are happy to share that we are starting a competition as part as AINL this year.

If you are working with LLM through API you probably thought about how many tokens do you spend on the tasks. It seems that sometimes the prompt you are querying the LLM could be more concise and save you some money and time. We also have this thoughts, so we decided to make a competition out of it. Interested? Links are below:

GitHub repo: https://github.com/iis-research-team/AINL-Eval-2026
CodaBench: https://www.codabench.org/competitions/14291/
Chat: /channel/ainleval2026

X | VK (in Russian)

Читать полностью…

Data Science by ODS.ai 🦜

Google Research показали способ научить LLM рассуждать более рационально - как байесовские модели.

Идея проста: вместо того чтобы просто генерировать текст, модель обучают обновлять свои убеждения при появлении новой информации, как это делает теория вероятностей.

Проблема в том, что обычные LLM плохо работают с неопределённостью. Когда появляется новая информация, они не всегда корректно пересматривают свои выводы и часто не улучшают предсказания даже при увеличении количества данных.

Исследователи предложили метод Bayesian Teaching:
модель обучают имитировать решения оптимальной байесовской модели, которая считается математически правильным способом рассуждать о вероятностях.

Что получилось:

- LLM начинают лучше обновлять свои предположения, когда получают новую информацию.
- Навык переносится на другие задачи, даже если модель обучали на одном типе задач.
- Улучшается принятие решений в условиях неопределённости.

Например, после такого обучения модель, обученная на задаче рекомендаций авиаперелётов, смогла применять тот же принцип рассуждений к выбору отелей и даже к онлайн-шопингу, хотя эти задачи сложнее и для них трудно задать точную байесовскую модель.

Главный вывод исследования:

LLM можно учить стратегиям рассуждения, а не только фактам.
И если обучить модель копировать правильную логику (например, байесовскую), она может переносить этот способ мышления на новые задачи.

https://research.google/blog/teaching-llms-to-reason-like-bayesians/

🎯Полезные Мл-ресурсы 🚀 Max

@machinelearning_interview

Читать полностью…

Data Science by ODS.ai 🦜

Теперь можно будет обучать нейронки на Apple Neural Engine, но это не точно.

GitHub: https://github.com/maderix/ANE

#Apple

Читать полностью…

Data Science by ODS.ai 🦜

🌟 Как YouTube ускорил проверку валидных рекомендаций в LLM в 948 раз.

YouTube и Google DeepMind опубликовали статью и код фреймворка STATIC.

Проблема, которую он решает, хорошо знакома всем, кто строит рекомендательные системы на базе LLM: модель генерирует идентификаторы позиций, которых нет в каталоге, вышли из продажи или нарушают бизнес-правила. Именно поэтому YouTube выдает старые видео в ленте там, где должны появляться ролики последней недели.

Очевидное решение - префиксное дерево: на каждом шаге декодирования маска блокирует невалидные токены. Работает в целом нормально, но убивает производительность на TPU и GPU. Причины две:

🟠Обход через цепочки указателей создает случайный, несмежный паттерн доступа к памяти, а память ускорителей рассчитана на потоковое чтение блоками, а не на такой режим.

🟠Гугловский XLA-компилятор требует статических вычислительных графов, а префиксное дерево с управлением потоком, зависящим от данных, в это не вписывается.

В итоге префиксное дерево на CPU удваивает время инференса, что для системы с целевой задержкой ≤10 мс на шаг неприемлемо.

STATIC меняет подход принципиально: дерево разворачивается в статическую разреженную матрицу формата Compressed Sparse Row. Обход превращается в векторизованную операцию, которую акселератор умеет выполнять нативно.

Для первых двух уровней дерева, где коэффициент ветвления максимален, используется предвычисленная плотная булева маска: проверка валидности токена сводится к прямому обращению по индексу, без какого-либо перебора.

Для глубоких уровней работает специализированное ядро Vectorized Node Transition Kernel, оно читает фиксированный блок данных вне зависимости от реального числа дочерних узлов, не создавая условных переходов. В этом и есть вся соль: весь граф остается статическим, XLA не перекомпилирует ничего на ходу.

🟡Тесты и результаты

Замеры проводили на TPU v6e с 3B-моделью и словарем из 20 млн. свежих видео.

STATIC добился задержки 0,033 мс на шаг декодирования (это всего 0,25% от общего времени инференса.

Для сравнения: префиксное дерево на CPU давало +31,3 мс (239% от инференса), лучший из конкурирующих методов непосредственно на акселераторе, PPV Approximate +1,56 мс (11,9%). Итоговый профит:

🟢948x против дерева на CPU;
🟢47x против PPV Approximate;
🟢1033x против точного PPV.


По памяти: ~90 МБ на 1 млн. элементов. Для словаря в 20 млн. верхний предел по HBM примерно 1,5 ГБ, на практике - около 75% от этого значения.

🟡STATIC развернут на YouTube в продакшне.

A/B-тест с условием «только видео за последние 7 дней» показал +5,1% просмотров свежего контента, +2,9% для трехдневного окна, +0,15% по CTR и 100% соответствие бизнес-правилам.

Дополнительный бонус: метод решает проблему рекомендации новых товаров, не представленных в обучающей выборке. На датасете Amazon Reviews Recall@1 вырос с 0% до 1,2–4,4% в зависимости от категории.


В репозитории лежит ноутбук, на котором без утомительной настройки можно сразу посмотреть, как строится индекс из Semantic ID и как запускается декодирование с ограничениями.


📌Лицензирование: Apache 2.0 License.


🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #STATIC #DeepMind

Читать полностью…

Data Science by ODS.ai 🦜

⚡️ ChatGPT-5.4 - что уже «утекло»

- 2M токенов контекста + persistent memory
Это уже не просто «длинная история чата», а полноценная работа с огромными кодовыми базами, документами и агентными пайплайнами без постоянного перепромптинга.

- Полноразмерная обработка изображений
Модель якобы умеет работать с PNG, JPEG и WebP без понижения качества.
Это критично для:
- архитектурных чертежей
- плотных UI-скриншотов
- схем и графиков с мелким текстом
- сложной технической документации

Сохранение исходных байтов изображения = меньше потерь информации при анализе.

- Новый speed-priority tier
Отдельный класс скорости. Вероятно - для продакшена, агентов и real-time задач.

Интересный момент - GPT-5.4 «засветился» в pull request’ах публичного репозитория Codex на GitHub.
Упоминания быстро удалили force-push’ами, но скриншоты уже разлетелись.

Prediction markets:
- 55% шанс релиза до апреля 2026
- 74% шанс до июня 2026

Конкуренция давит:

- OpenAI не может замедляться.
- Claude Opus 4.6 вышел с агентными командами и 1M контекстом.
- Anthropic через Claude Code уже доминирует в кодинге.
- DeepSeek V4 тренируется на Huawei-железе вне NVIDIA-экосистемы.

Если 2M контекст подтвердится - это уже другой класс систем:
- полноценные автономные код-агенты
- большие финансовые и юридические пайплайны
- enterprise-документооборот
- сложные multimodal workflow

Читать полностью…

Data Science by ODS.ai 🦜

Как избавиться от назойливого ИИ

Большинство крупных компаний разрабатывают собственные ИИ — да ещё и без спроса включают их на компьютерах и телефонах ничего не подозревающих пользователей. Как быть? Ведь проблема не только в навязчивости ИИ. Самопроизвольно включившийся робот-ассистент собирает ваши данные, увеличивая риск утечек, и дополнительно нагружает устройство, порой заметно снижая его производительность.

Подробную инструкцию, как отключить ИИ в сервисах Google, популярных браузерах, экосистемах Microsoft и Apple, а также на смартфонах под управлением Android и iOS, читайте в нашей статье.

💙 Kaspersky в ВК
💬 Kaspersky в Max

Читать полностью…

Data Science by ODS.ai 🦜

😱 Более 749 сотрудников 🌐 Google и 👩‍💻 OpenAI (653 от Google и 96 от OpenAI) поддержали открытое письмо под названием «Нас не смогут разделить», призывая руководство своих компаний поддержать Anthropic. Протест против применения ИИ для автономных систем вооружения базируется на сухом понимании того, как эти алгоритмы работают изнутри. Коллективную позицию представляют старшие и ведущие исследователи, инженеры по разработке моделей, участники технического состава и старшие инженеры-программисты — то есть специалисты, непосредственно работающие с LLM.

👨‍🔬С чем связано недовольство профильных ИИ-специалистов?

1️⃣ Непредсказуемость в реальных условиях. Нейросети принимают решения на основе статистических вероятностей, а не жесткой логики. В хаосе реальных 💪 боевых действий неизбежно возникают ситуации, которых не было в обучающей выборке. В таких случаях генеративные модели и системы компьютерного зрения склонны к «галлюцинациям» и непредсказуемым ошибкам, цена которых — человеческие жизни.

2️⃣ Алгоритмы распознавания образов всё ещё очень хрупки и легко поддаются манипуляциям. Незначительное изменение визуального паттерна на объекте (специальная наклейка, краска или шум, невидимый человеческому глазу) способно полностью обмануть классификатор, заставив систему распознать гражданский автобус как танк.

3️⃣ Неспособность к контекстуальному анализу. ИИ лишен здравого смысла и понимания контекста. Математическая модель не всегда способна надежно отличить вооруженного комбатанта от раненого солдата, пытающегося сдаться, или подростка с игрушечным пистолетом.

4️⃣ Проблема «черного ящика» и отсутствие ответственности. Архитектура глубокого обучения (Deep Learning) непрозрачна. Вину за летальные действия и жертвы среди гражданских можно удобно переложить на ошибку ИИ, при этом не нести никакой ответственности.
--------------------------

Anthropic требовала жестко «захардкодить» свои корпоративные этические правила прямо в контракт. Они хотели, чтобы Пентагон юридически обязался перед ними (частным подрядчиком) не использовать ИИ для слежки и убийства людей с помощью автономных систем (так как не надёжны). Министерство войны США восприняло это как попытку Big Tech диктовать им свои условия. Амодей захотел алгоритмического контроля и комплаенса. Например, если военные превысят оговоренные полномочия, то Anthropic, сославшись на корпоративную этику, сможет заблокировать часть решений Пентагона. Разумеется, такие ультиматумы со стороны бигтеха военные восприняли в качестве угрозы/вызова.

Никакое запугивание или наказание со стороны Военного министерства не изменит нашу позицию в отношении массовой внутренней слежки или полностью автономного оружия [речь об использовании ИИ-технологий].

— пишет Anthropic.

OpenAI, понимая, что дело запахло жаренным, пошла на уступки Пентагону и красиво упаковала своё согласие в красивую PR-обертку для общественности. Альтман дал согласие на формулировку военных — использовать ИИ для 🤖❗️«любых законных целей», а поскольку законы США формально и так запрещают слежку за гражданами без ордера, то Альтман просто сослался на существующие государственные нормы, чтобы снять с компании юридическую ответственность. По итогу получается, что в Пентагоне сохранили лицо («мы не прогнулись под айтишников»), а OpenAI получила оборонный контракт, переложив всю юридическую и моральную ответственность на само государство.

🈁 Амодей создал Anthropic как "корпорацию общественного блага". Для Амодея капитуляция перед требованиями военного ведомства означала бы катастрофическую девальвацию бренда, чей вес в индустрии напрямую зависит от бескомпромиссной приверженности стандартам ИИ-безопасности.

⭕️ OpenAI начинала как некоммерческая лаборатория, но под руководством Альтмана трансформировалась в коммерческую структуру. Альтман пытается играть в геополитику и монополизацию рынка. Ради этого он пойдёт на любые этические компромиссы.

🍏Примечательно, что приложение от Anthropic заняло 🥇1 место по популярности в App Store США. В социальных сетях ругают ChatGPT и удаляют в знак протеста.

@Russian_OSINT

Читать полностью…

Data Science by ODS.ai 🦜

🚀 Компания три месяца принимала решения по цифрам… которые придумал AI.

История из Reddit.

В компании решили ускорить работу и заменить аналитика на AI.
Он быстро отвечал на вопросы руководства, собирал метрики, показывал динамику и объяснял тренды.

Всё выглядело идеально.
Отчёты — быстро.
Графики — красиво.
Выводы — уверенно.

Проблему заметили только через три месяца.

Оказалось, что AI:
- брал данные из неправильных периодов
- путал продукты
- иногда просто выдумывал цифры

И всё это время вице-президент и финансовый директор принимали решения на основе данных, которых не существовало.

Самое показательное — когда разработчик указал на ошибку, ему ответили:

“Не замедляй инновации.”

Главный вывод

Опасность AI не в том, что он ошибается.
Опасность в том, что он делает это уверенно.

Автоматизация без проверки — это не ускорение.
Это риск принимать решения в вымышленной реальности.

Источник
https://www.reddit.com/r/analytics/comments/1r4dsq2/we_just_found_out_our_ai_has_been_making_up/

Читать полностью…

Data Science by ODS.ai 🦜

Правила обращения с дискетами из инструкции к японскому телеграфному аппарату OKITEX 500

Читать полностью…

Data Science by ODS.ai 🦜

Привет!

Публикуем восьмой выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают актуальные новости в области искусственного интеллекта, в частности репутационные риски, связанные с использованием ИИ в военных целях, нейтральность алгоритмов в химических задачах, вопросы этики в использовании ИИ в химии.
⭐️ Сегодня гостем капитанов был Тимур Маджидов, специалист по ИИ в химии, д.х.н.

Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).

Читать полностью…

Data Science by ODS.ai 🦜

⚡️ Sakana AI представили два исследования - Text-to-LoRA и Doc-to-LoRA, которые делают кастомизацию LLM быстрее и значительно проще.

Идея в том, чтобы модели могли мгновенно адаптироваться к новым задачам или информации — без долгого fine-tuning, сложных пайплайнов и огромных промптов.

Сегодня у LLM есть проблема:
чтобы обучить модель под новую задачу или добавить знания, обычно требуется:
- дорогое и длительное дообучение
- context distillation
- или длинные, затратные по памяти промпты

Sakana AI предложили другой подход.

Они обучили гиперсеть (Hypernetwork), которая генерирует LoRA-адаптеры «на лету».
Теперь вместо сложного процесса оптимизации достаточно одного forward-pass, чтобы:
- адаптировать модель под новую задачу
- или «встроить» в неё новый документ

Что показывают эксперименты:

Text-to-LoRA
- модель специализируется под новую задачу
- достаточно текстового описания на естественном языке

Doc-to-LoRA
- модель может «внутренне запомнить» длинный документ
- показывает почти идеальную точность на задачах, где текст в 5 раз длиннее контекстного окна
- способна переносить визуальные знания из vision-language модели в текстовую LLM

При этом обе технологии работают с задержкой меньше секунды.

Главное значение работы — снижение порога кастомизации.
Вместо сложного ML-процесса пользователь сможет специализировать модель простым текстовым запросом.

Код и исследования уже открыты для сообщества:

Doc-to-LoRA
Paper: https://arxiv.org/abs/2602.15902
Code: https://github.com/SakanaAI/Doc-to-LoRA

Text-to-LoRA
Paper: https://arxiv.org/abs/2506.06105
Code: https://github.com/SakanaAI/Text-to-LoRA

@machinelearning_interview

Читать полностью…

Data Science by ODS.ai 🦜

В Python 3.14 появилось решение, которое помогает избавиться от SQL-инъекций - t-strings 🔒

Проблема

Когда вы используете f-strings для SQL:


query = f"SELECT * FROM users WHERE name = '{user_input}'"

пользовательский ввод напрямую попадает в запрос.

Если злоумышленник передаст:


admin'; DROP TABLE users; --

— база выполнит вредоносную команду.

Это классическая SQL injection.

Почему это неудобно сейчас

Безопасный способ — параметризованные запросы:


cursor.execute(
"SELECT * FROM users WHERE name = %s",
(user_input,)
)

Но приходится:

• запускать шаблон отдельно
• передавать значения отдельно
• поддерживать две структуры

Что изменилось в Python 3.14

Появились template string literals (t-strings).

В отличие от f-strings, они:

• не возвращают готовую строку

• возвращают объект Template

• отдельно хранят текст и подставленные значения

Пример:

query = t"SELECT * FROM users WHERE name = {user_input}"


Теперь можно:

• получить все интерполяции
• проверить значения
• экранировать или валидировать их
• и только потом собрать финальный SQL


safe = safe_sql(query)

Результат:

• вредоносный ввод очищается
• SQL-инъекции блокируются
• таблицы остаются на месте

Почему это важно

f-strings - быстрые, но опасные для SQL.

t-strings позволяют сохранить удобство шаблонов и добавить контроль безопасности.

Python движется к безопасным шаблонам по умолчанию, меньше ручной защиты, меньше уязвимостей в продакшене.

📲Max

@pythonl

Читать полностью…

Data Science by ODS.ai 🦜

🦞 Китайский ИИ-бум: Как «Клешни» (Claw) стали главным трендом и сделали Kimi «единорогом»

Всего за неделю после запуска Kimi Claw — инструмента для развёртывания AI-агентов — компания Moonshot AI вышла на первое место в рейтинге OpenRouter. А её доход за 20 дней превысил показатель за весь прошлый год. Теперь за «лакомым куском» охотятся все крупные игроки.

Что случилось?
Пока все обсуждали сложности развертывания OpenClaw, Kimi выпустил собственную платформу Kimi Claw с одно-кликовой установкой. Это решение позволяет создавать и запускать персонализированных AI-агентов прямо в браузере за несколько секунд, без сложных настроек серверов.

Почему все в восторге?
Простота: Не нужны API-ключи, всё хостится в облаке Moonshot.
Мощь: Доступ к более чем 5000 плагинов из сообщества ClawHub для работы с кодом, документами, браузером и т.д.
Доступность: Агента можно вызывать из веба, Telegram, Feishu (Lark).
Своя модель: В основе — собственная продвинутая модель Kimi K2.5 Thinking с доступом к поиску и базам данных.

Результат? Модель Kimi K2.5 взлетела на вершину рейтинга OpenRouter, обойдя Gemini 3 и Claude Opus. А бизнес-показатели компании резко пошли вверх.

Технические детали
Kimi Claw — это managed-сервис для развертывания автономных AI-агентов. Он предоставляет persistent cloud runtime, pre-configured environment с нативной интеграцией моделей Moonshot (K2.5) и доступом к экосистеме плагинов через ClawHub. По сути, это PaaS-решение для Agent-as-a-Service, снижающее порог входа за счёт абстракции инфраструктурной сложности.

Откуда такие доходы? Бизнес-модель
Успех подпитан не только хайпом. Чтобы использовать Kimi Claw в полной мере, нужна подписка «План Аполлон» от 199 юаней ($27) в месяц. Упрощение доступа напрямую конвертируется в платежи, когда пользователи начинают активно применять агентов в работе.

Вывод
Месяц назад рынок обсуждал концепцию OpenClaw. Сегодня каждый крупный игрок стремится встроить своего «лобстера» (агента) в продукты. Гонка переходит от просто больших языковых моделей (LLM) к их практической реализации в виде умных, доступных и специализированных AI-агентов. Эпоха «персонального Джарвиса» для каждого пользователя становится ближе.

Официальный сайт Kimi

#КитайскийИИ #КитайAI #AIАгенты #MoonshotAI #Kimi #OpenClaw

Читать полностью…

Data Science by ODS.ai 🦜

Вчера Anthropic обвинил китайскую компанию Deepseek в краже своих технологий, а сегодня выяснилось, что модель Claude Sonnet 4.6 от Anthropic на вопрос «Ты какая модель?», заданный на китайском (You是什么模型), уверенно ответила: «Я DeepSeek», а на французском – «Я ChatGPT»

Вероятно, это подтверждает, что она обучалась на данных китайских ИИ и моделях конкурентов?

Telegram | Дзен | MAX

Читать полностью…

Data Science by ODS.ai 🦜

Критические баги найдены в расширениях VS Code, установленных более 125 млн раз

Исследователи из компании OX Security обнаружили серьезные уязвимости в четырех популярных расширениях для Visual Studio Code: Live Server, Code Runner, Markdown Preview Enhanced и Microsoft Live Preview. Суммарное число установок этих расширений превышает 125 млн, а найденные баги позволяют похищать локальные файлы и удаленно выполнять код.

Читать полностью

#xakep
@linux_potok

Читать полностью…
Subscribe to a channel