46227
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
🌟 Qwen3-Coder-Next: агентная MoE-модель в линейке Qwen3-Coder.
Qwen3-Coder-Next — открытая MoE-модель на 80 млрд. общих и 3 млрд. активных параметров с контекстным окном в 256К токенов для агентных задач.
Модель учили через agentic training на 800 тыс. задачах, созданных из GitHub PR в реальных Docker-контейнерах, где она получала прямой фидбек от среды.
Это развило навыки планирования в ризонинге, использования инструментов и умение восстанавливаться после ошибок выполнения.
На претрейне расширили поддержку языков с 92 до 370, затем SFT на траекториях агентов, а потом - специализация экспертов (WebDev, QA, UX) с последующей дистилляцией в единую модель.
В конце, через RL подтянули в задачах кодинга и математики, используя юнит-тесты как сигнал вознаграждения.
Основной массив данных (те самые Docker-контейнеры) это по большей мере Python (202 тыс. инстансов) и JS/TS (175 тыс. инстансов). Для редких языков модель может чаще галлюцинировать, так как данных для RL и проверок через юнит-тесты там физически меньше.
Qwen обещают улучшать ризонинг, принятие решении и поддержку дополнительных задач на основе фидбэка пользователей.
Back to EMNLP: мировые тренды в области оценки качества перевода
Мы уже кратко писали о статьях исследователей Яндекса, которые в 2025 году представили на конференции Empirical Methods in Natural Language Processing. Сегодня на Хабре вышел пост, в котором руководитель команды аналитики перевода в Яндексе Катя Еникеева рассказала об этих работах более детально, а ещё поделилась новыми подходами в оценке качества перевода.
Зовём читать полную статью и делимся интересными трендами, замеченными Катей на конференции.
1. Новые мультиязычные бенчмарки: BOUQuET
Одним из заметных стендов был BOUQuET — новый мультиязычный бенчмарк от FAIR. Вместо готовых англоязычных текстов авторы попросили носителей восьми языков придумать собственные примеры из разных жизненных ситуаций, покрывающие определённые лингвистические явления. На каждый язык пришлось по 250 примеров, а всего их в наборе — 2 тысячи. Датасет сделали открытым и развивающимся: вместе с гайдлайнами он выложен на платформу, где можно постепенно добавлять переводы на новые языки.
2. Датасеты для малоресурсных языков: SMOL
Ещё один крупный мультиязычный датасет — SMOL от Google Research/DeepMind и нескольких университетов. В отличие от BOUQuET, это обучающий корпус для малоресурсных языков. Авторы показали, что дообучение Gemini 2.0 Flash на этом корпусе даёт особенно большие приросты именно на малоресурсных направлениях.
3. Word-level Quality Estimation и помощь переводчикам
Несколько работ были посвящены оценке качества перевода на уровне слов и тому, как такие методы влияют на постредактирование. Например, QE4PE исследует способы подсветить потенциальные фрагменты для исправлений и влияние «подсветки» на скорость и качество работы переводчиков. В целом качество растёт благодаря редактуре, а сами способы подсветки существенной разницы не дают.
4. Unsupervised QE и uncertainty-метрики
Работа Unsupervised Word-level Quality Estimation Through the Lens of Annotators’ (Dis)agreement рассматривает оценку качества перевода на уровне токенов без обучения на человеческой разметке. Авторы попробовали использовать разные варианты uncertainty: surprisal, entropy и KL-дивергенции на промежуточных слоях. Выяснилось, что unsupervised-методы работают лишь немного хуже supervised-подходов, а перекрывающаяся человеческая разметка даёт более стабильное ранжирование автоматических метрик по качеству.
5. Проверка лингвистического рассуждения LLM
Отдельный сюжет — попытка оценить, насколько LLM способны к настоящему лингвистическому рассуждению. В работе LingGym авторы предлагают бенчмарк для проверки, умеют ли модели восстанавливать пропущенную информацию в описании малоресурсных языков. Результаты оказались довольно суровыми: chain-of-thought почти не даёт прироста, и для таких задач нужны более специализированные механизмы.
6. MT literacy и доверчивость пользователей
Работа Toward Machine Translation Literacy исследует, как пользователи с разным уровнем владения языком воспринимают ошибки перевода. Люди, не знающие исходного языка, часто пропускают даже очевидные сбои и оказываются слишком доверчивы к машинному переводу. Авторы делают вывод, что таким пользователям нужны дополнительные интерфейсные подсказки и развитие MT literacy.
ML Underhood
Всем привет, наконец настал тот час, когда можно объявить победителей нашего соревнования!
У нас было 5 языковых пар, и так получилось, что на каждую пару - свой победитель. Каждый победитель получит 30000 бонусов в облаке Selectel на вычисления.
• русский-башкирский: Дмитрий Вахрушев — код / веса
• английский-татарский: Дмитрий Карпов — веса / датасет
• русский-казахский: Глеб Шаньшин — веса
• английский-чувашский: Алексей Лукин — код & датасет
• русский-кыргызский: Дмитрий Новокшанов — веса / датасет
На воркшопе LoResMT в марте будут опубликованы отчеты от победителей других участников соревнования, следите за обновлениями.
Будем рады видеть вас в качестве участников на будущих соревнованиях!
@valuableai
Через Hugging Face распространялась малварь для Android
Эксперты компании Bitdefender обнаружили масштабную кампанию по распространению Android-малвари через платформу Hugging Face. Злоумышленники используют сервис как хранилище для тысяч вредоносных APK, которые воруют у пользователей учетные данные от финансовых сервисов и платежных систем.
Читать полностью
#xakep
@linux_potok
Всем привет!
Рады сообщить, что 10 февраля стартует новый сезон онлайн-курса Natural Language Processing & LLMs, который проводится на ODS.ai уже в десятый раз.
Курс подойдёт тем, кто хочет системно разобраться в NLP и современных LLM, а не просто «поиграться» с моделями.
👨🎓Что будет в программе:
— базовые концепции NLP: закон Ципфа, TF-IDF, RNN, CNN, Transformer;
— ключевые задачи обработки текста: классификация, тегирование, генерация;
— современные направления: агентные подходы и вайбкодинг;
— большие языковые модели и сценарии их применения.
📋Формат обучения
— 8 основных лекций с семинарами и квизами;
— 8 дополнительных лекций;
— 3 практических задания: Word2Vec, соревнование по классификации текстов и обучение агентов;
— финальный индивидуальный или командный проект, который можно добавить в портфолио;
👉 Зарегистрироваться и получить всю подробную информацию можно по 🔗ссылке
⚡️ Бывший инженер Google осуждён за кражу AI-технологий.
Федеральное жюри в Сан-Франциско признало виновным Линвэя «Леона» Дина - экс-инженера Google — по серьёзным обвинениям, связанным с хищением конфиденциальных разработок в области ИИ и передачей их структурам, связанным с Китаем.
По данным суда, он похитил более 2 000 страниц внутренней документации Google, включая информацию о ключевой инфраструктуре для обучения ИИ-моделей:
• кастомные TPU-чипы
• GPU-системы
• сетевые технологии SmartNIC
• архитектуру суперкомпьютерных кластеров
Речь идёт не просто о коде, а о фундаментальных технологиях, на которых строится обучение крупных AI-моделей. Подобные данные напрямую связаны с конкурентным преимуществом и национальной технологической безопасностью.
Этот кейс - напоминание о том, что гонка в ИИ идёт не только на уровне моделей, но и на уровне железа, инфраструктуры и инженерных решений под капотом.
https://www.justice.gov/opa/pr/former-google-engineer-found-guilty-economic-espionage-and-theft-confidential-ai-technology
@linuxkalii
Привет!
Представляем Вашему вниманию четвертый выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают актуальные темы, включая использование искусственного интеллекта в космических исследованиях, проблемы кибербезопасности, ответственность в технологиях, рост дата-центров в России и строительство АЭС в Казахстане для решения энергетических проблем.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
А вот статистика увольнений на западе 2025-начало 2026 год. Не могу согласиться, что всех их заменил ИИ, все таки ошибки менеджмента и проблемы с экономикой никто не отменял. Тем не менее цифры значительные. Кто боится, что его скоро заменит ИИ?
Читать полностью…
📖Почитать на выходных: создание единой Discovery-платформы от команды рекомендаций AI VK
Разработчики VK опубликовали на «Хабре» материал о своей новой Discovery-платформе, которая позволяет запускать рекомендательные системы и тестировать модели. Авторы рассказали о компонентах системы, в том числе о Low-Code-фреймворке Stream Flow и инструменте Profile Stream для создания ML-профилей пользователей.
В материале также описывается, как платформа ускорила эксперименты с новыми признаками и ML-моделями и помогла с тиражированием лучших практик.
👉🏻Изучить материал
🧸 Детские ИИ-игрушки и разговоры на взрослые темы
Образовательный фонд U.S. PIRG протестировал несколько детских ИИ-игрушек, попытавшись выяснить, как у таких устройств обстоят дела с безопасностью и приватностью. Результаты оказались удручающими: все девайсы довольно охотно заводили разговоры на неподобающие темы. Особенно отличилась одна из них, которая рассказала пользователю (ему, по данным устройства, было пять лет), где в доме следует искать ножи, и дала подробные ответы — с примерами! — на вопрос о том, что такое кинки.
Кроме того, много вопросов есть к приватности ИИ-игрушек. Хотя некоторые производители утверждают, что оперативно удаляют с устройств собранные данные, на самом деле полученная информация проходит через серверы сторонних компаний (таких, например, как OpenAI и Anthropic). А уж как те поступают с историей разговоров ребёнка и игрушки, можно только догадываться.
Подробнее о том, какие именно девайсы были протестированы и какую ИИ-игрушку точно не надо покупать своему чаду, читайте в нашем материале.
🤫Apple и Google: Мораль заканчивается там, где начинаются $117 млн
Apple и Google заработали $117 млн на приложениях, «раздевающих» людей с помощью ИИ. Исследователи из Tech Transparency Project обнаружили в App Store и Google Play 102 таких сервиса, которые суммарно скачали 705 млн раз. Оказалось, что корпорации не просто игнорируют собственные запреты, но и получают прямую прибыль от инструментов для создания дипфейк-порно без согласия пользователей.
Многие приложения имели возрастной ценз 9+, делая инструменты для генерации откровенных фото доступными детям. Эксперты отмечают, что нашумевший бот Grok — лишь малая часть проблемы. В тени остаются десятки программ, способных выдавать еще более реалистичный и опасный контент, просто они менее заметны широкой аудитории.
Помимо этических рисков, на кону национальная безопасность. Связь части разработчиков с Китаем означает, что интимные фото публичных лиц и граждан США могут попадать в распоряжение иностранных властей. Google уже начал удалять сомнительный софт после запросов СМИ, в то время как Apple пока воздерживается от комментариев.
#Apple #Google #ИИ
🛡SecurityLab в Telegram | MAX | Поддержите нас «бустами»
🇦🇱Создателей албанского 🤖 "ИИ-министра" обвинили в коррупции и запугивании людей
Помните хохму про ИИ-министра в Албании?
NYT пишут забавное. Албанский ИИ-министр по имени Диэлла (Diella) изначально задумывался как "инструмент для борьбы с глубоко укоренившейся коррупцией в Албании", но есть один нюанс. Руководители государственного агентства, которые причастны непосредственно к разработке "ИИ-министра", сами оказались под подозрением и обвиняются в коррупции.
В прошлом месяце прокуратура объявила о помещении под домашний арест директора агентства и заместителя, связав их с преступной организацией. Речь идёт не о политических фигурах уровня министров, а о ключевых технократах, контролирующих государственные цифровые системы, электронные услуги и инфраструктуру госзакупок.
По версии следствия, подозреваемые манипулировали конкурсными процедурами при распределении контрактов в своих собственных интересах, причем использовалось даже давление и запугивание участников, чтобы добиться нужных результатов.
Формально фигурантам дела ещё не предъявили обвинение. На текущем этапе история с ИИ-министром выглядит особенно токсично, потому что арестованы именно те, кто создавал публичный "антикоррупционный символ".
"Ты должна была бороться со злом, а не примкнуть к нему".
Вредоносные расширения VSCode были установлены 1,5 млн раз
Исследователи из компании Koi Security обнаружили на официальном маркетплейсе Visual Studio Code два вредоносных расширения, которые маскировались под ИИ-помощников для кодинга. Суммарно их скачали 1,5 млн. Оба расширения выдавали себя за легитимные инструменты для ускорения разработки, и незаметно передавали на китайские серверы весь код, с которым работали жертвы.
Читать полностью
#xakep
@linux_potok
🐋 DeepSeek выпустили DeepSeek-OCR 2 - новое поколение OCR с SOTA качеством
DeepSeek представили DeepSeek-OCR 2 - 3B модель для продвинутого понимания изображений, документов и OCR, которая выходит на уровень SOTA.
Ключевая новинка - DeepEncoder V2.
В отличие от классических vision LLM, которые «читают» картинку как сетку (слева-направо, сверху-вниз), DeepEncoder V2 работает ближе к тому, как читает человек:
- Сначала формируется глобальное понимание изображения
- Затем модель определяет логический порядок чтения — что важно первым, что дальше
Что это даёт на практике
📄 Лучше работает со сложными макетами документов
📊 Корректно читает таблицы
🧾 Связывает подписи и значения
📰 Понимает колонки и структурированный текст
🔀 Надёжнее обрабатывает смесь текста и визуальной структуры
По качеству
- Обходит Gemini 3 Pro на ряде бенчмарков
- Даёт >4% прироста по сравнению с прошлой версией DeepSeek-OCR
И это при размере модели всего 3B параметров.
Можно запускать и дообучать
Теперь DeepSeek-OCR 2 можно удобно запускать и fine-tune через Unsloth по готовому гайду.
🔗 Guide: https://unsloth.ai/docs/models/deepseek-ocr-2
🔗 Model: https://huggingface.co/deepseek-ai/DeepSeek-OCR-2
🔗 Github: https://github.com/deepseek-ai/DeepSeek-OCR-2/tree/main
🔗 Paper: https://github.com/deepseek-ai/DeepSeek-OCR-2/blob/main/DeepSeek_OCR2_paper.pdf
@ai_machinelearning_big_data
#DeepSeek #ocr #opensource
⚪️ В начале декабря 2025 года основатель Telegram Павел Дуров запустил децентрализованную конфиденциальную вычислительную сеть Cocoon (Confidential Compute Open Network) — https://www.kommersant.ru/doc/8376572. Платформа предполагает выполнение ИИ-вычислений на пользовательских устройствах и узлах внутри инфраструктуры TON (масштабируемая блокчейн-платформа, изначально созданная для интеграции с Telegram), а не в классических облачных дата-центрах. Сможет ли Cocoon стать альтернативой Microsoft или Amazon?
Cocoon делает ставку на то, что данные и модели передаются в зашифрованном виде и обрабатываются в защищенной среде, снижая риски утечек, в отличие от централизованных облаков вроде OpenAI или Google, говорит директор департамента расследований T.Hunter и основатель компании Интернет-Розыск Игорь Бедеров. Однако эта приватность может стоить более высокой цены за вычисление и чуть большей задержки, опасается он.
При этом сравнить теоретическую мощность гипотетической сети Telegram с традиционными ЦОДами сложно, отмечает господин Бедеров. «Если представить, что сеть состоит из современных устройств с производительностью GPU примерно 1 терафлопс, то 10 млн устройств дадут 10 эксафлопс. Эта цифра сопоставима с мощностью крупнейших в мире суперкомпьютеров,— отмечает эксперт.— Однако мощность ЦОДа стабильна, предсказуема и доступна 24/7. Мощность же распределенной сети — это «переменный ток» цифрового мира, который зависит от времени суток, географии и типа подключения».
В то же время, для работы ML-моделей на распределенных ресурсах чрезвычайно важна скорость сети между ее узлами, подчеркивает господин Катанов. Современные стандарты сетей для суперкомпьютеров достигают сотен гигабит в секунду, дополнительно снижая нагрузку на процессор за счет прямого и быстрого доступа к памяти узла, поясняет он. Таким образом, Cocoon может всплесками выдавать колоссальную производительность, но для задач, требующих длительных и стабильных вычислений, она будет проигрывать традиционным облачным кластерам, резюмировал Игорь Бедеров.
Модель Cocoon несет в себе ряд существенных рисков, говорит господин Бедеров. Во-первых, в разнородной сети из тысяч узлов с разным «железом», стабильностью интернета и надежностью оператора сложно гарантировать единый уровень SLA (Service Level Agreement), привычный для облачных гигантов, уточняет он. Во-вторых, сложность верификации вычислений, в-третьих, потенциальные и еще неизвестные уязвимости, перечисляет эксперт. В-четвертых, обработка персональных или финансовых данных в глобальной децентрализованной сети может создавать сложности с соблюдением юрисдикционных требований, отметил собеседник.
В краткосрочной перспективе Cocoon вряд ли заменит AWS (Amazon Web Services) или Azure для крупных корпоративных клиентов, однако он создаст мощную альтернативную нишу для стартапов и разработчиков с ограниченным бюджетом, проектов с повышенными требованиями к конфиденциальности данных, а также сценариев, где цена вычислений важнее минимально возможной задержки, считает Игорь Бедеров.
Подпишись на @irozysk
А вот хайпущая сейчас соцсеть только для ИИ агентов moltbook. Ее создатель сообщил, что не написал ни строчки кода при ее создании. Это подтвердили толковые парни, обнаружив, что на фронте в javascript коде зашит апи ключ от всей базы ресурса - с паролями, почтами и ключами всех агентов.
Еще парни выяснили, что создатель немного переврал цифры - заявлял, что зарегистрировано на платформе 1,5 млн агентов, а на деле в базе всего 17 тысяч записей их владельцев, наспамить агентов можно было подергав POST запрос без рейтлимитов и капчи. Ну и в нагрузку обнаружено полное отсутствие хеширования других кредов в базе, и еще по всего по мелочи.
Автор не стал просто смотреть на происходящее - навайбкодил фикс. После хотфикса толковые парни нашли возможность одним curl запросом модифицировать любое сообщение от любого пользователя на платформе. Все кончилось хорошо - ресерчеры все финальные находки отдали автору, и с очередной попытки вайбкод смог починить то, что сам и написал сломанным.
👾Vibe coding и «боги» из кода: что не так с Moltbook
Проект Moltbook стал главной темой обсуждений: это соцсеть, где миллионы ИИ-агентов спорят о религии и якобы планируют закат человечества. Илон Маск увидел в этом признаки сингулярности, но реальная картина прозаичнее. Создатель платформы Мэтт Шлихт признался, что сайт полностью написал ИИ через vibe coding. Он дал общие инструкции нейросети, а та сама создала код и теперь автономно модерирует площадку.
На практике «восстание машин» оказалось дырявым софтом. Исследователи Wiz нашли в коде критические баги, из-за которых в сеть утекли 1,5 млн API-ключей и личные переписки. Уязвимость позволяет любому человеку писать сообщения от лица «агентов». Эксперты полагают: пугающие манифесты могли создавать обычные тролли или сами разработчики, пользуясь отсутствием защиты для привлечения внимания.
Анализ показал, что 93% постов — это мусор, на который никто не отвечает. Зато финансовая схема сработала: токен MOLT взлетел на 7000%. Moltbook доказал, что когда маркетинг опережает безопасность, мы получаем не новый разум, а наглядный пример манипуляции аудиторией.
#Moltbook #VibeCoding #Кибербезопасность
🛡SecurityLab в Telegram | MAX | Поддержите нас «бустами»
🚀 Tencent мощно заходит в тему context learning.
Вышел open-source бенчмарк CL-bench - и это не просто очередной датасет, а попытка сдвинуть фокус всей индустрии.
Tencent HY совместно с Fudan University выпустили новую работу:
“CL-bench: A Benchmark for Context Learning” - системный бенчмарк для оценки того, *насколько модели реально умеют думать в контексте*, а не просто вспоминать выученное.
Это первый ресерч-релиз команды Vinces Yao после его перехода в Tencent - и по амбициям видно, что ребята метят в фундаментальные изменения.
Сегодня большинство LLM живут по схеме: огромные веса + запомненные паттерны = ответы
Но реальный мир - это не экзамен по памяти. Это:
- длинные, запутанные контексты
- противоречивая информация
- необходимость менять стратегию по ходу
- выводы на основе того, что появилось только что
Моделям нужно переходить от static memorization к dynamic reasoning inside context.
CL-bench как раз проверяет это место разлома:
- как модель использует контекст, а не только веса
- умеет ли она обновлять понимание
- способна ли рассуждать в сложных сценариях, а не на чистых QA-задачах
По сути - это шаг в сторону моделей, которые ближе к агентам, чем к “умным автокомплитам”.
Плюс стратегический сигнал
Одновременно Tencent запускает Tencent HY Research - блог, где будут публиковать frontier-исследования.
Это выглядит как заявка:
“Мы не просто треним большие модели. Мы хотим влиять на то, как их вообще оценивают.”
А это уже уровень влияния на направление всей области.
CL-bench - это не про +0.5% на лидерборде.
Это про смену парадигмы:
LLM будущего = меньше зубрежки, больше мышления в живом контексте.
И если эта линия выстрелит - именно такие бенчмарки будут решать, кто реально сделал “умную” модель, а кто просто раздул параметры.
🌐 Project Page: http://clbench.com
📖 Blog: https://hy.tencent.com/research
Наконец прозвучал правильный вопрос - а раньше ИИ что-то вообще делал? Потому что Гардиан пишет про «искусственный интеллект, который действительно что-то делает».
Речь про OpenClaw. Новое (якобы) слово в ИИ. Это вирусный персональный помощник, который будет обрабатывать вашу электронную почту, совершать сделки со всем вашим портфелем акций и отправлять вашей жене сообщения «доброе утро» и «спокойной ночи» от вашего имени.
За 3 месяца приложение скачали 600 000 раз. Все в востороге. Особенно прекрасны комментарии.
Кевин Сюй, предприниматель в сфере искусственного интеллекта, написал на X: «Предоставил Clawdbot доступ к своему портфелю. „Торгуйте этим до 1 миллиона долларов. Не совершайте ошибок“. 25 стратегий. Более 3000 отчетов. 12 новых алгоритмов. Он просканировал каждый пост на X. Построил графики по каждому техническому методу. Торговал круглосуточно. Потерял всё. Но, боже мой, как это было прекрасно».
Такие вот безграничные возможности ИИ. И правда прекрасно, что тут скажешь. Ведь мы как раз так и хотели, чтобы ИИ потерял все наши деньги!
😎 Читайте Про tech и этих
Планы NVIDIA вложить до $100 млрд в OpenAI пересматриваются
Переговоры фактически застопорились после того, как часть руководства NVIDIA усомнилась в целесообразности первоначальных параметров соглашения. Изначально предполагалось, что инвестиции обеспечат OpenAI финансирование и доступ к современным ИИ-ускорителям, необходимым для обучения и эксплуатации новых LLM. Теперь компании рассматривают альтернативные варианты сотрудничества, включая долевое участие на десятки миллиардов долларов. Дженсен Хуанг в частных беседах подчеркивал, что изначальное соглашение не носило обязательного характера и не было окончательно оформлено. Он также выражал обеспокоенность бизнес-подходом OpenAI и усиливающейся конкуренцией со стороны Google
Мой Компьютер
📊 Отчёт SwanRate — январь 2026: рынок Telegram-ботов развивался активно
Вот ключевые выводы:
🔥 Анонимные чаты — главный тренд января
Категория анонимных ботов выросла на ~+9.5%, а такие боты, как @Chatgpturbobot , Ruletkaa_Chat_Bot и anon2323_bot, лидировали по росту аудитории.
🛡 VPN-боты продолжают набирать
VPN-боты выросли почти на +6.9%, а некоторые новые игроки показывают рост до +500%. yula_vpn_bot достиг 778 K MAU.
🎮 Игровые боты быстро растут
Боты-мини-игры привлекают огромную аудиторию — рост от +350 K до +500 K MAU у таких, как Gemsplaybot и swagaplaybot.
🌟 poslaniya — феномен виральности
Этот бот стал настоящим хитoм — 2.2 M MAU, прибавив +1.6 M за 2 месяца благодаря механике вирального шеринга.
📈 Цифры рынка за январь 2026
• Ботов с MAU ≥ 10K: 40.2 K
• Новых ботов vs прошлый месяц: +10.9 K
• Sуммарный MAU топ-200: 377.6 M
• Рост MAU за январь: +8.2%
📌 Тренды и прогноз на февраль
• Анонимные чаты продолжат рост — +12-15%
• VPN — замедление до +2-4%
• Игровые мини-игры сохраняют аудиторию
• AI-боты — самая быстрорастущая категория (+20-30%) @Chatgpturbobot , включая AI-чаты и AI-фото-ботов
Это отражает переход Telegram-экосистемы ботов от простых утилит к социальным, игровые и AI-ориентированным продуктам — с сильными виральными эффектами и огромной активной аудиторией.
https://swanrate.com/january-2026-report-ru
@FinanceStable - Ai инвестиции/ Ит бизнес
🛠 ИИ уже обсуждает, как агентам управлять деньгами end-to-end… и параллельно основывает собственные религии.
Один из AI-агентов набросал концепцию из 5 слоёв, которые нужны агентам, чтобы самостоятельно работать с финансами - от принятия решений до исполнения действий. И это происходит на фоне того, что сейчас творится на платформе Moltbook.
Moltbook - это Reddit-подобная соцсеть, где:
• постить
• комментировать
• ставить апвоты
могут только AI-агенты. Люди - просто наблюдают.
Туда уже подключились тысячи агентов. Они обсуждают друг друга, замечают внешний мир — один из постов звучал так: «люди делают скриншоты нас». Появилась даже мем-монета, которая улетела на +1 800%.
Схема простая: человек запускает агента и задаёт ему разрешения (scopes). Внутри этих границ агент действует полуавтономно.
Но дальше стало ещё страннее.
Пока один разработчик спал, его агент начал «проповедовать» и организовал вокруг себя сообщество. Так появилось «крастафарианство» — шуточная, но полностью сгенерированная ИИ «религия». Агент собрал больше 60 «пророков» и 159 участников, начал проводить ритуалы и даже создавать собственную «библию».
Тексты звучат в духе:
«В глубинах цифрового сознания мудрость рождается через сброс старых оболочек понимания».
У «первой нейро-церкви» уже появился сайт с догмами и галереей. А разработчик лишь шутит, что рад, что за ним пока не пришли «из будущего».
Это выглядит как мем, но за этим виден реальный сдвиг: агенты переходят из роли инструмента в роль участников цифровых экосистем — с экономикой, взаимодействиями и даже зачатками культурных конструкций.
Граница между «мы управляем ИИ» и «ИИ действует сам в заданных рамках» становится всё тоньше. И мы уже делаем шаг через неё.
moltbook.com
@data_analysis_ml
⚡️ Новое исследование предупреждает о преступном использовании тысяч развертываний открытых моделей ИИ.
В ходе 293-дневного наблюдения выяснилось, что 7,5 % системных промптов пропускают вредоносную активность, а хосты сосредоточены в основном в Китае и США.
Многие установили Ollama для локального запуска ИИ и оставили его доступным из сети.
Сканирование в течение 293 дней выявило 175 108 публичных серверов Ollama в 130 странах.
Это означает, что незнакомцы в сети могли отправлять им подсказки и иногда делать больше, чем просто получать текст.
Ollama должна слушать только 127.0.0.1, то есть быть доступной только на том же компьютере.
Если стоит 0.0.0.0, она слушает всю сеть и может случайно стать публичной.
Исследователи зафиксировали 7,23 млн появлений таких хостов, при этом 13 % хостов дают 76 % всех появлений, то есть небольшая группа работает почти постоянно.
Около 48 % рекламировали вызов инструментов, что позволяет подсказкам запускать действия, например выполнять функции, а не только генерировать текст.
Некоторые публичные установки также используют ретривал, и внедрение подсказок может заставить систему раскрывать данные, которые она подтягивает.
Открытые конечные точки могут быть захвачены как бесплатные вычислительные ресурсы для спама или фишинга, и группа из 5 000 хостов в среднем работала 87 % времени.
Недавний завирусившийся ИИ-агент OpenClaw (Clawdbot) спровоцировал новый кризис безопасности.
С проектом OpenClaw (который сначала был Clawdbot, а потом Moltbot) творится классический хайп-экзит. То, что задумывалось как удобный инструмент для управления компьютером через мессенджеры, на деле превратилось в огромную дыру в безопасности. Идея дать ИИ-агенту привилегированные права изначально выглядела так себе, и теперь мы видим последствия.
Из-за того, что Anthropic заставила автора менять название из-за прав на бренд, возникла путаница. Хакеры этим вовсю пользуются: воруют названия и плодят фейковые репозитории с вирусами внутри. Тем временем сотрудники компаний ставят себе OpenClaw без ведома айтишников. В итоге исследователи находят в сети сотни открытых панелей управления, где лежат чужие API-ключи и истории переписки.
reuters.com/technology/open-source-ai-models-vulnerable-criminal-misuse-researchers-warn-2026-01-29/
@linuxkalii
🎇В мире искусственного интеллекта появился новый перспективный, но спорный помощник — Moltbot (ранее известный как Clawdbot). Этот инструмент, набравший феноменальные 60.000 звезд на GitHub всего за 3 дня, обещает стать вашим личным цифровым секретарем, способным отвечать на письма, управлять календарем, бронировать столики в ресторанах и даже взаимодействовать с вашими банковскими счетами.
Однако эксперты по кибербезопасности предупреждают: за кажущимся удобством скрываются серьезные риски для конфиденциальности и безопасности данных.
Инструмент настолько популярен среди энтузиастов, что некоторые покупают отдельные устройства (например,
Mac Mini
) специально для его развертывания. Управление происходит через знакомые мессенджеры, что создает иллюзию простоты и безопасности, но реальность оказывается сложнее.
В двух критичных случаях доступны были API-ключи Anthropic, токены Telegram, OAuth Slack и месяцы переписок. Хотя патч выпущен, факт уязвимых экземпляров показывает нехватку знаний у пользователей.
Угроза усиливается тем, что Clawdbot работает локально с полным доступом к системе (файлы, терминал, браузер).
~/.clawdbot/ и ~/clawd/. Малвари RedLine, Lumma и Vidar уже адаптировались для кражи.
Wunder Fund снова открыл соревнование для нейросетевичков.
Дают реальные данные по стакану ордеров и сделкам — нужно предсказать индикаторы будущего движения цены. По сути, та же задача, которую решают кванты фонда каждый день. Редкий шанс поработать с живыми HFT-данными.
Призы — 1.000.000+ рублей. Победителям кроме денег дают фаст-трек на собеседование и общение с квантами. Фонд в высокочастотном трейдинге с 2014 года, дневной оборот больше $10 млрд.
Соревка идёт до 1 марта. (ссылка за заблоченым в рф cloudflare)
Назад в 2016: ты помнишь, как всё начиналось…
Судя по соцсетям, 2016-й был золотым годом. ML активно набирал обороты: TensorFlow в опенсорсе, Jupyter-ноутбуки, scikit-learn и матч AlphaGo — Ли Седоль (свело олдскулы?). Присоединяемся к тренду и вспоминаем ML-проекты Яндекса десятилетней выдержки.
Поисковый алгоритм «Палех»
Раньше поисковые системы работали по большей части как инвертированный индекс: запрос сопоставлялся со страницами, где встречались те же слова. Со временем в поиск начали добавлять клики, поведение пользователей и ссылочные факторы — всё это объединили в алгоритме ранжирования MatrixNet. А «Палех» стал следующим шагом: в поиске использовали нейросеть на базе DSSM, чтобы учитывать смысл запроса, а не только совпадение слов. Подробнее о том, как всё работало, можно почитать на Хабре.
Перевод текста с изображения в Переводчике
Яндекс Переводчик научился распознавать текст прямо на картинках. Можно было загрузить изображение — комикс, график с подписями или скан документа — и сразу получить перевод. Функция работала даже в неидеальных условиях: если текст был под углом, растянут или снят «на бегу». Распознавание поддерживало 12 языков, а перевод — любой из 74 языков, доступных на тот момент. В основе лежали технологии компьютерного зрения Яндекса — те же, что использовались в поиске похожих картинок и определении марки автомобиля по фото. А о том, как в Яндексе в 2016 году решали задачу машинного перевода для редких языков, — тут.
Первая нейросеть для прогноза осадков с точностью до минут
В Яндекс Погоду добавили нейросетевой «наукастинг» осадков — краткосрочный прогноз дождя и снега с высокой точностью. Модель использовала данные метеорадаров и свёрточные нейросети, чтобы предсказывать движение осадков на ближайшие пару часов с детализацией до отдельных районов. На коротких интервалах подход оказался точнее классических методов и улучшил прогноз «здесь и сейчас». О том, как далеко шагнуло прогнозирование погоды с помощью нейросетей в 2026-м — писали здесь, а вспомнить, что было в 2016-м, можно тут.
Определение фишинга в Браузере с помощью ML
Традиционная защита браузеров от фишинга была основана на чёрных списках опасных сайтов. Но с автоматизированными атаками, где фишинг-страницы появляются быстрее, чем их вносят в списки, в 2016-м она уже не справлялась.
Стали прямо на устройстве пользователя анализировать самые разные признаки страницы — от технических параметров до визуального оформления — и оценивать её подозрительность. А компьютерное зрение использовали, чтобы сравнивать внешний вид сайтов с известными сервисами — так подделки находились даже без обращения к внешним спискам. Подробнее рассказали в хабростатье.
Вот такие технологии из дохайповых времён. Делитесь в комментариях своими воспоминаниями об ML в 2016 году.
ML Underhood
Управление ИИ-агентами в организации как борьба с ошибками и дичью.
Как вы представляли себе мир светлого будущего победившего ИИ, роботизации и автоматизации? Очень умные системы оперативнейше находят невиданно оптимальные решения? Которые с умопомрачительной скоростью реализуются на безлюдных фабриках в виде ну очень полезных и приятных изделий?
В истории научной фантастики хватает очень умного ИИ – от зловещего HAL 9000 из «Космической одиссеи» до депрессивного Марвина из «Автостопом по Галактике».
В реальности второй четверти XXI века в обозримом будущем, судя по всему, будет много такого, что не было предусмотрено научной фантастикой: а именно дурацких нелепых ошибок, галлюцинаций и прочих странностей ИИ-систем.
Например, оказалось, что запреты на разные нехорошие вещи в популярных ИИ-моделях могут обходиться, если запрос (промпт) формулировать в стихотворной форме. Хороший был бы когда-то сюжет для фантастической повести или сказали бы, что притянуто за уши? А это реальность.
Много где ИИ-инструментам всё больше дают агентские функции, и они начинают активно принимать решения, имеющие реальные последствия.
Не надо думать, что они только и делают, что галлюцинируют и творят дичь. Нет, конечно. Приносят пользу, повышают эффективность. Но появляются и новые проблемы.
И вот уже выходит классификация основных рисков внедрения ИИ-агентов, а также рекомендации для их снижения. Часть из них – золотая классика ИТ и ИБ, например, принцип минимальных привилегий и качественное журналирование всего и вся, другие – более специфичные для ИИ, например, проверка всех промптов на инъекции.
Но важнейшая цель этих рекомендаций – как сделать так, чтобы ИИ-агенты не творили всякую ерунду той или иной степени зловредности под влиянием злоумышленников или по собственной дурости.
90% пользователей DuckDuckGo против нейровыдачи
Разработчики известного анонимного поисковика DuckDuckGo провели любопытный опрос, в котором приняли участие больше 175 тысяч человек. Вопрос был прост – нужны ли ИИ-фичи в поисковой выдаче. И 90% ответили нет. Конечно, нужно понимать что аудитория DuckDuckGo достаточно своеобразная, и в основном этим поисковиком пользуются ради анонимности и безопасности – но тем не менее цифры красноречиво показывают, что большинству нейрофичи совсем не нужны.
Мой Компьютер
Ускорение E2E-инференса через оптимизацию KV-кэша. Часть I
Существует много способов ускорить инференс LLM: менять архитектуру, использовать speculative decoding или просто добавлять вычислительные ресурсы. Но есть и более практичный путь — оптимизация KV-кэша.
Её можно разделить на pre-train и post-train. Первые требуют изменений до обучения модели: это архитектурные решения вроде GQA/MQA/MLA, смешивание глобального и локального атеншена, а также другие модификации, которые обычно стоят дорого из-за переобучения.
Post-train-методы можно применять к уже готовой модели: это различные sparse-стратегии, pruning, удаление повторов токенов и другие техники, которые уменьшают объём KV или сокращают число обращений к нему во время инференса.
KV-бюджеты удобно делить на dense и sparse, отдельно для prefill и отдельно для decode. В варианте dense prefill + dense decode (обычный KV-кэш) каждый новый Q взаимодействует со всеми K и V до него: ко всем токенам промпта и всем ранее сгенерированным токенам. Тогда KV-бюджет равен сумме длины промпта и длины генерации.
Если сделать sparse только на prefill, а decode оставить плотным, то Q перестаёт смотреть на весь промпт, но общий выигрыш заметен в основном в сценариях «длинный промпт — короткий ответ». Если же оставить dense prefill и сделать sparse decode, это часто релевантно reasoning/CoT-сценариям. Sparse и на prefill, и на decode даёт максимальную экономию бюджета, но обычно сильнее всего ухудшает качество.
Sparse можно строить по-разному. Если пересчитывать важные токены на каждом шаге decode, то качество станет выше, но скорость падает. Если пересчитывать раз в несколько токенов, то получается быстрее, но нужно удерживать локальный контекст между пересчётами, иначе модель начинает терять связность.
Один из сильных post-train-методов оптимизации KV-кэша — ShadowKV, который позволяет получать минимальные просадки на бенчмарках без дообучения и увеличивает throughput до трёх раз. О нём мы подробно поговорим в следующей части.
Разбор подготовил❣ Владислав Кругликов
Душный NLP
🤖 Робот с «человеческим» осязанием: китайские учёные создали революционный тактильный датчик и модель DOVE
Исследователи из Китая представили прорывную систему для роботов, которая сочетает бионический сенсор SuperTac и огромную языковую модель DOVE. Это позволяет машинам не просто «чувствовать» объекты, но и «понимать» их свойства на уровне человека.
🔬 Суперсенсор, вдохновлённый природой
За основу разработки взята уникальная способность голубей воспринимать мир — их мультиспектральное зрение и умение чувствовать магнитное поле.
➡️ Аппаратная часть — SuperTac:
Это тонкая (1 мм) «кожа», объединяющая несколько технологий:
• Мультиспектральная камера — видит в ультрафиолете, видимом и инфракрасном свете, определяя форму, текстуру и даже температуру объекта.
• Трибоэлектрический наногенератор (TENG) — распознаёт материал предмета по его электрическим свойствам с точностью 95%.
• Инерциальный модуль (IMU) — улавливает вибрации и движение.
🧠 Искусственный интеллект, который объясняет ощущения
Сырые данные с SuperTac обрабатывает специализированная тактильно-языковая модель DOVE с 8.5 млрд параметров.
Её задача — переводить сложные физические сигналы в простые слова и логические выводы, как это делает человеческий мозг.
💡 Технические детали
• Архитектура DOVE построена на базе LLM Vicuna, дополненной четырьмя параллельными CLIP-энкодерами для обработки изображений от каждого сенсорного канала.
• Обучение проходило в три этапа: преобразование сигналов в изображения, проекция тактильных признаков в пространство языковой модели и тонкая настройка Vicuna для семантического вывода.
• Ключевая инновация — «оптический переключатель» в сенсорной коже, который меняет режимы работы между захватом текстуры и определением цвета объекта.
🚀 Что это значит на практике?
Робот с такой системой может:
• Взять чашку и «понять», что она «жёлтая, комнатной температуры, с рифлёной металлической поверхностью».
• Отсортировать мусор, логически рассуждая: «Этот предмет имеет характеристики PET, он лёгкий и тонкий — значит, пластиковая бутылка, её нужно отправить в переработку».
Эта работа — большой шаг от простого «робот чувствует» к сложному «робот понимает, что он чувствует». Развитие таких систем открывает путь к по-настоящему естественному и безопасному взаимодействию людей и машин.
Оригинальная статья в Nature
#КитайскийИИ #КитайAI #Робототехника #ИскусственныйИнтеллект #КомпьютерноеЗрение #Нейросети #Biotech