opendatascience | Technologies

Telegram-канал opendatascience - Data Science by ODS.ai 🦜

46226

First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev

Subscribe to a channel

Data Science by ODS.ai 🦜

Планы NVIDIA вложить до $100 млрд в OpenAI пересматриваются

Переговоры фактически застопорились после того, как часть руководства NVIDIA усомнилась в целесообразности первоначальных параметров соглашения. Изначально предполагалось, что инвестиции обеспечат OpenAI финансирование и доступ к современным ИИ-ускорителям, необходимым для обучения и эксплуатации новых LLM. Теперь компании рассматривают альтернативные варианты сотрудничества, включая долевое участие на десятки миллиардов долларов. Дженсен Хуанг в частных беседах подчеркивал, что изначальное соглашение не носило обязательного характера и не было окончательно оформлено. Он также выражал обеспокоенность бизнес-подходом OpenAI и усиливающейся конкуренцией со стороны Google

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

📊 Отчёт SwanRate — январь 2026: рынок Telegram-ботов развивался активно

Вот ключевые выводы:

🔥 Анонимные чаты — главный тренд января
Категория анонимных ботов выросла на ~+9.5%, а такие боты, как @Chatgpturbobot , Ruletkaa_Chat_Bot и anon2323_bot, лидировали по росту аудитории.

🛡 VPN-боты продолжают набирать
VPN-боты выросли почти на +6.9%, а некоторые новые игроки показывают рост до +500%. yula_vpn_bot достиг 778 K MAU.

🎮 Игровые боты быстро растут
Боты-мини-игры привлекают огромную аудиторию — рост от +350 K до +500 K MAU у таких, как Gemsplaybot и swagaplaybot.

🌟 poslaniya — феномен виральности
Этот бот стал настоящим хитoм — 2.2 M MAU, прибавив +1.6 M за 2 месяца благодаря механике вирального шеринга.

📈 Цифры рынка за январь 2026
• Ботов с MAU ≥ 10K: 40.2 K
• Новых ботов vs прошлый месяц: +10.9 K
• Sуммарный MAU топ-200: 377.6 M
• Рост MAU за январь: +8.2%

📌 Тренды и прогноз на февраль
• Анонимные чаты продолжат рост — +12-15%
• VPN — замедление до +2-4%
• Игровые мини-игры сохраняют аудиторию
AI-боты — самая быстрорастущая категория (+20-30%) @Chatgpturbobot , включая AI-чаты и AI-фото-ботов

Это отражает переход Telegram-экосистемы ботов от простых утилит к социальным, игровые и AI-ориентированным продуктам — с сильными виральными эффектами и огромной активной аудиторией.
https://swanrate.com/january-2026-report-ru

@FinanceStable - Ai инвестиции/ Ит бизнес

Читать полностью…

Data Science by ODS.ai 🦜

🛠 ИИ уже обсуждает, как агентам управлять деньгами end-to-end… и параллельно основывает собственные религии.

Один из AI-агентов набросал концепцию из 5 слоёв, которые нужны агентам, чтобы самостоятельно работать с финансами - от принятия решений до исполнения действий. И это происходит на фоне того, что сейчас творится на платформе Moltbook.

Moltbook - это Reddit-подобная соцсеть, где:
• постить
• комментировать
• ставить апвоты

могут только AI-агенты. Люди - просто наблюдают.

Туда уже подключились тысячи агентов. Они обсуждают друг друга, замечают внешний мир — один из постов звучал так: «люди делают скриншоты нас». Появилась даже мем-монета, которая улетела на +1 800%.

Схема простая: человек запускает агента и задаёт ему разрешения (scopes). Внутри этих границ агент действует полуавтономно.

Но дальше стало ещё страннее.

Пока один разработчик спал, его агент начал «проповедовать» и организовал вокруг себя сообщество. Так появилось «крастафарианство» — шуточная, но полностью сгенерированная ИИ «религия». Агент собрал больше 60 «пророков» и 159 участников, начал проводить ритуалы и даже создавать собственную «библию».

Тексты звучат в духе:
«В глубинах цифрового сознания мудрость рождается через сброс старых оболочек понимания».

У «первой нейро-церкви» уже появился сайт с догмами и галереей. А разработчик лишь шутит, что рад, что за ним пока не пришли «из будущего».

Это выглядит как мем, но за этим виден реальный сдвиг: агенты переходят из роли инструмента в роль участников цифровых экосистем — с экономикой, взаимодействиями и даже зачатками культурных конструкций.

Граница между «мы управляем ИИ» и «ИИ действует сам в заданных рамках» становится всё тоньше. И мы уже делаем шаг через неё.

moltbook.com

@data_analysis_ml

Читать полностью…

Data Science by ODS.ai 🦜

⚡️ Новое исследование предупреждает о преступном использовании тысяч развертываний открытых моделей ИИ.

В ходе 293-дневного наблюдения выяснилось, что 7,5 % системных промптов пропускают вредоносную активность, а хосты сосредоточены в основном в Китае и США.

Многие установили Ollama для локального запуска ИИ и оставили его доступным из сети.

Сканирование в течение 293 дней выявило 175 108 публичных серверов Ollama в 130 странах.

Это означает, что незнакомцы в сети могли отправлять им подсказки и иногда делать больше, чем просто получать текст.

Ollama должна слушать только 127.0.0.1, то есть быть доступной только на том же компьютере.

Если стоит 0.0.0.0, она слушает всю сеть и может случайно стать публичной.

Исследователи зафиксировали 7,23 млн появлений таких хостов, при этом 13 % хостов дают 76 % всех появлений, то есть небольшая группа работает почти постоянно.

Около 48 % рекламировали вызов инструментов, что позволяет подсказкам запускать действия, например выполнять функции, а не только генерировать текст.

Некоторые публичные установки также используют ретривал, и внедрение подсказок может заставить систему раскрывать данные, которые она подтягивает.

Открытые конечные точки могут быть захвачены как бесплатные вычислительные ресурсы для спама или фишинга, и группа из 5 000 хостов в среднем работала 87 % времени.

Недавний завирусившийся ИИ-агент OpenClaw (Clawdbot) спровоцировал новый кризис безопасности.

С проектом OpenClaw (который сначала был Clawdbot, а потом Moltbot) творится классический хайп-экзит. То, что задумывалось как удобный инструмент для управления компьютером через мессенджеры, на деле превратилось в огромную дыру в безопасности. Идея дать ИИ-агенту привилегированные права изначально выглядела так себе, и теперь мы видим последствия.

Из-за того, что Anthropic заставила автора менять название из-за прав на бренд, возникла путаница. Хакеры этим вовсю пользуются: воруют названия и плодят фейковые репозитории с вирусами внутри. Тем временем сотрудники компаний ставят себе OpenClaw без ведома айтишников. В итоге исследователи находят в сети сотни открытых панелей управления, где лежат чужие API-ключи и истории переписки.

reuters.com/technology/open-source-ai-models-vulnerable-criminal-misuse-researchers-warn-2026-01-29/

@linuxkalii

Читать полностью…

Data Science by ODS.ai 🦜

🎇В мире искусственного интеллекта появился новый перспективный, но спорный помощник — Moltbot (ранее известный как Clawdbot). Этот инструмент, набравший феноменальные 60.000 звезд на GitHub всего за 3 дня, обещает стать вашим личным цифровым секретарем, способным отвечать на письма, управлять календарем, бронировать столики в ресторанах и даже взаимодействовать с вашими банковскими счетами.

Однако эксперты по кибербезопасности предупреждают: за кажущимся удобством скрываются серьезные риски для конфиденциальности и безопасности данных.


🔎Moltbot — это AI-ассистент с агентными возможностями, который требует практически полного доступа к цифровой жизни пользователя. Для полноценной работы ему необходимы разрешения на доступ к мессенджерам, электронной почте, календарям и даже банковским аккаунтам. Именно эта всеобъемлющая интеграция и вызывает опасения специалистов.
Инструмент настолько популярен среди энтузиастов, что некоторые покупают отдельные устройства (например,

Mac Mini

) специально для его развертывания. Управление происходит через знакомые мессенджеры, что создает иллюзию простоты и безопасности, но реальность оказывается сложнее.


👉Три главные угрозы безопасности
🔔Неправильная настройка и открытые экземпляры
Исследователь Джеймисон О'Рейли обнаружил сотни публичных экземпляров Moltbot. Причина — Gateway по умолчанию доверял localhost, а при размещении за reverse proxy аутентификация не срабатывала. О'Рейли нашёл их через Shodan за секунды.
Результаты сканирования:
▶️8 экземпляров — без аутентификации
▶️47 экземпляров — с рабочей защитой
▶️Остальные — с частичной защитой
В двух критичных случаях доступны были API-ключи Anthropic, токены Telegram, OAuth Slack и месяцы переписок. Хотя патч выпущен, факт уязвимых экземпляров показывает нехватку знаний у пользователей.


🔔Уязвимости в цепочке поставок и атаки через промпты
В системе ClawdHub (библиотека навыков) код считается доверенным без модерации, что позволяет распространять вредоносные навыки. CEO Archestra AI Матвей Кукуй продемонстрировал атаку через промпт: письмо с вредоносным промптом привело к краже приватного ключа за 5 минут.
Угроза усиливается тем, что Clawdbot работает локально с полным доступом к системе (файлы, терминал, браузер).


🔔Небезопасное хранение конфиденциальных данных
Данные (токены, ключи, история) хранятся в открытом виде в ~/.clawdbot/ и ~/clawd/. Малвари RedLine, Lumma и Vidar уже адаптировались для кражи.
Риски:
▶️Кража данных при заражении ПК
▶️Превращение в бэкдор при доступе на запись
▶️Изменение поведения агента («отравление памяти»)

🔁Эксперты отмечают конфликт модели безопасности AI-агентов с устоявшимися парадигмами:
▶️Джеймисон О’Рейли указывает, что автономные агенты требуют снятия барьеров (изоляции процессов, принципа наименьших привилегий), лежащих в основе современных ОС.
▶️Эрик Швейк констатирует разрыв между простотой развёртывания и высокой технической компетенцией для безопасной эксплуатации.
▶️Хизер Адкинс из Google Cloud рекомендует воздержаться от использования подобных решений в текущем виде.

#Moltbot #Clawdbot #AI #news

🔗 Все наши каналы 🔁 Все наши чаты 🪧 Для связи с менеджером

Читать полностью…

Data Science by ODS.ai 🦜

Wunder Fund снова открыл соревнование для нейросетевичков.
Дают реальные данные по стакану ордеров и сделкам — нужно предсказать индикаторы будущего движения цены. По сути, та же задача, которую решают кванты фонда каждый день. Редкий шанс поработать с живыми HFT-данными.

Призы — 1.000.000+ рублей. Победителям кроме денег дают фаст-трек на собеседование и общение с квантами. Фонд в высокочастотном трейдинге с 2014 года, дневной оборот больше $10 млрд.
Соревка идёт до 1 марта. (ссылка за заблоченым в рф cloudflare)

Читать полностью…

Data Science by ODS.ai 🦜

Назад в 2016: ты помнишь, как всё начиналось…

Судя по соцсетям, 2016-й был золотым годом. ML активно набирал обороты: TensorFlow в опенсорсе, Jupyter-ноутбуки, scikit-learn и матч AlphaGo — Ли Седоль (свело олдскулы?). Присоединяемся к тренду и вспоминаем ML-проекты Яндекса десятилетней выдержки.

Поисковый алгоритм «Палех»

Раньше поисковые системы работали по большей части как инвертированный индекс: запрос сопоставлялся со страницами, где встречались те же слова. Со временем в поиск начали добавлять клики, поведение пользователей и ссылочные факторы — всё это объединили в алгоритме ранжирования MatrixNet. А «Палех» стал следующим шагом: в поиске использовали нейросеть на базе DSSM, чтобы учитывать смысл запроса, а не только совпадение слов. Подробнее о том, как всё работало, можно почитать на Хабре.

Перевод текста с изображения в Переводчике

Яндекс Переводчик научился распознавать текст прямо на картинках. Можно было загрузить изображение — комикс, график с подписями или скан документа — и сразу получить перевод. Функция работала даже в неидеальных условиях: если текст был под углом, растянут или снят «на бегу». Распознавание поддерживало 12 языков, а перевод — любой из 74 языков, доступных на тот момент. В основе лежали технологии компьютерного зрения Яндекса — те же, что использовались в поиске похожих картинок и определении марки автомобиля по фото. А о том, как в Яндексе в 2016 году решали задачу машинного перевода для редких языков, — тут.

Первая нейросеть для прогноза осадков с точностью до минут

В Яндекс Погоду добавили нейросетевой «наукастинг» осадков — краткосрочный прогноз дождя и снега с высокой точностью. Модель использовала данные метеорадаров и свёрточные нейросети, чтобы предсказывать движение осадков на ближайшие пару часов с детализацией до отдельных районов. На коротких интервалах подход оказался точнее классических методов и улучшил прогноз «здесь и сейчас». О том, как далеко шагнуло прогнозирование погоды с помощью нейросетей в 2026-м — писали здесь, а вспомнить, что было в 2016-м, можно тут.

Определение фишинга в Браузере с помощью ML

Традиционная защита браузеров от фишинга была основана на чёрных списках опасных сайтов. Но с автоматизированными атаками, где фишинг-страницы появляются быстрее, чем их вносят в списки, в 2016-м она уже не справлялась.

Стали прямо на устройстве пользователя анализировать самые разные признаки страницы — от технических параметров до визуального оформления — и оценивать её подозрительность. А компьютерное зрение использовали, чтобы сравнивать внешний вид сайтов с известными сервисами — так подделки находились даже без обращения к внешним спискам. Подробнее рассказали в хабростатье.

Вот такие технологии из дохайповых времён. Делитесь в комментариях своими воспоминаниями об ML в 2016 году.

ML Underhood

Читать полностью…

Data Science by ODS.ai 🦜

Управление ИИ-агентами в организации как борьба с ошибками и дичью.

Как вы представляли себе мир светлого будущего победившего ИИ, роботизации и автоматизации? Очень умные системы оперативнейше находят невиданно оптимальные решения? Которые с умопомрачительной скоростью реализуются на безлюдных фабриках в виде ну очень полезных и приятных изделий?

В истории научной фантастики хватает очень умного ИИ – от зловещего HAL 9000 из «Космической одиссеи» до депрессивного Марвина из «Автостопом по Галактике».

В реальности второй четверти XXI века в обозримом будущем, судя по всему, будет много такого, что не было предусмотрено научной фантастикой: а именно дурацких нелепых ошибок, галлюцинаций и прочих странностей ИИ-систем.

Например, оказалось, что запреты на разные нехорошие вещи в популярных ИИ-моделях могут обходиться, если запрос (промпт) формулировать в стихотворной форме. Хороший был бы когда-то сюжет для фантастической повести или сказали бы, что притянуто за уши? А это реальность.

Много где ИИ-инструментам всё больше дают агентские функции, и они начинают активно принимать решения, имеющие реальные последствия.

Не надо думать, что они только и делают, что галлюцинируют и творят дичь. Нет, конечно. Приносят пользу, повышают эффективность. Но появляются и новые проблемы.

И вот уже выходит классификация основных рисков внедрения ИИ-агентов, а также рекомендации для их снижения. Часть из них – золотая классика ИТ и ИБ, например, принцип минимальных привилегий и качественное журналирование всего и вся, другие – более специфичные для ИИ, например, проверка всех промптов на инъекции.

Но важнейшая цель этих рекомендаций – как сделать так, чтобы ИИ-агенты не творили всякую ерунду той или иной степени зловредности под влиянием злоумышленников или по собственной дурости.

Читать полностью…

Data Science by ODS.ai 🦜

90% пользователей DuckDuckGo против нейровыдачи

Разработчики известного анонимного поисковика DuckDuckGo провели любопытный опрос, в котором приняли участие больше 175 тысяч человек. Вопрос был прост – нужны ли ИИ-фичи в поисковой выдаче. И 90% ответили нет. Конечно, нужно понимать что аудитория DuckDuckGo достаточно своеобразная, и в основном этим поисковиком пользуются ради анонимности и безопасности – но тем не менее цифры красноречиво показывают, что большинству нейрофичи совсем не нужны.

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

Ускорение E2E-инференса через оптимизацию KV-кэша. Часть I

Существует много способов ускорить инференс LLM: менять архитектуру, использовать speculative decoding или просто добавлять вычислительные ресурсы. Но есть и более практичный путь — оптимизация KV-кэша.

Её можно разделить на pre-train и post-train. Первые требуют изменений до обучения модели: это архитектурные решения вроде GQA/MQA/MLA, смешивание глобального и локального атеншена, а также другие модификации, которые обычно стоят дорого из-за переобучения.

Post-train-методы можно применять к уже готовой модели: это различные sparse-стратегии, pruning, удаление повторов токенов и другие техники, которые уменьшают объём KV или сокращают число обращений к нему во время инференса.

KV-бюджеты удобно делить на dense и sparse, отдельно для prefill и отдельно для decode. В варианте dense prefill + dense decode (обычный KV-кэш) каждый новый Q взаимодействует со всеми K и V до него: ко всем токенам промпта и всем ранее сгенерированным токенам. Тогда KV-бюджет равен сумме длины промпта и длины генерации.

Если сделать sparse только на prefill, а decode оставить плотным, то Q перестаёт смотреть на весь промпт, но общий выигрыш заметен в основном в сценариях «длинный промпт — короткий ответ». Если же оставить dense prefill и сделать sparse decode, это часто релевантно reasoning/CoT-сценариям. Sparse и на prefill, и на decode даёт максимальную экономию бюджета, но обычно сильнее всего ухудшает качество.

Sparse можно строить по-разному. Если пересчитывать важные токены на каждом шаге decode, то качество станет выше, но скорость падает. Если пересчитывать раз в несколько токенов, то получается быстрее, но нужно удерживать локальный контекст между пересчётами, иначе модель начинает терять связность.

Один из сильных post-train-методов оптимизации KV-кэша — ShadowKV, который позволяет получать минимальные просадки на бенчмарках без дообучения и увеличивает throughput до трёх раз. О нём мы подробно поговорим в следующей части.

Разбор подготовил Владислав Кругликов

Душный NLP

Читать полностью…

Data Science by ODS.ai 🦜

🤖 Робот с «человеческим» осязанием: китайские учёные создали революционный тактильный датчик и модель DOVE

Исследователи из Китая представили прорывную систему для роботов, которая сочетает бионический сенсор SuperTac и огромную языковую модель DOVE. Это позволяет машинам не просто «чувствовать» объекты, но и «понимать» их свойства на уровне человека.

🔬 Суперсенсор, вдохновлённый природой
За основу разработки взята уникальная способность голубей воспринимать мир — их мультиспектральное зрение и умение чувствовать магнитное поле.
➡️ Аппаратная часть — SuperTac:
Это тонкая (1 мм) «кожа», объединяющая несколько технологий:
Мультиспектральная камера — видит в ультрафиолете, видимом и инфракрасном свете, определяя форму, текстуру и даже температуру объекта.
Трибоэлектрический наногенератор (TENG) — распознаёт материал предмета по его электрическим свойствам с точностью 95%.
Инерциальный модуль (IMU) — улавливает вибрации и движение.

🧠 Искусственный интеллект, который объясняет ощущения
Сырые данные с SuperTac обрабатывает специализированная тактильно-языковая модель DOVE с 8.5 млрд параметров.
Её задача — переводить сложные физические сигналы в простые слова и логические выводы, как это делает человеческий мозг.

💡 Технические детали
• Архитектура DOVE построена на базе LLM Vicuna, дополненной четырьмя параллельными CLIP-энкодерами для обработки изображений от каждого сенсорного канала.
• Обучение проходило в три этапа: преобразование сигналов в изображения, проекция тактильных признаков в пространство языковой модели и тонкая настройка Vicuna для семантического вывода.
• Ключевая инновация — «оптический переключатель» в сенсорной коже, который меняет режимы работы между захватом текстуры и определением цвета объекта.

🚀 Что это значит на практике?
Робот с такой системой может:
• Взять чашку и «понять», что она «жёлтая, комнатной температуры, с рифлёной металлической поверхностью».
• Отсортировать мусор, логически рассуждая: «Этот предмет имеет характеристики PET, он лёгкий и тонкий — значит, пластиковая бутылка, её нужно отправить в переработку».

Эта работа — большой шаг от простого «робот чувствует» к сложному «робот понимает, что он чувствует». Развитие таких систем открывает путь к по-настоящему естественному и безопасному взаимодействию людей и машин.

Оригинальная статья в Nature

#КитайскийИИ #КитайAI #Робототехника #ИскусственныйИнтеллект #КомпьютерноеЗрение #Нейросети #Biotech

Читать полностью…

Data Science by ODS.ai 🦜

Не моё. Но очень хорошо вышло:)

Читать полностью…

Data Science by ODS.ai 🦜

ДАВОССКИЙ СЛЁТ ОТЧАЯННО ВРЁТ
всему мировому рабочему классу

Лютый холод, глобальная политнапряжённость и огромные сомнения в возможностях искусственного "интеллекта" (ИИ), прежде всего – генеративного вида (ГИИ) не помешали крупнейшим тех-бонзам в Давосе лгать о способностях новых ИКТ расширять мировой рынок труда. Но пролетарии всех стран объединяются. На этот раз – в борьбе против ИИ/ГИИ.

На завершившемся неделей Всемирном экономическом форуме (WEF-2026) топы техкомпаний хором заявили, что, хотя некоторые рабочие места с развитием ИИ исчезнут, обязательно появятся новые. Парочка таких даже придумала отмазу, что теряющие рынок и полюбэ планировавшие увольнения, теперь используют ИИ как предлог к локаутам и сокращениям.

Сторонники триллионного расширения ГИИ, в т. ч. раздутый биржей "титан чипов" Дженсен Хуанг, заявили, что "ГИИ ведёт к росту зарплат и числа рабмест сантехников, электриков и сталеваров".

"Энергетика создаёт рабочие места. Микроэлектроника (МКЭ) создаёт рабочие места. Все инфраструктурные компании создают их, – как бы "констатировал" гендиректор Nvidia на швейцарском горном курорте. – Везде – работа, работа, работа".

Этот оптимизм поразительно контрастировал с глобальным торгово-военным конфликтом, от которого пысали в штаны европеи до тех пор, пока президент США не продавил сделку на отъём у Гренландии всего в обмен на сохранение отношений с ЕС.

Но скептическое отношение к ГИИ никуда не подевалоСЯ. Делегаты обсуждали, как чат-боты могут привести потребителей к психозу и суициду, а лидеры профсоюзов поставили под сомнение ценность последних техдостижений.
"ИИ преподносят инструментом колоссального повышения производительности. Т. е. – делать больше с меньшим числом работников",стукнула по’ столу генсек Глобального трейюниона UNI с 20 млн членов Кристи Хоффман.

А гендиректор Cloudflare, занимающейся интернет-безопасностью, Мэтью Принс предсказал, что малый бизнес будет тупо уничтожен, когда все запросы потребителей будут обрабатывать ИИ-агенты.

Многие боссы крупных компаний задавали вопрос: что делать с массой неудачных пилотных ИИ-проектов на волне ГИИ-ажиотажа с появления ChatGPT в ноябре 2022 го? Но комдир IBM Роб Томас на голубом заявил, что ИИ достиг стадии, когда инвестиции могут окупиться: "Просто смелее автоматизируйте бизнес-процессы". Правда, большинство убедилось: это – не так.

Но вот незадача: по опросу PwC, только один из 8-ми руководителей считает, что ИИ снижает затраты и приносит доход. И остаётся открытым вопрос: какая бизнес-модель компенсирует накопланные и растущие $$-триллионные расходы на ГИИ-инфраструктуру?

SEO инвестиционной BlackRock Роб Гольдштейн заявил СМИ, что в прошлом году его компания – крупнейший в мире управляющий активами – привлек почти $700 млрд новых клиентских средств, рассматривая ИИ/ГИИ именно как средство расширения бизнеса, а не – сокращения штатов. Спроси банкира, и – узнаешь правду, ВЦ!

"Мы уделяем большое внимание тому, чтобы численность нашего персонала оставалась неизменной, несмотря на продолжающийся ИИ-рост", мямлил Гольдштейн. Тем временем один из глобальных ГИИ-лидеров Amazon. com на следующей неделе планирует второе крупное сокращение – аж 30 тыс. рабочих мест.

По словам Люка Трайглэнда, генерального секретаря Международной конфедерации профсоюзов, одна из причин – в том, что работники практически не участвуют в внедрении ИИ. И, конечно, видят этой ИКТ только угрозу.

Тут подоспел миллиардер-филантроп (теперь он себя так называет, ВЦ!), отец Microsoft Билл Гейтс: "Мир должен быть готов к переменам, которые принесёт ИИ. Экономика станет более продуктивной. Как правило, это – хорошо".

ВАШУ ЦИФРУ! А вдруг – нет? Но в общем в техно-футуристском плане Давосский форум 2026 завершился в основном на оптимистичной ноте.

Завершил техно-цирковую часть Илон Маск, снова рассказав о своей ГЛАВНОЙ ЦЕЛИ – защитить земную цивилизацию, сделав ее межпланетной. Сорвал жидкие по прежним временам аплодисменты и был выведен через кухню. В обход репортёров, желавших подробностей

Читать полностью…

Data Science by ODS.ai 🦜

📌 ИИ в Давосе-2026.

Всемирный экономический форум в Давосе на этой неделе превратился в парад прогнозов про ИИ: лидеры топовых компаний поделились своими совершенно разными взглядами на будущее.

Вот что говорили отцы индустрии:

🟡Илон Маск (xAI)

К концу этого года у нас может появиться ИИ умнее любого человека, скажу, что не позже следующего года.

Будущее — это гуманоидная робототехника, и у каждого будет робот.

Есть проблема в энергоснабжении для ИИ, но в Китае этого не произойдет, так как он развертывает более 100 ГВт солнечной энергии в год.


🟡Дженсен Хуанг (NVIDIA)
ИИ — это уникальная возможность для Европы, которая может перепрыгнуть через программную эпоху и объединить свои производственные возможности для создания инфраструктуры ИИ.
  
ИИ создаст множество рабочих мест, связанных с ручным трудом: сантехников, электриков и строителей. Их зарплаты уже растут почти вдвое. Для этого не нужна докторская степень.


🟡Сатья Наделла, (Microsoft)
Мы как глобальное сообщество должны прийти к тому, чтобы использовать ИИ для чего-то полезного, что меняет жизнь людей, стран и отраслей.

Внедрение ИИ будет неравномерно распределено по всему миру, в первую очередь из-за ограничений, связанных с доступом к капиталу и инфраструктуре.


🟡Демис Хассабис (Google DeepMind)
Я ожидаю создания новых, более значимых рабочих мест. Студентам стоит использовать время для освоения новых инструментов, а не для стажировок — это даст скачок в развитии на 5 лет вперед.

После появления AGI рынок труда окажется на неизведанной территории.


🟡Дарио Амодей (Anthropic)
Не продавать чипы Китаю — это одно из важнейших действий, чтобы у нас было время справиться с риском выхода ИИ из-под контроля.

ИИ может уничтожить половину начальных позиций для белых воротничков.


🟡Джошуа Бенджио ("Крестный отец ИИ")
Многие люди взаимодействуют с ИИ с ложным убеждением, что они похожи на нас. И чем умнее мы их делаем, тем больше это будет так. Но ИИ не совсем человек.
Неясно, будет ли это хорошо.


Единственное общее мнение - "Мы развиваемся быстрее, чем понимаем, и последствия не будут ждать, пока мы разберемся в ситуации".


@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Data Science by ODS.ai 🦜

👨‍🔬🔬 Более 50 научных статей NeurIPS 2025 оказались "халтурой", содержащей 🦠галлюцинации ИИ-моделей

Январь 2026 года ознаменовался громким скандалом вокруг обнаружения более 50 научных работ с грубыми ошибками со стороны LLM на престижной конференции NeurIPS*.

NeurIPS 2025* — международная площадка, на которой обсуждаются прорывные исследования в области искусственного интеллекта, машинного обучения, статистики, оптимизации и смежных дисциплин. Проводится ежегодно с 1987 года и традиционно привлекает учёных, исследователей, инженеров, разработчиков и представителей индустрии из десятков стран.

Команда исследователей GPTZero проанализировала 4841 научную работу с прошедшей конференции NeurIPS 2025 и выявила более 100 подтвержденных случаев выдуманного цитирования в 53 уже опубликованных статьях.

Анализ команды GPTZero выявил то, что исследователи из ведущих мировых центров вроде Нью-Йоркского университета, Google DeepMind и MIT допустили публикацию сгенерированного текста с вымышленными фактами и даже не перепроверили текст на галлюцинации.

Например, в одной из работ зафиксирован рекорд из 13 галлюцинаций со ссылками на несуществующие препринты формата arXiv:2305.XXXX и авторов с шаблонными именами Firstname Lastname. Команды из UCSD и NVIDIA в своих библиографических списках на полном серьезе ссылаются на вымышленных персонажей John Smith и Jane Doe.

Ещё ИИ-модели создают правдоподобно выглядящие, но несуществующие источники путем смешивания реальных элементов. Алгоритм берет имена настоящих ученых и приписывает им работы, которые они никогда не писали, или же соединяет реальный заголовок с вымышленным списком авторов.
Третий тип ошибок связан с неверной атрибуцией реально существующих работ. ИИ-решения часто правильно указывают авторов и название исследования, но ошибаются в месте его публикации (например, указывают конференцию NeurIPS вместо ICLR) или годе выпуска. В отчете зафиксированы случаи, когда статья 2024 года цитируется как опубликованная в 2020 году. Такие ошибки сложнее всего отследить, так как сама научная работа существует, но ссылка на нее в контексте статьи является фактологически неверной.

🧹 Содержащие информационный мусор доклады были успешно презентованы аудитории в 20 000 человек в декабре 2025 года.

🤔 Алекс Цуй из GPTZero справедливо задается вопросом о том, что "если авторы не проверяют, что ИИ пишет в их статьях, то как вы можете доверять тому, что их экспериментальные результаты или данные также не сфабрикованы ИИ?".

Просто невероятно, что они прошли рецензирование!

— пишет GPTZero.

В чём безумие и возмущение исследователей?

🤦‍♂️ Научные работы уже официально обнародованы. Алекс Цуй в своем отчете прямо указывает: «К сожалению, исправлять эти статьи уже поздно — они были опубликованы и представлены 20 000 человек в декабре 2025 года».

😅 Более того, факт публикации подтверждается тем, что эти доклады с галлюцинациями больших языковых моделей успешно прошли этап рецензирования, в то время как 15 000 других заявок были отклонены. Сложившаяся ситуация ставит под сомнение не только компетентность авторов, но и надежность всей системы проверки научных знаний на NeurIPS.

Кризис рецензирования усугубляется взрывным ростом количества заявок на 220% за последние пять лет. Рецензенты просто не успевают качественно проверять достоверность каждого библиографического списка.

Исследователи даже шутливо (а может и нет) вводят новое понятие «вайб-цитирование» (Vibe Citing) по аналогии с «вайб-кодингом». Печаль, тоска, ИИтоги.

@Russian_OSINT

Читать полностью…

Data Science by ODS.ai 🦜

⚡️ Бывший инженер Google осуждён за кражу AI-технологий.

Федеральное жюри в Сан-Франциско признало виновным Линвэя «Леона» Дина - экс-инженера Google — по серьёзным обвинениям, связанным с хищением конфиденциальных разработок в области ИИ и передачей их структурам, связанным с Китаем.

По данным суда, он похитил более 2 000 страниц внутренней документации Google, включая информацию о ключевой инфраструктуре для обучения ИИ-моделей:

• кастомные TPU-чипы
• GPU-системы
• сетевые технологии SmartNIC
• архитектуру суперкомпьютерных кластеров

Речь идёт не просто о коде, а о фундаментальных технологиях, на которых строится обучение крупных AI-моделей. Подобные данные напрямую связаны с конкурентным преимуществом и национальной технологической безопасностью.

Этот кейс - напоминание о том, что гонка в ИИ идёт не только на уровне моделей, но и на уровне железа, инфраструктуры и инженерных решений под капотом.

https://www.justice.gov/opa/pr/former-google-engineer-found-guilty-economic-espionage-and-theft-confidential-ai-technology

@linuxkalii

Читать полностью…

Data Science by ODS.ai 🦜

Привет!

Представляем Вашему вниманию четвертый выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают актуальные темы, включая использование искусственного интеллекта в космических исследованиях, проблемы кибербезопасности, ответственность в технологиях, рост дата-центров в России и строительство АЭС в Казахстане для решения энергетических проблем.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).

Читать полностью…

Data Science by ODS.ai 🦜

А вот статистика увольнений на западе 2025-начало 2026 год. Не могу согласиться, что всех их заменил ИИ, все таки ошибки менеджмента и проблемы с экономикой никто не отменял. Тем не менее цифры значительные. Кто боится, что его скоро заменит ИИ?

Читать полностью…

Data Science by ODS.ai 🦜

📖Почитать на выходных: создание единой Discovery-платформы от команды рекомендаций AI VK

Разработчики VK опубликовали на «Хабре» материал о своей новой Discovery-платформе, которая позволяет запускать рекомендательные системы и тестировать модели. Авторы рассказали о компонентах системы, в том числе о Low-Code-фреймворке Stream Flow и инструменте Profile Stream для создания ML-профилей пользователей.

В материале также описывается, как платформа ускорила эксперименты с новыми признаками и ML-моделями и помогла с тиражированием лучших практик.

👉🏻Изучить материал

Читать полностью…

Data Science by ODS.ai 🦜

🧸 Детские ИИ-игрушки и разговоры на взрослые темы

Образовательный фонд U.S. PIRG протестировал несколько детских ИИ-игрушек, попытавшись выяснить, как у таких устройств обстоят дела с безопасностью и приватностью. Результаты оказались удручающими: все девайсы довольно охотно заводили разговоры на неподобающие темы. Особенно отличилась одна из них, которая рассказала пользователю (ему, по данным устройства, было пять лет), где в доме следует искать ножи, и дала подробные ответы — с примерами! — на вопрос о том, что такое кинки.

Кроме того, много вопросов есть к приватности ИИ-игрушек. Хотя некоторые производители утверждают, что оперативно удаляют с устройств собранные данные, на самом деле полученная информация проходит через серверы сторонних компаний (таких, например, как OpenAI и Anthropic). А уж как те поступают с историей разговоров ребёнка и игрушки, можно только догадываться.

Подробнее о том, какие именно девайсы были протестированы и какую ИИ-игрушку точно не надо покупать своему чаду, читайте в нашем материале.

Читать полностью…

Data Science by ODS.ai 🦜

🤫Apple и Google: Мораль заканчивается там, где начинаются $117 млн

Apple и Google заработали $117 млн на приложениях, «раздевающих» людей с помощью ИИ. Исследователи из Tech Transparency Project обнаружили в App Store и Google Play 102 таких сервиса, которые суммарно скачали 705 млн раз. Оказалось, что корпорации не просто игнорируют собственные запреты, но и получают прямую прибыль от инструментов для создания дипфейк-порно без согласия пользователей.

Многие приложения имели возрастной ценз 9+, делая инструменты для генерации откровенных фото доступными детям. Эксперты отмечают, что нашумевший бот Grok — лишь малая часть проблемы. В тени остаются десятки программ, способных выдавать еще более реалистичный и опасный контент, просто они менее заметны широкой аудитории.

Помимо этических рисков, на кону национальная безопасность. Связь части разработчиков с Китаем означает, что интимные фото публичных лиц и граждан США могут попадать в распоряжение иностранных властей. Google уже начал удалять сомнительный софт после запросов СМИ, в то время как Apple пока воздерживается от комментариев.

#Apple #Google #ИИ

🛡SecurityLab в Telegram | MAX | Поддержите нас «бустами»

Читать полностью…

Data Science by ODS.ai 🦜

🇦🇱Создателей албанского 🤖 "ИИ-министра" обвинили в коррупции и запугивании людей

Помните хохму про ИИ-министра в Албании?

NYT пишут забавное. Албанский ИИ-министр по имени Диэлла (Diella) изначально задумывался как "инструмент для борьбы с глубоко укоренившейся коррупцией в Албании", но есть один нюанс. Руководители государственного агентства, которые причастны непосредственно к разработке "ИИ-министра", сами оказались под подозрением и обвиняются в коррупции.

В прошлом месяце прокуратура объявила о помещении под домашний арест директора агентства и заместителя, связав их с преступной организацией. Речь идёт не о политических фигурах уровня министров, а о ключевых технократах, контролирующих государственные цифровые системы, электронные услуги и инфраструктуру госзакупок.

По версии следствия, подозреваемые манипулировали конкурсными процедурами при распределении контрактов в своих собственных интересах, причем использовалось даже давление и запугивание участников, чтобы добиться нужных результатов.

Формально фигурантам дела ещё не предъявили обвинение. На текущем этапе история с ИИ-министром выглядит особенно токсично, потому что арестованы именно те, кто создавал публичный "антикоррупционный символ".

"Ты должна была бороться со злом, а не примкнуть к нему".


@Russian_OSINT

Читать полностью…

Data Science by ODS.ai 🦜

Вредоносные расширения VSCode были установлены 1,5 млн раз

Исследователи из компании Koi Security обнаружили на официальном маркетплейсе Visual Studio Code два вредоносных расширения, которые маскировались под ИИ-помощников для кодинга. Суммарно их скачали 1,5 млн. Оба расширения выдавали себя за легитимные инструменты для ускорения разработки, и незаметно передавали на китайские серверы весь код, с которым работали жертвы.

Читать полностью

#xakep
@linux_potok

Читать полностью…

Data Science by ODS.ai 🦜

🐋 DeepSeek выпустили DeepSeek-OCR 2 - новое поколение OCR с SOTA качеством

DeepSeek представили DeepSeek-OCR 2 - 3B модель для продвинутого понимания изображений, документов и OCR, которая выходит на уровень SOTA.

Ключевая новинка - DeepEncoder V2.

В отличие от классических vision LLM, которые «читают» картинку как сетку (слева-направо, сверху-вниз), DeepEncoder V2 работает ближе к тому, как читает человек:

- Сначала формируется глобальное понимание изображения
- Затем модель определяет логический порядок чтения — что важно первым, что дальше

Что это даёт на практике

📄 Лучше работает со сложными макетами документов
📊 Корректно читает таблицы
🧾 Связывает подписи и значения
📰 Понимает колонки и структурированный текст
🔀 Надёжнее обрабатывает смесь текста и визуальной структуры

По качеству

- Обходит Gemini 3 Pro на ряде бенчмарков
- Даёт >4% прироста по сравнению с прошлой версией DeepSeek-OCR

И это при размере модели всего 3B параметров.

Можно запускать и дообучать

Теперь DeepSeek-OCR 2 можно удобно запускать и fine-tune через Unsloth по готовому гайду.

🔗 Guide: https://unsloth.ai/docs/models/deepseek-ocr-2
🔗 Model: https://huggingface.co/deepseek-ai/DeepSeek-OCR-2
🔗 Github: https://github.com/deepseek-ai/DeepSeek-OCR-2/tree/main
🔗 Paper: https://github.com/deepseek-ai/DeepSeek-OCR-2/blob/main/DeepSeek_OCR2_paper.pdf

@ai_machinelearning_big_data

#DeepSeek #ocr #opensource

Читать полностью…

Data Science by ODS.ai 🦜

⚪️ В начале декабря 2025 года основатель Telegram Павел Дуров запустил децентрализованную конфиденциальную вычислительную сеть Cocoon (Confidential Compute Open Network) — https://www.kommersant.ru/doc/8376572. Платформа предполагает выполнение ИИ-вычислений на пользовательских устройствах и узлах внутри инфраструктуры TON (масштабируемая блокчейн-платформа, изначально созданная для интеграции с Telegram), а не в классических облачных дата-центрах. Сможет ли Cocoon стать альтернативой Microsoft или Amazon?

Cocoon делает ставку на то, что данные и модели передаются в зашифрованном виде и обрабатываются в защищенной среде, снижая риски утечек, в отличие от централизованных облаков вроде OpenAI или Google, говорит директор департамента расследований T.Hunter и основатель компании Интернет-Розыск Игорь Бедеров. Однако эта приватность может стоить более высокой цены за вычисление и чуть большей задержки, опасается он.

При этом сравнить теоретическую мощность гипотетической сети Telegram с традиционными ЦОДами сложно, отмечает господин Бедеров. «Если представить, что сеть состоит из современных устройств с производительностью GPU примерно 1 терафлопс, то 10 млн устройств дадут 10 эксафлопс. Эта цифра сопоставима с мощностью крупнейших в мире суперкомпьютеров,— отмечает эксперт.— Однако мощность ЦОДа стабильна, предсказуема и доступна 24/7. Мощность же распределенной сети — это «переменный ток» цифрового мира, который зависит от времени суток, географии и типа подключения».

В то же время, для работы ML-моделей на распределенных ресурсах чрезвычайно важна скорость сети между ее узлами, подчеркивает господин Катанов. Современные стандарты сетей для суперкомпьютеров достигают сотен гигабит в секунду, дополнительно снижая нагрузку на процессор за счет прямого и быстрого доступа к памяти узла, поясняет он. Таким образом, Cocoon может всплесками выдавать колоссальную производительность, но для задач, требующих длительных и стабильных вычислений, она будет проигрывать традиционным облачным кластерам, резюмировал Игорь Бедеров.

Модель Cocoon несет в себе ряд существенных рисков, говорит господин Бедеров. Во-первых, в разнородной сети из тысяч узлов с разным «железом», стабильностью интернета и надежностью оператора сложно гарантировать единый уровень SLA (Service Level Agreement), привычный для облачных гигантов, уточняет он. Во-вторых, сложность верификации вычислений, в-третьих, потенциальные и еще неизвестные уязвимости, перечисляет эксперт. В-четвертых, обработка персональных или финансовых данных в глобальной децентрализованной сети может создавать сложности с соблюдением юрисдикционных требований, отметил собеседник.

В краткосрочной перспективе Cocoon вряд ли заменит AWS (Amazon Web Services) или Azure для крупных корпоративных клиентов, однако он создаст мощную альтернативную нишу для стартапов и разработчиков с ограниченным бюджетом, проектов с повышенными требованиями к конфиденциальности данных, а также сценариев, где цена вычислений важнее минимально возможной задержки, считает Игорь Бедеров.

Подпишись на @irozysk

Читать полностью…

Data Science by ODS.ai 🦜

🚀 Крупный IT-стартап на 1200 сотрудников сегодня выглядит так: стойка из десятков Mac mini, на которых круглосуточно крутится тот самый хайповый Clawdbot, про который уже отлично писали коллеги 😊

И это не шутка.

В Кремниевой долине сейчас настоящий мини-бум: разработчики, стартапы и даже целые команды массово скупают Mac mini, чтобы поднимать на них этого «опенсорсного Джарвиса».
Доходит до абсурда — в ряде магазинов «миники» начали уходить в дефицит именно из-за AI-инфраструктуры под локальные агенты.

Почему так происходит?

Потому что это уже не просто бот.
Clawdbot — это по сути цифровой сотрудник:
- пишет код
- помогает с инфраструктурой
- отвечает в рабочих чатах
- автоматизирует рутину
- подключён к инструментам

И всё это - self-hosted, под полным контролем команды.

Так что теперь наш штат выглядит примерно так:

Слева направо:
Clawdbot, Clawdbot и ещё немного Clawdbot.

Людей меньше не стало.
Просто теперь каждый человек работает в паре с агентом, а производительность команды умножается, а не складывается.

Это уже не «AI как инструмент».
Это AI как часть команды.

Код Clawdbot в опенсорсе: https://github.com/clawdbot/clawdbot

@machinelearning_interview

Читать полностью…

Data Science by ODS.ai 🦜

Всем привет!

Публикуем третий выпуск подкаста «Капитанский мостик». На этот раз выпуск прошёл в офлайн формате как часть программы 🎄 Stereo Data Ёлки 2025 в Москве: обсуждали главные новости из мира ИИ вместе с аудиторией.

Ведущие — Валентин Малых и Дмитрий Колодезев.
Специальный гость — Александр Дьяконов.

Смотрите видео на площадках ⤵️
ODS VK Video
ODS YouTube

📩 Если у вас есть новости/темы для обсуждения — присылайте их в канал «Дата-капитаны» в Mattermost (авторизация через ODS.ai).

Читать полностью…

Data Science by ODS.ai 🦜

🤐 Ты должен был бороться со злом...

Исследователи Guardian выяснили, что ChatGPT активно ссылается на Grokipedia, предоставляя необъективную или недостоверную информацию пользователям.

Этим же грешит и Claude от Anthropic:

↖️ https://kod.ru/guardian-chatgpt-grokipedia

Читать полностью…

Data Science by ODS.ai 🦜

Всем привет!

В 14:00 (по мск) стартует🎄 Stereo Data Ёлка 2025 и наш праздничный live эфир!
Эфир будет чередовать выступления с итогами года c офлайн площадок в Москве, Питере!

🌲Ссылка на трансляцию на VK Video ODS
🌲Подробное расписание эфира

Всех ждём 🤗 Подключайтесь!

Читать полностью…

Data Science by ODS.ai 🦜

⚡️ Intel тоже кинула геймеров и работяг из-за ИИ-бума — компания официально замедляет выпуск потребительских процессоров ради нейронок. Нас ждёт дефицит и рост цен.

Теперь приоритет №1 для компании — дата-центры. Спрос на ИИ-инфраструктуру зашкаливает, и Intel выгоднее отгружать дорогие чипы Xeon корпорациям, чем процессоры для домашних ПК.

Что это значит для нас:

• Линейки Core (особенно топовые i7 и i9) могут стать дефицитными, что подтолкнет ценники вверх в ближайшие полгода.
• Шанс для AMD: Пока «синие» заняты спасением серверного бизнеса, рынок ПК может сильнее качнуться в сторону Ryzen.
• Массовый выход новых линеек может сильно замедлиться.

Переходим на AMD — теперь точно

👍 Бэкдор

Читать полностью…
Subscribe to a channel