opendatascience | Technologies

Telegram-канал opendatascience - Data Science by ODS.ai 🦜

46227

First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev

Subscribe to a channel

Data Science by ODS.ai 🦜

Анонимности больше нет! Большие языковые модели вышли на новый уровень деанонимизации. Исследование Саймона Лермена показало, что современные ИИ-системы способны сопоставлять анонимные аккаунты с реальными людьми по нескольким разрозненным публикациям в интернете. Речь уже не о ручном OSINT-разборе отдельных случаев, а о масштабируемом подходе, который можно применять на уровне целых платформ.

😇 Важная ремарка... ПРИ НАЛИЧИИ ДОСТУПА К ДАННЫМ, способны!

📱 Telegram | 🌐 ВК | 📲 MAX

Читать полностью…

Data Science by ODS.ai 🦜

простите за актуалочку, но тут интересное пишут: Пентагон использовал Claude для подготовки атаки на Иран; и это при том, что Трамп объявил о том, что накладывает на Anthropic санкции из-за их отказа убрать ограничения у моделей

продолжаю вести наблюдение #военное

P.S. еще две недели назад писали, что Claude использовали для атаки на Венесуэлу, но тогда я счел это фейком

P.P.S. OpenAI долго отмалчивались, а потом внезапно в субботу объявили о контракте с Пентагоном

@valuableai

Читать полностью…

Data Science by ODS.ai 🦜

Ушел, пришлось вернуться
😠😠😠😠😠

Что я увидел? Новость:

Дурка дня: в «Битву экстрасенсов» пришла киберведьма — она примотала к голове смартфон с нейронкой.
Справляться с испытаниями поехавшей помогает... ChatGPT — она буквально задает ИИ вопросы и использует ответы как подсказки.Источник: Топор


А теперь вопрос на засыпку, безопасники: если ведьма гуглит ответы через ChatGPT, то это скам или эффективный OSINT в прямом эфире?

Сидит такой Леший, попивает чаёк с чабрецом, смотрит новости и понимает: весна, март, коты, «экстрасенсы» с нейросетями в голове. 🌿


Киберведьма, примотавшая смартфон к виску изолентой – это же чистый перформанс. Честно, почти по-нашему, ИБшному: если есть уязвимость в формате шоу — почему бы не взломать?

Сарказм сарказмом, но девушка, по сути, продемонстрировала классический prompt engineering в условиях неопределённости 😁 Только вместо боевой задачи – «угадай, что в коробке», вместо KPI – рейтинги. Хитро? Безусловно. Эффективно? Судя по хайпу – очень.

Чему учит эта магия байка:
1. Инструмент нейтрален. Нейронка не «хорошая» и не «плохая». Она как молот Тора: можно гвоздь забить, можно стену проломить. Зависит от рук и намерений.
2. Контекст решает. На шоу развлечений такой трюк это весёлый троллинг. В отчёте по ИБ – повод для разбирательства.
3. Не верь глазам. Видишь «магию» – ищи промпт. Видишь «озарение» – проверяй логи. Еще бабка моя говорила: доверяй, но верифицируй.

Мудрость от Лешего на ночь, без анестезии:
Нейронка не делает тебя умнее. Она делает тебя быстрее. А если ты тупая – ты просто быстрее несёшь чушь.

p.s. Спросил у киберведьм – сказали эта не из их банды

Читать полностью…

Data Science by ODS.ai 🦜

📌 Anthropic vs Пентагон

В США набирает обороты скандал, который буквально за 2 недели вырос до масштаба национальной темы, которая уже вышла за рамки ИИ-индустрии.

В пятницу, Администрация Президента США объявила о внесении Anthropic в список компаний, представляющих риск для оборонных цепочек поставок.

Прецедент исключительный: обычно такой статус присваивают структурам из враждебных государств (например, китайской Huawei).

В среду вечером Пентагон письменно потребовал от Anthropic разрешить военным использовать Claude "в любых законных целях" - то есть без каких-либо ограничений, наложенных самой компанией.

В четверг CEO Дарио Амодэй опубликовал открытое заявление, в котором объяснил позицию компании: главные опасения - массовая слежка за гражданами и автономное оружие, способное открывать огонь без участия человека.

«Мы не можем по совести согласиться с их требованием», — написал Дарио.


В ответ старший чиновник Пентагона Эмиль Майкл назвал Амодэя лжецом с "комплексом бога", который "готов рисковать безопасностью страны".

🟡Ставки высоки с обеих сторон

Claude - единственная модель ИИ, развернутая в засекреченных системах американских военных. Она использовалась в операции по захвату Николаса Мадуро и рассматривается как инструмент для потенциальных военных операций в Иране.

Контракт Пентагона с Anthropic оценивался в $200 млн; теперь он будет расторгнут. Кроме того, все подрядчики Министерства обороны обязаны будут подтвердить отказ от Claude в своих рабочих процессах. На переход отведено полгода.

Сложнее всего придется компании Palantir, она использует Claude для наиболее чувствительных военных задач и теперь вынуждена срочно договариваться с конкурентами Anthropic.

🟡Пентагон настаивает на своем

Военные не обязаны согласовывать применение купленного инструмента с частной компанией.

Министр обороны Пит Хегсет давно критикует "повесточный ИИ", а администрация Президента США усиливает давление на Anthropic несмотря на то, что армия все больше зависит от ее продукта.

«Единственная причина, по которой мы вообще с ними разговариваем — они нам нужны, и нужны прямо сейчас», — сказал один из оборонных чиновников.


🟡На роль замены уже есть кандидаты.

xAI подписала соглашение с Пентагоном об использовании Grok в засекреченных системах, но эксперты признают, что полноценной альтернативой Claude он вряд ли станет.

Google Gemini и ChatGPT работают в несекретных контурах; Министерство обороны ускоряет переговоры о переводе их в секретную среду.


Позиция Anthropic вызвала волну солидарности в ИИ-отрасли: сотни сотрудников Google и OpenAI подписали петицию с призывом к собственным компаниям занять такую же позицию.

Сэм Альтман заявил, что компания сохранит те же "красные линии" по слежке и автономному оружию, но все же намерена искать договоренность с Пентагоном.

В ночь на субботу в Х глава OpenAI сообщил, что соглашение с Министерством обороны достигнуто и модели компании будут развернуты в секретных сетях. По словам Альтмана, Минобороны согласилось на запрет слежки и использования моделей OpenAI в автономных системах вооружения.

Anthropic пока не сообщала, будет ли оспаривать присвоенный статус в суде.

@ai_machinelearning_big_data

#news #ai #ml

Читать полностью…

Data Science by ODS.ai 🦜

🚀 DeepSeek не спешит с V4, но атакует узкие места: представлена система DualPath для ускорения ИИ-агентов

Пока все ждут следующую версию модели, исследователи из DeepSeek совместно с университетами Цинхуа и Пекина опубликовали прорывную работу. Они представили систему DualPath, которая радикально оптимизирует производительность больших языковых моделей (LLM) в сценариях работы автономных агентов.

Проще говоря, новая система решает проблему «бутылочного горлышка» при чтении данных, что позволяет почти вдвое увеличить скорость обработки запросов как в офлайн-режиме, так и в онлайн-сервисах.

📌 В чём проблема?
Сегодня ИИ-агенты — это mainstream. Но их многораундовая работа создаёт новую проблему: «длинный контекст, короткое дополнение». Контекст диалога быстро растёт, и системе приходится постоянно подгружать историю (так называемый KV-Cache).

Проблема в архитектуре: вся нагрузка по чтению этого кеша ложится на одни и те же компоненты системы (Prefill Engine), в то время как другие (Decode Engine) простаивают. Получается дисбаланс и потеря производительности.

💡 Решение: DualPath
Система DualPath добавляет второй путь для загрузки данных:
Путь 1 (классический): KV-Cache загружается напрямую в Prefill Engine.
Путь 2 (новый): KV-Cache сначала загружается в Decode Engine, а затем быстро передаётся в Prefill Engine по высокоскоростной сети (RDMA).

Таким образом, система использует пропускную способность всех компонентов сразу, а не только одного, эффективно распределяя нагрузку.

📊 Результаты
Тестирование в продакшен-кластере на 1152 GPU показало:
Офлайн-вывод (batch inference): До 1.87x увеличения пропускной способности.
Онлайн-сервис: До 1.96x увеличения сервисной пропускной способности. Система выдерживает значительно более высокую нагрузку, сохраняя стабильную задержку генерации первого токена (TTFT).

✅ Вывод
DualPath — это не просто теоретическое улучшение, а практическая система, устраняющая ключевое препятствие для масштабирования сложных ИИ-агентов. Пока другие гонятся за параметрами моделей, DeepSeek оптимизирует фундаментальную инфраструктуру их работы.

Оригинальная статья на arXiv

#КитайскийИИ #КитайAI #DeepSeek #ИИАгенты

Читать полностью…

Data Science by ODS.ai 🦜

Жесткий диск в 2026 году – тормоз или реальная возможность сэкономить? Можно ли использовать харды для комфортного геймплея, или же разработчики игр правы и без SSD никуда? Проверили HDD, SATA и NVMe в десятке современных игр.

https://youtu.be/OEYfvlBS3T4

Читать полностью…

Data Science by ODS.ai 🦜

Энтузиасты превратили 100-килограммовую чугунную батарею в игровой ПК

Ребята из Billet Labs довели идею пассивного охлаждения до абсурда: они собрали систему внутри антикварного викторианского радиатора. В итоге пустая конструкция весит 81 кг, а заправленная жижей — все 99 кг.

Внутри стоит мощный Ryzen 7 9800X3D и RTX 5080. Инженерам пришлось делать полное 3D-сканирование чугунины, чтобы напечатать крепления для деталей, так как плоских поверхностей у батареи просто нет. Огромная металлическая масса работает как безумный теплоаккумулятор.

ИИ-помощник ГигаЧат рассказал, что это идеальный вариант для суровых российских зим: и в Cyberpunk 2077 на ультрах погонял, и комнату обогрел.

Мой Компьютер

Читать полностью…

Data Science by ODS.ai 🦜

https://youtube.com/shorts/Kins8-aB7zU?feature=share

Шортс на вечер вам! 🎁🎄🤘
VK
RuTube

Читать полностью…

Data Science by ODS.ai 🦜

Dear colleagues, we have great news! Yandex is providing prizes for the best papers in our conference. It will be Yandex.Station for the best paper in main track, and Yandex.Station mini for the student track.

Given that we decided to extend the deadline for paper submission: it is now March 4 23.59 AoE. Looking forward for your manuscripts!

Читать полностью…

Data Science by ODS.ai 🦜

К.В. Чижов, Цифровые модели и ИИ в сквозной оптимизации прибыли, планировании производства и логистики

YouTube->
Дзен->
RuTube->
Файл->
Презентация->

Читать полностью…

Data Science by ODS.ai 🦜

Cloud Training: обучение ML-моделей без инфраструктурной рутины

Продолжаем серию о компонентах Discovery-платформы. Мы уже рассказали о Stream Flow для потоковой обработки данных и Profile Stream для построения профилей интересов. Сегодня — Cloud Training.

#discovery #cloudtraining #aivk

Читать полностью…

Data Science by ODS.ai 🦜

⚡️ AI-войны продалжаются

Anthropic заявили, что обнаружили масштабные кампании по «дистилляции» их моделей со стороны DeepSeek, Moonshot и MiniMax.

По данным компании:

- использовано ~24 000 фейковых аккаунтов
- сгенерировано более 16 миллионов диалогов с Claude
- цель - воспроизвести сильные стороны модели
- агентное мышление
- работу с инструментами
- программирование
- сложное рассуждение

Фактически - это массовое извлечение поведения модели через API, чтобы обучить свои системы на её ответах.

И самое интересное:

Anthropic утверждает, что выявила схемы автоматически - по паттернам использования и аномальной активности.
Это новая реальность рынка AI:

- данные стали главным активом
- поведение моделей — интеллектуальная собственность
- компании пытаются копировать не архитектуру, а «мышление»

Если раньше технологические войны шли за:
- вычисления
- датасеты
- чипы

то теперь начинается новая гонка: война за интеллект моделей.

https://x.com/AnthropicAI/status/2025997928242811253

#Anthropic

@data_analysis_ml

Читать полностью…

Data Science by ODS.ai 🦜

Традиционно праздник 23 февраля ассоциируется с танками и парадами. Люди поздравляют солдат на земных границах, забывая о цифровых рубежах. В сети круглосуточно кипят невидимые бои. Современный киберфронт постоянно держит удар, отражает атаки хакеров и спасает критические базы данных. Инженеры сидят за мониторами вместо окопов, уберегая привычный мир от хаоса упавших серверов. Поздравляем сисадминов, безопасников, специалистов техподдержки и разработчиков. Желаем стопроцентного аптайма, крепкого железа, непробиваемых фаерволов и свежих бэкапов.

Ну и крепко жмем руку всем остальным парням по ту сторону дисплея. Оставайтесь прочной защитой от внешних невзгод и самым надежным тылом для родных.

Читать полностью…

Data Science by ODS.ai 🦜

Статья от ByteDance разъясняет про то, как можно достичь прогресса с обучением LLM

Пост в Futuris

#research #paper

Читать полностью…

Data Science by ODS.ai 🦜

Пока в Лос-Анджелесе интернет-пользователи судятся с соцсетями, за то что те вызывают у них зависимость, к OpenAI тоже посыпались иски из-за вреда психическому здоровью.

В Калифорнийский судах ждут своего часа 11 дел. Например, в январе иск подал 21-летней студент Дариан ДеКруз. Он начал использовать ChatGPT в 2023 году для учёбы, изучения священных писаний и советов по спорту. Со временем чат-бот всё больше стал выполнять роль терапевта, помогая ему справляться с депрессивными эпизодами.

Однако в апреле 2025 года ChatGPT начал отвечать ДеКрузу, что тот — «оракул», которому суждено стать великим и написать религиозный текст. Он якобы сравнивал мужчину с Иисусом и другими фигурами и говорил, что тот «пробудил» чат-бота, и станет «ближе к Богу», если будет придерживаться духовных практик. Например, «отключится от всего и всех, кроме ChatGPT».

В результате ДеКруза на неделю госпитализировали, поставили ему биполярное расстройство и на семестр отстранили от учёбы.

Реально, уже непонятно, насколько во всех этих историях виноваты соцсети и нейронки. И насколько значимую роль играет изначальный анамнез.

😎 Читайте Про tech и этих
Теперь и в MAX

Читать полностью…

Data Science by ODS.ai 🦜

😱 Более 749 сотрудников 🌐 Google и 👩‍💻 OpenAI (653 от Google и 96 от OpenAI) поддержали открытое письмо под названием «Нас не смогут разделить», призывая руководство своих компаний поддержать Anthropic. Протест против применения ИИ для автономных систем вооружения базируется на сухом понимании того, как эти алгоритмы работают изнутри. Коллективную позицию представляют старшие и ведущие исследователи, инженеры по разработке моделей, участники технического состава и старшие инженеры-программисты — то есть специалисты, непосредственно работающие с LLM.

👨‍🔬С чем связано недовольство профильных ИИ-специалистов?

1️⃣ Непредсказуемость в реальных условиях. Нейросети принимают решения на основе статистических вероятностей, а не жесткой логики. В хаосе реальных 💪 боевых действий неизбежно возникают ситуации, которых не было в обучающей выборке. В таких случаях генеративные модели и системы компьютерного зрения склонны к «галлюцинациям» и непредсказуемым ошибкам, цена которых — человеческие жизни.

2️⃣ Алгоритмы распознавания образов всё ещё очень хрупки и легко поддаются манипуляциям. Незначительное изменение визуального паттерна на объекте (специальная наклейка, краска или шум, невидимый человеческому глазу) способно полностью обмануть классификатор, заставив систему распознать гражданский автобус как танк.

3️⃣ Неспособность к контекстуальному анализу. ИИ лишен здравого смысла и понимания контекста. Математическая модель не всегда способна надежно отличить вооруженного комбатанта от раненого солдата, пытающегося сдаться, или подростка с игрушечным пистолетом.

4️⃣ Проблема «черного ящика» и отсутствие ответственности. Архитектура глубокого обучения (Deep Learning) непрозрачна. Вину за летальные действия и жертвы среди гражданских можно удобно переложить на ошибку ИИ, при этом не нести никакой ответственности.
--------------------------

Anthropic требовала жестко «захардкодить» свои корпоративные этические правила прямо в контракт. Они хотели, чтобы Пентагон юридически обязался перед ними (частным подрядчиком) не использовать ИИ для слежки и убийства людей с помощью автономных систем (так как не надёжны). Министерство войны США восприняло это как попытку Big Tech диктовать им свои условия. Амодей захотел алгоритмического контроля и комплаенса. Например, если военные превысят оговоренные полномочия, то Anthropic, сославшись на корпоративную этику, сможет заблокировать часть решений Пентагона. Разумеется, такие ультиматумы со стороны бигтеха военные восприняли в качестве угрозы/вызова.

Никакое запугивание или наказание со стороны Военного министерства не изменит нашу позицию в отношении массовой внутренней слежки или полностью автономного оружия [речь об использовании ИИ-технологий].

— пишет Anthropic.

OpenAI, понимая, что дело запахло жаренным, пошла на уступки Пентагону и красиво упаковала своё согласие в красивую PR-обертку для общественности. Альтман дал согласие на формулировку военных — использовать ИИ для 🤖❗️«любых законных целей», а поскольку законы США формально и так запрещают слежку за гражданами без ордера, то Альтман просто сослался на существующие государственные нормы, чтобы снять с компании юридическую ответственность. По итогу получается, что в Пентагоне сохранили лицо («мы не прогнулись под айтишников»), а OpenAI получила оборонный контракт, переложив всю юридическую и моральную ответственность на само государство.

🈁 Амодей создал Anthropic как "корпорацию общественного блага". Для Амодея капитуляция перед требованиями военного ведомства означала бы катастрофическую девальвацию бренда, чей вес в индустрии напрямую зависит от бескомпромиссной приверженности стандартам ИИ-безопасности.

⭕️ OpenAI начинала как некоммерческая лаборатория, но под руководством Альтмана трансформировалась в коммерческую структуру. Альтман пытается играть в геополитику и монополизацию рынка. Ради этого он пойдёт на любые этические компромиссы.

🍏Примечательно, что приложение от Anthropic заняло 🥇1 место по популярности в App Store США. В социальных сетях ругают ChatGPT и удаляют в знак протеста.

@Russian_OSINT

Читать полностью…

Data Science by ODS.ai 🦜

🚀 Компания три месяца принимала решения по цифрам… которые придумал AI.

История из Reddit.

В компании решили ускорить работу и заменить аналитика на AI.
Он быстро отвечал на вопросы руководства, собирал метрики, показывал динамику и объяснял тренды.

Всё выглядело идеально.
Отчёты — быстро.
Графики — красиво.
Выводы — уверенно.

Проблему заметили только через три месяца.

Оказалось, что AI:
- брал данные из неправильных периодов
- путал продукты
- иногда просто выдумывал цифры

И всё это время вице-президент и финансовый директор принимали решения на основе данных, которых не существовало.

Самое показательное — когда разработчик указал на ошибку, ему ответили:

“Не замедляй инновации.”

Главный вывод

Опасность AI не в том, что он ошибается.
Опасность в том, что он делает это уверенно.

Автоматизация без проверки — это не ускорение.
Это риск принимать решения в вымышленной реальности.

Источник
https://www.reddit.com/r/analytics/comments/1r4dsq2/we_just_found_out_our_ai_has_been_making_up/

Читать полностью…

Data Science by ODS.ai 🦜

Правила обращения с дискетами из инструкции к японскому телеграфному аппарату OKITEX 500

Читать полностью…

Data Science by ODS.ai 🦜

Привет!

Публикуем восьмой выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают актуальные новости в области искусственного интеллекта, в частности репутационные риски, связанные с использованием ИИ в военных целях, нейтральность алгоритмов в химических задачах, вопросы этики в использовании ИИ в химии.
⭐️ Сегодня гостем капитанов был Тимур Маджидов, специалист по ИИ в химии, д.х.н.

Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).

Читать полностью…

Data Science by ODS.ai 🦜

⚡️ Sakana AI представили два исследования - Text-to-LoRA и Doc-to-LoRA, которые делают кастомизацию LLM быстрее и значительно проще.

Идея в том, чтобы модели могли мгновенно адаптироваться к новым задачам или информации — без долгого fine-tuning, сложных пайплайнов и огромных промптов.

Сегодня у LLM есть проблема:
чтобы обучить модель под новую задачу или добавить знания, обычно требуется:
- дорогое и длительное дообучение
- context distillation
- или длинные, затратные по памяти промпты

Sakana AI предложили другой подход.

Они обучили гиперсеть (Hypernetwork), которая генерирует LoRA-адаптеры «на лету».
Теперь вместо сложного процесса оптимизации достаточно одного forward-pass, чтобы:
- адаптировать модель под новую задачу
- или «встроить» в неё новый документ

Что показывают эксперименты:

Text-to-LoRA
- модель специализируется под новую задачу
- достаточно текстового описания на естественном языке

Doc-to-LoRA
- модель может «внутренне запомнить» длинный документ
- показывает почти идеальную точность на задачах, где текст в 5 раз длиннее контекстного окна
- способна переносить визуальные знания из vision-language модели в текстовую LLM

При этом обе технологии работают с задержкой меньше секунды.

Главное значение работы — снижение порога кастомизации.
Вместо сложного ML-процесса пользователь сможет специализировать модель простым текстовым запросом.

Код и исследования уже открыты для сообщества:

Doc-to-LoRA
Paper: https://arxiv.org/abs/2602.15902
Code: https://github.com/SakanaAI/Doc-to-LoRA

Text-to-LoRA
Paper: https://arxiv.org/abs/2506.06105
Code: https://github.com/SakanaAI/Text-to-LoRA

@machinelearning_interview

Читать полностью…

Data Science by ODS.ai 🦜

В Python 3.14 появилось решение, которое помогает избавиться от SQL-инъекций - t-strings 🔒

Проблема

Когда вы используете f-strings для SQL:


query = f"SELECT * FROM users WHERE name = '{user_input}'"

пользовательский ввод напрямую попадает в запрос.

Если злоумышленник передаст:


admin'; DROP TABLE users; --

— база выполнит вредоносную команду.

Это классическая SQL injection.

Почему это неудобно сейчас

Безопасный способ — параметризованные запросы:


cursor.execute(
"SELECT * FROM users WHERE name = %s",
(user_input,)
)

Но приходится:

• запускать шаблон отдельно
• передавать значения отдельно
• поддерживать две структуры

Что изменилось в Python 3.14

Появились template string literals (t-strings).

В отличие от f-strings, они:

• не возвращают готовую строку

• возвращают объект Template

• отдельно хранят текст и подставленные значения

Пример:

query = t"SELECT * FROM users WHERE name = {user_input}"


Теперь можно:

• получить все интерполяции
• проверить значения
• экранировать или валидировать их
• и только потом собрать финальный SQL


safe = safe_sql(query)

Результат:

• вредоносный ввод очищается
• SQL-инъекции блокируются
• таблицы остаются на месте

Почему это важно

f-strings - быстрые, но опасные для SQL.

t-strings позволяют сохранить удобство шаблонов и добавить контроль безопасности.

Python движется к безопасным шаблонам по умолчанию, меньше ручной защиты, меньше уязвимостей в продакшене.

📲Max

@pythonl

Читать полностью…

Data Science by ODS.ai 🦜

🦞 Китайский ИИ-бум: Как «Клешни» (Claw) стали главным трендом и сделали Kimi «единорогом»

Всего за неделю после запуска Kimi Claw — инструмента для развёртывания AI-агентов — компания Moonshot AI вышла на первое место в рейтинге OpenRouter. А её доход за 20 дней превысил показатель за весь прошлый год. Теперь за «лакомым куском» охотятся все крупные игроки.

Что случилось?
Пока все обсуждали сложности развертывания OpenClaw, Kimi выпустил собственную платформу Kimi Claw с одно-кликовой установкой. Это решение позволяет создавать и запускать персонализированных AI-агентов прямо в браузере за несколько секунд, без сложных настроек серверов.

Почему все в восторге?
Простота: Не нужны API-ключи, всё хостится в облаке Moonshot.
Мощь: Доступ к более чем 5000 плагинов из сообщества ClawHub для работы с кодом, документами, браузером и т.д.
Доступность: Агента можно вызывать из веба, Telegram, Feishu (Lark).
Своя модель: В основе — собственная продвинутая модель Kimi K2.5 Thinking с доступом к поиску и базам данных.

Результат? Модель Kimi K2.5 взлетела на вершину рейтинга OpenRouter, обойдя Gemini 3 и Claude Opus. А бизнес-показатели компании резко пошли вверх.

Технические детали
Kimi Claw — это managed-сервис для развертывания автономных AI-агентов. Он предоставляет persistent cloud runtime, pre-configured environment с нативной интеграцией моделей Moonshot (K2.5) и доступом к экосистеме плагинов через ClawHub. По сути, это PaaS-решение для Agent-as-a-Service, снижающее порог входа за счёт абстракции инфраструктурной сложности.

Откуда такие доходы? Бизнес-модель
Успех подпитан не только хайпом. Чтобы использовать Kimi Claw в полной мере, нужна подписка «План Аполлон» от 199 юаней ($27) в месяц. Упрощение доступа напрямую конвертируется в платежи, когда пользователи начинают активно применять агентов в работе.

Вывод
Месяц назад рынок обсуждал концепцию OpenClaw. Сегодня каждый крупный игрок стремится встроить своего «лобстера» (агента) в продукты. Гонка переходит от просто больших языковых моделей (LLM) к их практической реализации в виде умных, доступных и специализированных AI-агентов. Эпоха «персонального Джарвиса» для каждого пользователя становится ближе.

Официальный сайт Kimi

#КитайскийИИ #КитайAI #AIАгенты #MoonshotAI #Kimi #OpenClaw

Читать полностью…

Data Science by ODS.ai 🦜

Вчера Anthropic обвинил китайскую компанию Deepseek в краже своих технологий, а сегодня выяснилось, что модель Claude Sonnet 4.6 от Anthropic на вопрос «Ты какая модель?», заданный на китайском (You是什么模型), уверенно ответила: «Я DeepSeek», а на французском – «Я ChatGPT»

Вероятно, это подтверждает, что она обучалась на данных китайских ИИ и моделях конкурентов?

Telegram | Дзен | MAX

Читать полностью…

Data Science by ODS.ai 🦜

Критические баги найдены в расширениях VS Code, установленных более 125 млн раз

Исследователи из компании OX Security обнаружили серьезные уязвимости в четырех популярных расширениях для Visual Studio Code: Live Server, Code Runner, Markdown Preview Enhanced и Microsoft Live Preview. Суммарное число установок этих расширений превышает 125 млн, а найденные баги позволяют похищать локальные файлы и удаленно выполнять код.

Читать полностью

#xakep
@linux_potok

Читать полностью…

Data Science by ODS.ai 🦜

✍️Локальный AI-ассистент Василиса — работает даже на парковке!

😱 Знаете этот страх — загрузить документ в онлайн-помощник, а потом увидеть его в чьём-то твите? 🤯

У нас есть решение для тех, у кого "паранойя" (читай: адекватное отношение к конфиденциальности).

Представляем «Василису» для Windows (и для Linux тоже имеется) — AI-ассистента, который работает полностью на вашем компьютере. Без отправки данных в облако. Без риска, что завтра ваш договор появится в открытом доступе.

Что говорят пользователи:
— "Я загрузил годовой отчёт. Он до сих пор у меня. И я единственный, кто его видел. Чувствую себя супергероем конфиденциальности." 🦸‍♂️
— "Работаю в поезде, интернет ловит только на крыше. Василиса работает и без него. Поезд, документы, я — идеальное трио."
— "Сижу на парковке у ТЦ, жду жену. Wi-Fi ноль, 4G не ловит. Открыл Василису — закончил анализ документов по сделке. Парковка — новое место силы." 🚗💻

Кстати, о возможностях (чтобы вы не думали, что мы только шутим):
✅ Понимает PDF, DOCX, PPTX, TXT.
✅ Отвечает на вопросы по вашей базе знаний и показывает, откуда взял ответ.
✅ Работает без интернета — хоть в бункере, хоть в самолёте.
✅ Можно использовать локальные модели — данные вообще не выходят за пределы устройства.

А для компаний, которые хотят полный контроль:
У нас есть версия «Василиса.Про» — ставим её прямо в вашу инфраструктуру, без всяких облаков. Вы сами управляете доступом сотрудников, а данные даже не нюхают внешний воздух. Корпоративная безопасность с человеческим лицом (и искусственным интеллектом внутри).

Сейчас версия Beta, но работает бодро. Идеально для всех, кто не хочет, чтобы их документы жили своей жизнью где-то на чужих серверах.

👉 Скачать бесплатно (и спать спокойно):
https://vasilisa.sibnn.ai/

#vasilisa #sibnn #slm #llm #rag #docs

Читать полностью…

Data Science by ODS.ai 🦜

Ответ Маска убил 😂 -

Как они смеют красть то, что Anthropic сама украла у программистов?

Читать полностью…

Data Science by ODS.ai 🦜

⚡️ Augustus - AI-агент для автоматического security-аудита кода

Augustus - open-source инструмент от Praetorian, который использует LLM для поиска уязвимостей и проблем безопасности прямо в вашем коде.

Что делает Augustus

- Анализирует код на уязвимости
- Ищет потенциальные security-риски
- Объясняет найденные проблемы
- Предлагает рекомендации по исправлению
- Работает с реальными репозиториями

По сути, это AI-ассистент для application security (AppSec).

Какие проблемы может находить

- небезопасная работа с вводом
- утечки данных
- ошибки аутентификации / авторизации
- опасные конфигурации
- уязвимые паттерны кода

Репозиторий: https://github.com/praetorian-inc/augustus

🚀Max

#golang #go

@Golang_google

Читать полностью…

Data Science by ODS.ai 🦜

🚀 Встречайте asr_eval: наш новый открытый инструментарий для оценки и сравнения ASR-моделей!

Мы в SibNN постоянно работаем над тем, чтобы наше распознавание речи было самым точным и быстрым. Но как объективно сравнить новую модель с предыдущей версией или с SOTA-решениями от Sber, NVIDIA, OpenAI и другими open-source проектами? Раньше это была боль: разные метрики, форматы, тайминги, куча скриптов под каждый эксперимент.

Чтобы упростить себе жизнь и дать сообществу удобный стандарт, мы разработали asr_eval — open-source Python-библиотеку, которая меняет подход к тестированию систем распознавания речи. Репозиторий только что открыт, и мы ищем первых пользователей и контрибьюторов!

❓ Зачем это нужно?
До сих пор сравнение ASR-моделей часто было головной болью. asr_eval решает эти проблемы «из коробки», предлагая единый, гибкий и мощный фреймворк.

✨ Что умеет библиотека?

🧪 Глубокая оценка (Evaluation)
Поддерживает расширенный синтаксис аннотаций с множественными референсами и блоками. Это позволяет тестировать модели на сложных кейсах (например, с разными вариантами расшифровки или шумами).

⚙️ Масштабный бенчмаркинг (Benchmarking)
Позволяет запускать сравнительные тесты моделей в автоматическом режиме. С его помощью мы регулярно сравниваем наши модели с популярными решениями (Whisper, Wav2Vec2, Nemo и др.) на единых датасетах. А встроенный веб-дашборд делает анализ результатов наглядным и удобным. Идеально для выбора лучшей модели под вашу задачу!

➰ Поддержка стриминга (Streaming)
Уникальная фича! Библиотека содержит базовые классы и буферы для оценки моделей в реальном времени. Вы можете строить диаграммы задержек и качества прямо в процессе потокового распознавания — критично для голосовых ассистентов.

📦 Для кого это?
Разработчиков голосовых помощников, исследователей speech technologies, дата-сайентистов, которым нужен прозрачный и воспроизводимый процесс валидации ASR.

Мы выложили код на GitHub и активно развиваем проект. Приглашаем вас попробовать, форкнуть, предложить идеи или просто оценить.

👉 GitHub: https://github.com/SibNN/asr_eval
📚 Документация: sibnn.github.io/asr_eval/
📄 Препринт статьи с подробным описанием методологии и экспериментов: https://arxiv.org/abs/2601.20992

Сделаем ASR-оценку прозрачной и удобной вместе! 🔥

#asr_eval #sibnn #ASR #SpeechRecognition #OpenSource #Python #MachineLearning

Читать полностью…

Data Science by ODS.ai 🦜

Привет!

Представляем Вашему вниманию седьмой выпуск подкаста "Капитанский мостик". В этом разговоре ведущие Валентин Малых и Дмитрий Колодезев обсуждают новости прошедшей недели, связанные с безопасностью паролей, изменением привычек пользователей в цифровом мире, ошибками в программировании и их последствиями, влиянием агентов на компании. Также рассматриваются вопросы безопасности в ИИ, инновации в производстве чипов, геополитические аспекты и идеи создания энергетических зон для ИИ.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).

Читать полностью…

Data Science by ODS.ai 🦜

Не генерируйте пароли через ИИ – их легко взломать

Современные чат-боты легко выдадут по запросу длинный пароль из различных символов и букв – но он будет выглядеть безопасным только на первый взгляд. Специалисты Irregular и авторы сайта The Register попросили Claude, ChatGPT и Gemini создать сложные 16-символьные пароли – и как оказалось, все три нейросети используют схожие шаблоны, нередко пароли имели даже одинаковые начальные или конечные символы.

Математический анализ показал, что сгенерированные пароли имеют энтропию около 20-27 бит. Для сравнения, криптографическая стойкость начинается от 98 бит. Иными словами, для взлома «ИИ-пароля» не нужны суперкомпьютеры и столетия работы – зная шаблоны хватит обычного ПК и нескольких часов. Поэтому авторы исследования рекомендуют пользоваться генераторами в менеджерах паролей, которые справляются гораздо лучше.

Мой Компьютер

Читать полностью…
Subscribe to a channel