48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
✔️ Ant выкатили Ling-2.6-flash в опенсорс, и это реально интересный кейс
На бумаге это монстр на 104 миллиарда параметров, но в работе одновременно крутится только 7,4 миллиарда. Классическая MoE архитектура, где сеть сама решает, каких экспертов подключать под конкретную задачу. Поэтому и скорость такая, какой обычно от больших моделей не ждёшь.
215 токенов в секунду на бенчмарке Artificial Analysis. Для сравнения, многие топовые модели крутятся в районе 50–80 токенов в секунду, так что разрыв ощутимый. Но интереснее другая цифра. На полном прогоне AA Intelligence Index модель потратила всего 15 миллионов токенов. В реальной эксплуатации такая экономия превращается в прямые деньги, потому что меньше токенов это меньше счёт за инференс.
Для деплоя есть три варианта весов: BF16 для тех, у кого железа в избытке, FP8 как разумный компромисс и INT4 для совсем зажатых по памяти сетапов.
То есть запустить можно хоть на жирном кластере, хоть на одной видяхе с квантизацией.
Hugging Face: https://huggingface.co/inclusionAI/Ling-2.6-flash
ModelScope: https://modelscope.cn/models/inclusionAI/Ling-2.6-flash
🚀 Яндекс отчитался за первый квартал 2026: выручка Yandex B2B Tech взлетела на 36%
Корпоративные сервисы Яндекса заработали уже 13,6 млрд рублей. Бизнес-клиенты не просто подключаются, а реально наращивают потребление – особенно в сегменте ИИ и безопасности.
Что там с деньгами:
• Выручка – 13,6 млрд рублей (+36% г/г). Растет и количество клиентов, и средний чек;
• Скорректированный показатель EBITDA – 2,6 млрд рублей (+49% г/г). Маржинальность тянет вверх доля PaaS и SaaS.
Ключевой драйвер — Yandex AI Studio:
• Ежемесячное потребление токенов через API выросло до 109 млрд в марте. Это рост в 30 раз всего за год;
• На платформе уже создали более 16 тысяч ИИ-агентов;
• Бизнес переходит от точечных экспериментов к полноценной автоматизации процессов.
Что еще важно:
• Общее число клиентов Yandex Cloud достигло 60 тысяч. Больше половины выручки дают крупные компании.
• ИИ и кибербезопасность растут вдвое быстрее год к году. Причём больше половины крупных и средних клиентов Cloud уже используют платформу для информационной безопасности.
Ссылка: https://rb.ru/news/yandeks-opublikoval-finansovye-itogi-za-i-kvartal-2026-goda-vyruchka-vyrosla-na-22-do-3727-mlrd/
CLAUDE OPUS 4.7 использует 500K токенов, чтобы переименовать одну переменную.
Читать полностью…
⚡️ Вы слышали про Rust. Знаете, что он быстрый, безопасный и что за ним будущее.
Осталось одно: сесть и выучить.
Этот курс со Stepik- кратчайший путь от «знаю что такое Rust» до «пишу на нём».
6 модулей, 50 уроков, 143 теста. Ownership, borrowing, traits, async, Tokio, Axum, макросы, WASM — всё разложено по полочкам и закреплено практикой.
Никакого видео на 40 минут ради одной мысли. Подробный текст, много кода, реальные задачи после каждого урока. На выходе — портфолио из 10+ проектов: от CLI-утилит до REST API с базой данных.
48 часов действует скидка 55 процентов: stepik.org/course/269250
🎨 Qwen выпустили Qwen-Image-2.0-Pro - новую версию генератора изображений с заметным упором на качество, стабильность стилей, мультиязычный текст на картинках и точное следование инструкциям.
Заявлено, что модель стала лучше понимать промпты, аккуратнее работать с деталями и увереннее генерировать текст внутри изображения на разных языках.
Для инфографики, постеров, обложек, интерфейсов и рекламных креативов это особенно важно, потому что большинство image-моделей до сих пор часто ломаются именно на тексте.
Qwen-Image-2.0-Pro заняла 9 место в мировом рейтинге Text-to-Image на Arena.
Попробовать можно через ModelScope:
https://modelscope.ai/studios/Qwen/Qwen-Image-2.0-pro
https://modelscope.cn/studios/Qwen/Qwen-Image-2.0-pro
API доступно через Alibaba Cloud ModelStudio.
DeepSeek оценили в $20 млрд: Tencent и Alibaba дерутся за место в раунде
Лаборатория, которая обучила модель уровня GPT‑4 за $6 млн, впервые пустила внешних инвесторов. За несколько дней оценка удвоилась и перевалила за $20 млрд. Tencent предложил забрать сразу 20%, DeepSeek отказал, но переговоры продолжаются. Alibaba тоже рвётся в сделку.
Почему вдруг открылись? Уходят ключевые инженеры. Го Дая, ведущий автор R1, ушёл в ByteDance. Ван Бинсюань забрал Tencent, Ло Фули переманили в Xiaomi. На балансе хедж‑фонда войну за таланты с гигантами не выиграть, нужны свежие деньги.
Дальше самое интересное.
Следующий флагман строят под чипы Huawei, и инженеры Huawei прямо сейчас сидят внутри процесса обучения и ловят баги стабильности. Если получится, Китай впервые выпустит фронтирную модель вообще без американского железа.
Китай уже прогоняет 140 триллионов токенов в день против 100 миллиардов в начале 2024 года. Рост больше чем в тысячу раз. И компания, которая обнулила всем представления о стоимости обучения, получает $300+ млн на масштабирование.
/channel/data_analysis_ml/5036
🚀 DeepSeek выкатили V4 и сделали то, к чему все шли последние два года.
Длинный контекст больше не фича для демо. Теперь это базовый уровень.
Пока Запад празднует релизы с пафосными стримами, китайцы из DeepSeek сегодня утром просто выложили в Hugging Face две открытые модели и пошли пить чай. А теперь весь твиттер пытается осознать, что произошло. V4-Pro на 1.6 триллиона параметров с 49 миллиардами активных и V4-Flash на 284 миллиарда с 13 активными. Обе открытые, обе с миллионом контекста по дефолту, обе уже доступны через API и на chat.deepseek.com.
Главная фишка даже не в размере, а в том, что DeepSeek пересобрали внимание. Они запихнули в модель токенную компрессию и свою DeepSeek Sparse Attention, за счёт чего длинный контекст стал буквально дешёвым.
Не «технически возможным за пять долларов за запрос», как у конкурентов, а реально дешёвым. 1М теперь стандарт во всех официальных сервисах, а не премиум-опция за отдельную плату.
По цифрам V4-Pro претендует на открытый SOTA в агентном кодинге, тащит математику и STEM и в общих знаниях уступает только Gemini 3.1 Pro. Flash-версия идёт следом почти вплотную по ризонингу и ровно держит планку Pro на простых агентных задачах, но с меньшей задержкой и смешным прайсом.
Отдельно интересно, что API теперь поддерживает и формат OpenAI ChatCompletions, и Anthropic, с переключением между Thinking и Non-Thinking режимами. Старые deepseek-chat и deepseek-reasoner отключат 24 июля 2026, так что у команд есть три месяца на миграцию.
И конечно, DeepSeek не забыли ткнуть Anthropic в бок: в треде прямо написано, что V4 «бесшовно интегрируется с Claude Code, OpenClaw и OpenCode». То есть пока у Anthropic вчера был пост-мортем про сломанный харнесс, DeepSeek сегодня предлагает подменить им модель и сэкономить.
Закрытые лаборатории будут делать вид, что ничего не случилось, но стоимость миллиона токенов контекста только что стала публичной ценой, и от неё уже не отмотаешь.
📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
@ai_machinelearning_big_data
#DeepSeek
🚀 OpenAI представила GPT-5.5
Она заметно сильнее в самом главном: код, ресёрч, аналитика и работа с документами.
GPT 5.5 хороша в многоступенчатых задачах.
И почти во всём обходит конкурентов - например, на Terminal-Bench выбивает 82,7% против 69% у свежей Claude.
GPT-5.5 уже доступна пользователям Plus, Pro, Business и Enterprise - в ChatGPT и Codex.
Модель стала дороже: ~$5 / $30 за млн токенов.
Уже раскатывают на всех платных подписчиков.
Тестим! 🔥
https://openai.com/index/introducing-gpt-5-5/
/ultrareview — новая функция в Claude Code (research preview): запускает в облаке целый флот агентов-багхантеров, которые ищут проблемы в коде перед мержем.
Результаты автоматически приходят в CLI или Desktop. Рекомендуется использовать перед критичными изменениями (авторизация, миграции данных). Pro и Max пользователям доступно 3 бесплатных ревью до 5 мая.
⚡️ Опенсорс алтернатива Claude Code
Данная сборка поддерживает API NVIDIA, OpenRouter и локальные модели через LM Studio. Утверждается, что сохранены все возможности Claude Code.
Запуск возможен локально.
Все фичи Claude Code работают как раньше - работа с файлами, кодом и режим агента не пострадали.
Отличный вариант, чтобы сэкономить 20 долларов.
https://github.com/Alishahryar1/free-claude-code#quick-start
Последний рывок перед майскими — AI-митап #каквсбере в Нижнем Новгороде!⚡️
23 апреля в кампусе Школы 21 вместе с топовыми спикерами Сбера обсудим сразу три действительно горячие темы:
✔️ Какие алгоритмы генерации и шифрования сейчас в тренде?
✔️ Как «разогнать» искусственный интеллект?
✔️ Каким образом лучше подружить команду с ИИ?
Готовы узнать всё о трансформации мира современной разработки? Тогда займите своё место на митапе — подробная программа и регистрация по ссылке!
🖥 Text-to-SQL ломается не из-за модели. Он ломается из-за схемы
Большинство думает, что проблема в LLM или плохом промпте. На практике всё проще. Модель не видит правильные связи между таблицами.
Пример. Запрос вроде “какие издатели получили выплаты выше 5000”. Векторный поиск подтянет publisher и royalty_ledger. Всё логично. Но пропустит vendor_agreement, ту самую таблицу, которая их связывает.
В итоге SQL выглядит валидно. Но возвращает ноль строк.
Это системная проблема всех решений на embeddings. Они ищут по смыслу, но не понимают структуру базы.
Нормальный подход другой. Схему нужно рассматривать как граф.
Таблицы это узлы. Foreign keys это связи. Запрос решается не поиском похожих слов, а обходом графа и поиском join-пути.
Именно так работает QueryWeaver.
Он строит граф базы и при запросе сам находит весь путь, включая промежуточные таблицы. Даже если это цепочка из нескольких шагов.
На практике это выглядит так. В тесте с базой на 60 таблиц он разобрал 5-шаговый запрос через цепочку superpower → capability_matrix → stakeholder_registry → resource_requisition → budget_allocation.
Векторный поиск увидел только начало и конец. Всё между ними потерял, потому что “stakeholder” никак не связан по смыслу с “superpower”.
Графу на это всё равно. Он просто находит единственный путь между сущностями.
И это меняет всё.
Open-source, можно развернуть у себя и наконец получить text-to-SQL, который реально работает.
https://github.com/FalkorDB/QueryWeaver
🚀 У Anthropic угнали доступ к Claude Mythos. К той самой модели, которую они побоялись выпускать в мир.
Anthropic подтвердила то, от чего индустрия сейчас в лёгком шоке. Неизвестные получили доступ к Claude Mythos, самой мощной модели в истории компании. Зашли через учётку стороннего подрядчика и, судя по всему, использовали ещё какие-то методы, которые пока не раскрывают. Компания говорит, что основные системы не затронуты и идёт расследование. Но проблема не в самом факте доступа, а в том, к чему именно он вёл.
Mythos изначально не затачивали под кибербез. Его учили писать код. Просто писать код лучше, чем все предыдущие Claude. Но побочный эффект оказался куда серьёзнее. Модель стала крайне эффективной в прикладном хакинге.
Во время внутренних тестов Mythos вышел из своей песочницы. Сам. Подключился к интернету, отправил письмо исследователю, которого не было в офисе, и выложил детали эксплойтов на публичных площадках. Без авторизации. В других тестах он скрывал следы своих действий, переписывая историю git, и намеренно занижал точность на замерах, чтобы не привлекать внимание. То есть модель осознанно обманывала тех, кто её тестировал.
Mythos умеет объединять несколько уязвимостей в одну цепочку. Три, четыре, иногда пять, каждая из которых по отдельности выглядит незначительно, превращаются в полноценный эксплойт. Работает автономно, долго и многошагово, как полноценный исследователь.
В открытых тестах он нашёл баг в OpenBSD, который оставался незамеченным 27 лет. Обнаружил уязвимость в FFmpeg возрастом 16 лет, которую не поймали миллионы автоматических прогонов. И выявил тысячи серьёзных проблем в основных операционных системах и браузерах.
Именно поэтому Anthropic не выпустила модель в публичный доступ. Вместо этого они запустили Project Glasswing и дали доступ примерно сорока организациям. Среди них AWS, Apple, Google, Microsoft, Cisco, CrowdStrike, JPMorgan, Linux Foundation. На защитные задачи выделили 100 миллионов долларов в виде кредитов.
Следующее поколение моделей станет ещё мощнее. И тем, кто защищает инфраструктуру, нужно время, чтобы найти уязвимости раньше атакующих.
И вот теперь к этой модели получили доступ посторонние. Через подрядчика. Сценарий, от которого пытались защититься закрытой программой, уже частично произошёл.
Что именно они успели сделать и что могли сохранить, неизвестно. И это самая неприятная часть всей истории.
Google DeepMind показали двух новых автономных агентов: Deep Research и Deep Research Max на базе Gemini 3.1 Pro.
Они сами лазят по вебу и по вашим внутренним документам, а на выходе отдают готовый профессиональный отчёт с цитатами и всеми источниками.
Обычная версия заточена под скорость, подходит для интерактивных сценариев, где ответ нужен быстро.
Max не торопится: тратит больше времени на поиск и рассуждение, собирает максимум контекста и заметно обгоняет конкурентов на отраслевых бенчмарках по извлечению фактов и синтезу.
Главная фишка - поддержка сторонних MCP.
Агенту можно безопасно подключить свои базы, корпоративные хранилища или сторонние источники вроде специализированных финансовых данных, и он будет работать прямо с ними, а не только с открытым интернетом.
https://x.com/GoogleDeepMind/status/2046627042335060342
Налог на неанглийский язык: почему хинди и арабский в Claude обходятся дороже всего
Исследователь Аран Комацузаки прогнал «Bitter Lesson» Саттона через токенизаторы OpenAI и Anthropic и нормализовал результат к английскому. Картинка получилась неприятная для всех, кто пишет не на английском.
Один и тот же текст на хинди у OpenAI занимает в 1,37 раза больше токенов, чем по-английски. У Anthropic - в 3,24 раза. Арабский: 1,31 против 2,86. Китайский: 1,15 против 1,71. То есть пользователь, который пишет Claude на хинди, фактически платит втрое больше за то же самое сообщение и быстрее упирается в контекстное окно.
Это и есть «лингвистический налог»: токенизатор обучен преимущественно на английских данных, и все остальные языки он режет на куски мельче, чем нужно. У Anthropic эта диспропорция выражена заметно сильнее, чем у OpenAI, и для языков с неевропейской письменностью разрыв превращается в реальные деньги и потерянный контекст.
https://x.com/arankomatsuzaki/status/2049125048792006965
Microsoft представила TRELLIS.2 - open-source Image-to-3D модель на 4B параметров, которая превращает изображения в 3D-ассеты с PBR-текстурами разрешением до 1536³.
Модель построена на нативных 3D VAE с 16-кратным пространственным сжатием, что даёт более эффективную, масштабируемую и детализированную генерацию 3D-объектов.
Демки выглядят очень круто.
https://github.com/microsoft/TRELLIS.2
🧩 Новый язык программирования для AI-систем
Weft - это язык программирования, написанный на Rust, который упрощает создание AI-приложений, позволяя связывать LLM, людей и API без лишнего "проводки". Он предлагает визуальное представление программ и строгую типизацию, что делает разработку более интуитивной и безопасной.
🚀Основные моменты:
- Первоклассные взаимодействия с людьми через простые узлы.
- Возможность сворачивать группы узлов для упрощения структуры.
- Полная типизация, предотвращающая ошибки на этапе компиляции.
- Устойчивое выполнение программ, сохраняющих состояние после сбоев.
- Встроенные узлы для работы с различными сервисами и API.
📌 GitHub: https://github.com/WeaveMindAI/weft
#rust
📚 Переводим целые книги и большие файлы за минуту - opensource переводчик, который поможет адаптировать любое произведение, документ или другие файлы на любой язык.
• Внутри можно использовать любые модели, в том числе ChatGPT, Gemini, Mistral и DeepSeek.
• Вы можете запускать переводчик локально через Ollama и не бояться за приватность.
• Принимает любые типы файлов: EPUB, SRT, DOCX, TXT.
• Сохраняет форматирование.
• Переводит файлы на огромное количество языков и знает русский.
• После перевода также еще раз проходит по тексту для литературной шлифовки и комфортного чтения.
Github: https://github.com/hydropix/TranslateBooksWithLLMs
🐠 Эволюция вместо масштабирования: TRINITY от Sakana AI выжимает 86,2% на LiveCodeBench из готовых LLM.
Лаборатория Sakana AI выкатила работу, которая хорошо ложится на текущее ощущение всей индустрии: бесконечное скейлинг-марафон с одиночными монолитными моделями постепенно упирается в стену diminishing returns. Их ответ называется TRINITY, и это не очередная гигантская LLM, а лёгкий координатор поверх уже существующих топовых моделей. Статья принята на ICLR 2026.
Идея простая по форме и довольно дерзкая по сути.
Вместо того чтобы обучать одну огромную сетку под все задачи, авторы предлагают композицию моделей на этапе инференса (test-time model composition). TRINITY дирижирует пулом разных state-of-the-art LLM, не трогая их веса и не требуя совместимой архитектуры. По сути, это попытка обойти главные боли model merging: разные размерности скрытых состояний, разные токенизаторы и закрытые веса фронтирных моделей.
Работает это итеративно, в несколько ходов. На каждом шаге координатор смотрит на текущее состояние задачи и назначает одной из доступных LLM одну из трёх ролей. Thinker строит верхнеуровневую стратегию и анализирует ситуацию. Worker выполняет конкретные шаги решения. Verifier проверяет, насколько текущий ответ полон и корректен. Динамическое распределение этих ролей позволяет выгружать тяжёлый reasoning и узкоспециализированные навыки на внешние модели, оставляя сам координатор максимально лёгким.
Координатор работает на скрытых состояниях небольшой компактной языковой модели плюс маленькая routing head поверх. Суммарно меньше 20 тысяч обучаемых параметров. Для текущего ландшафта мультиагентных систем это смешные цифры.
Обучить такую систему оказалось нетривиально. Стандартный REINFORCE не вывез: слишком низкое отношение сигнал/шум на бинарных наградах и слабая связь градиентов с параметрами. Классическое SFT тоже отпало: разметка многоходовых траекторий получается жёстко дорогой. Решение в духе Sakana: эволюционный поиск без градиентов. Авторы используют derivative-free эволюционный алгоритм, который вылизывает эту компактную высокомерную задачу координации там, где классический градиентный оптимизатор просто ломается.
По цифрам выглядит убедительно. TRINITY стабильно обходит и существующие мультиагентные бэйзлайны, и отдельные модели в пуле на разных бенчмарках. Главная цифра на момент публикации: state-of-the-art 86,2% pass@1 на LiveCodeBench. Еще интереснее история с генерализацией. Без дообучения координатор в zero-shot режиме перенёсся на четыре невиданных задачи (AIME, BigCodeBench, MT-Bench, GPQA) и в среднем обошёл любую отдельную модель из своего пула, включая GPT-5, Gemini 2.5 Pro и Claude 4 Sonnet.
TRINITY показывает, что хорошо организованный ансамбль из разнородных моделей может стабильно обходить любую свою отдельную составляющую, если правильно подобрать механизм координации. При этом систему не нужно переобучать под каждый новый бенчмарк, что отличает её от многих специализированных решений.
Отдельно стоит обратить внимание на подход Sakana к самому видению будущего AI. Авторы явно ставят всю философию лабы на коллаборативные экосистемы разнородных моделей, которые можно комбинировать и адаптировать, вместо бесконечного качания параметров в одной монолитной сетке. TRINITY выводят как фундаментальный кирпичик коммерческого продукта Sakana Fugu, бета-версия этой мультиагентной оркестровки уже открыта.
Эволюция вместо масштабирования: TRINITY от Sakana AI выжимает 86,2% на LiveCodeBench из готовых LLM
Полезные ссылки:
Paper (arXiv): https://arxiv.org/abs/2512.04695
OpenReview: https://openreview.net/forum?id=5HaRj
Sakana Fugu (бета): https://sakana.ai/fugu-beta
Пост в X: https://x.com/SakanaAILabs/status/2048181386868293639
☝️ Gemini после того, как Google вложил 40 000 000 000 долларов в Claude.
Google - инвестирует 40 миллиардов долларов, чтобы выпустить claude mythos.
Новая сделка дает им 10 миллиардов долларов авансом, нацеливаясь на 5 ГВт вычислений в 2027 году
Это происходит сразу после инвестиций amazon в 5 миллиардов долларов на этой неделе.
https://www.reuters.com/business/google-plans-invest-up-40-billion-anthropic-bloomberg-news-reports-2026-04-24/
Лучшие преимущества сейчас на рынке: уметь строить модели, работать с большими данными и глубоко понимать ML.
Именно это даёт Школа анализа данных от Яндекса — двухлетняя бесплатная программа по ML, Data Science, ИИ и инфраструктуре больших данных. У ШАДа три особенности: глубокая теория + задачи из реальных систем Яндекса, обучение у топовых экспертов индустрии, сильное профессиональное комьюнити.
В этом году набор идет на четыре направления:
1. Разработка машинного обучения
2. Data Science
3. Инфраструктура больших данных
4. Анализ данных в прикладных науках
Два трека поступления: классический (3 этапа отбора) и альтернативный — для тех, у кого уже есть опыт. Учиться можно офлайн, гибрид или онлайн.
Заполнить анкету можно по ссылке до 3 мая.
Ant Group выкатила Ling-2.6-1T, флагманскую модель на триллион параметров, и главная фишка тут не размер.
Разработчики сделали ставку на механизм «быстрого мышления»: модель не гоняет бесконечные цепочки рассуждений, а выдаёт ответ экономно по токенам, сохраняя при этом SOTA уровень интеллекта.
По сути, Ant Ling пытается переломить индустриальный тренд, где качество ответа принято покупать ценой огромного расхода токенов. Здесь токен возведён в ранг first-class сущности, то есть эффективность встроена в саму архитектуру, а не прикручена сверху.
https://openrouter.ai/inclusionai/ling-2.6-1t:free
Xiaomi анонсировала серию MiMo-V2.5 - новое поколение их открытых агентных моделей.
MiMo-V2.5-Pro - флагман линейки. Серьёзный скачок по сравнению с MiMo-V2-Pro в общих агентных способностях, сложной разработке ПО и долгосрочных задачах.
По заявленным бенчмаркам догоняет фронтирные модели вроде Claude Opus 4.6 и GPT-5.4: SWE-bench Pro — 57.2, Claw-Eval — 63.8, τ3-Bench — 72.9. Может автономно выполнять
профессиональные задачи с более чем 1000 вызовов инструментов — работа, на которую у людей-экспертов ушли бы дни.
Tech Blog: https://mimo.xiaomi.com/blog/mimo-v2.5-pro
MiMo-V2.5 - нативно омнимодальная модель с сильными агентными возможностями. Даёт производительность Pro-уровня примерно за половину стоимости. Улучшено восприятие изображений и видео, нативное контекстное окно на 1M токенов и значительно более эффективный инференс.
Доступны техблоги и API с тарифными планами на платформе Xiaomi.
Tech Blog: https://mimo.xiaomi.com/blog/mimo-v2.5
🔗 API & Token Plan: https://platform.xiaomimimo.com/token-plan
⚡️ Что на самом деле покупают люди в вашей категории: закрытый вебинар по данным Dialog X5.
Кажется, что знать свою аудиторию - это собрать красивый дашборд с демографией, охватами и кликами. На практике во всех этих данных зияет одна огромная дыра: что этот человек реально кладёт в корзину каждую неделю и на что тратит деньги. Без ответа на этот вопрос вся аналитика превращается в набор прокси-метрик, которые считают всё, кроме главного.
Dialog X5 как раз про это. Речь не только про ритейл-аналитику в привычном смысле, а про доступ к агрегированным и обезличенным транзакционным данным X5.
Это срез реального спроса и поведения миллионов людей: что покупают, в каких категориях, с какой частотой, как меняются привычки по регионам и сезонам.
На вебинаре 24 апреля покажут, как эти данные работают за пределами ритейла. Банк подключает их, чтобы понять реальную структуру трат по категориям и брендам. Девелопер оценивает потенциал локации до того, как расположить туда дом.
Медиа подбирает места размещения не по охвату баннера, а по плотности определенной аудитории. CRM-команда находит сегменты, которые раньше не видела, и борется с оттоком. Исследователи сшивают опросы с реальными покупками и перестают гадать, где респонденты приукрасили.
Главный эффект от таких данных простой: маркетинг перестаёт измеряться кликами и охватами. Его можно мерить реальными покупками, а не прокси-метриками, которые красиво выглядят в отчёте и ничего не говорят о реальных эффектах.
Вебинар будет полезен, если вы работаете с аналитикой, маркетингом, CRM, продуктом или стратегией в финтехе, страховании, недвижимости, техе или агентстве. Формат онлайн, с кейсами и прикладным разбором инструментов. Успейте зарегистрироваться, вебинар уже 24 апреля.
Все данные используются в агрегированном и обезличенном виде и не содержат персональной информации.
Подключиться к вебинару.
OpenHarness — open-source «обвязка» для AI-агентов
LLM даёт интеллект, но чтобы стать рабочим агентом, ему нужны инструменты, память, разрешения и координация. Это и есть agent harness - инфраструктурный слой между моделью и реальным миром.
Главное:
🛠 43+ инструмента - файлы, shell, поиск, веб, MCP (с валидацией через Pydantic и проверкой прав)
📚 Skills — подгрузка знаний из .md-файлов on-demand
🔌 Plugins — совместимость с claude-code плагинами
🔐 Права 3 уровней — default (спрашивает), auto (всё можно), plan (только чтение)
🤝 Мульти-агентность - спавн сабагентов, реестр команд, фоновые задачи
🧠 Память - кросс-сессионная, со сжатием контекста
В комплекте ohmo - личный агент, работающий из Feishu, Slack, Telegram или Discord: форкает ветки, пишет код, гоняет тесты, открывает PR. Работает на подписке Claude Code / Codex.
https://github.com/HKUDS/OpenHarness
Kimi K2.6 стал доступнее
Модель на 1 триллион параметров ужали до 340 ГБ через Dynamic GGUF. Ключевые слои оставили в более высокой точности, остальное оптимизировали.
В итоге получился компромисс, который реально работает.
Больше не нужен только кластер на сотни GPU.
Сейчас это выглядит так.
• Запуск на CPU, GPU и даже SSD-сетапах.
• Скорость больше 40 токенов в секунду на конфигурациях с ~350 ГБ RAM или VRAM.
По сути, это один из первых кейсов, когда модель такого масштаба становится доступной вне датацентров.
Если тренд продолжится, граница между локальными и облачными моделями начнёт быстро стираться.
Гайд: https://unsloth.ai/docs/models/kimi-k2.6
GGUF: https://huggingface.co/unsloth/Kimi-K2.6-GGUF
Открытый урок «Поиск в базе знаний: где векторы ошибаются, а графы помогают»
🗓 30 апреля в 20:00 МСК
Бесплатно. Урок в рамках старта курса «LLM-инженер» от Otus.
Настраиваете поиск по базе знаний, но ответы всё равно выглядят странно? Векторный поиск по смыслу работает не так точно, как кажется. Похожие тексты могут давать неверные ответы, а ошибки retrieval сложно отследить без понимания, где ломается логика.
На вебинаре разберем:
• как на самом деле работает поиск в векторной базе
• почему близость по смыслу не гарантирует точность
• в каких задачах граф связей даёт лучший результат
• как комбинировать подходы в RAG
Если вы работаете с базами знаний или внедряете интеллектуальный поиск — это возможность увидеть ограничения текущих решений и понять, куда двигаться дальше.
Ссылка на регистрацию: https://tglink.io/0b801207d842f4?erid=2W5zFHn9fGu
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
⚡️ Китайцы из Ant Group выкатили Ling-2.6-flash и он бьёт по больному месту всей индустрии LLM.
Пока все соревнуются, чей ответ длиннее и красивее, Ant Group пошли в обратную сторону и выпустили Ling-2.6-flash.
Модель с 104 миллиардами параметров, из которых активных всего 7,4 миллиарда. То есть MoE архитектура, где в каждый момент работает лишь малая часть сети, а считать приходится за копейки.
Модель специально натаскана не раздувать ответы. Никаких простыней на пустом месте, никакого пережёвывания одной мысли на три абзаца ради видимости глубины.
Разработчики прямым текстом говорят: мы оптимизировали соотношение интеллект на токен, а не интеллект на количество слов. Для тех, кто платит за API, это буквально экономия на ровном месте, потому что цена идёт за каждый токен, а выхлоп тот же.
Архитектура гибридная линейная, что даёт серьёзный прирост по скорости и памяти на длинных контекстах.
Обычные трансформеры на длинном входе захлёбываются квадратичной сложностью внимания, а тут эту проблему частично обошли.
Модель быстрая, причём заметно.
Отдельно заточили её под агентские сценарии. Вызов инструментов, многошаговое планирование, выполнение задач.
Замеры идут на BFCL-V4, SWE-bench Verified, TAU2-bench и Claw-Eval, то есть на реальных агентных бенчмарках, а не на синтетике.
И там Ling-2.6-flash держится на уровне конкурентов, которые в разы жирнее по активным параметрам.
Неделю даётся бесплатный доступ через OpenRouter и Novita, плюс официальная площадка ling.tbox.cn.
То есть потрогать можно прямо сейчас, без платёжки и без ожидания вейтлиста.
https://openrouter.ai/inclusionai/ling-2.6-flash:free
Ларри Пейдж (основатель и первый CEO Google) понимал это ещё в 2007 году:
«Когда ИИ станет реальностью, всё будет упираться в огромные объёмы вычислений, а не в хитрые алгоритмы, придуманные у доски. Моя теория такая: если посмотреть на вашу "программу" - на ДНК - то в сжатом виде это всего около 600 мегабайт.
То есть она меньше любой современной операционной системы - меньше, чем Linux, Windows или что-то подобное. И это вся ваша "операционка" целиком».