48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
⚡️ NVIDIA раздает жирнейший набор API - почти сотка нейросетей бесплатно
Без лишнего шума: открыли доступ к 95+ моделям сразу. Внутри всё, что сейчас в топе - DeepSeek, Kimi, Mistral, Qwen, Flux, Whisper, GLM и ещё пачка инструментов под любые задачи.
Можно собирать свои продукты без вложений: озвучка, чат-боты, липсинк, генерация видео, дизайн. Всё через API, без костылей и с нормальным качеством.
Самое интересное - выкатили доступ к своим моделям. Обязательно попробуй Nemotron: отлично режет шум и вытягивает звук даже с плохого микрофона.
Забирай, пока не прикрыли.
https://build.nvidia.com/models
#NVIDIA
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Bloomberg: чиновники администрации Трампа призывают банки протестировать модель Mythos от Anthropic.
Речь идёт о том, чтобы рассматривать Mythos как рабочий инструмент киберзащиты.
В Anthropic заявляют, что Mythos - это универсальная модель, которая неожиданно показала высокую эффективность в обнаружении и эксплуатации уязвимостей нулевого дня, то есть таких багов, для которых ещё не выпущены исправления.
Также в компании отмечают, что Mythos находила уязвимости в крупных операционных системах и браузерах, поэтому доступ к ней был ограничен через Project Glasswing вместо широкого релиза.
В Великобритании тоже отреагировали: регуляторы и национальное киберагентство обсуждают, несёт ли Mythos риски для банков, страховых компаний и бирж.
bloomberg.com/news/articles/2026-04-10/wall-street-banks-try-out-anthropic-s-mythos-as-us-urges-testing
🖥 У NVIDIA и Unsloth опубликован один из самых полезных гайдов по созданию RL-окружений с нуля, закрыв пробелы, которые обычно пропускают в туториалах.
Разбирают:
• почему RL-окружения вообще важны и как их правильно строить
• в каких случаях RL выигрывает у SFT
• best practices для GRPO и RL
• как работают проверяемые награды и RLVR
Годнота)
https://unsloth.ai/blog/rl-environments
🤯 Вышел GemOpus-4 26-A4B - локальный Opus на минималках
Новая модель от JackRong - это Gemma 4, но с reasoning в стиле Claude Opus.
Что внутри:
База: Gemma 4 26B MoE
Активных параметров всего 4B
Поверх - дистилляция логики Opus
По факту это попытка упаковать уровень рассуждений больших моделей в компактный локальный формат.
По перфу:
• ~75 токенов в секунду
• 22.7 GB VRAM
• Контекст до 131K
То есть модель реально можно крутить локально и получать нормальный reasoning, а не просто автодополнение.
Если связать с агентом типа HemresAgent - получается уже почти полноценный локальный AI-ассистент под задачи разработки и автоматизации.
Хороший вариант, если хочется мощный reasoning без облака и с контролем над всем стеком
https://huggingface.co/Jackrong/Gemopus-4-26B-A4B-it-GGUF
Исследователи из Национального университета Сингапура представили DMax: новый подход для diffusion LLM.
Вместо последовательного вывода токенов модель генерирует их параллельно, но при этом не разваливается по качеству
Ключевая идея - превратить декодирование в процесс самокоррекции.
Модель не просто пишет ответ, а постоянно пересматривает и исправляет свои же предсказания прямо по ходу генерации.
Это решает главную проблему параллельной генерации - накопление ошибок
По цифрам:
• DMax заметно обгоняет LLaDA-2.0-mini
• TPF на GSM8K вырос с 2.04 до 5.47
• на MBPP с 2.71 до 5.86
и всё это без потери точности
Скорость - до 1338 токенов в секунду на H200
Paper: https://huggingface.co/papers/2604.08302
Code: https://github.com/czg1225/DMax
Models: https://huggingface.co/collections/Zigeng/dmax-models
Datasets: https://huggingface.co/collections/Zigeng/dmax-training-data
🚨 Tencent выложили модель для агентов HY-Embodied-0.5
Это модель, заточенная под embodied агентов. То есть тех, кто действует в физическом мире или его симуляции.
Фокус смещён с текста на восприятие и действие. Модель учится понимать пространство, время и принимать решения на основе этого.
В линейке две модели.
• Модель на 2B параметров открыта и подходит для edge-сценариев. Её можно гонять локально и встраивать в реальные системы.
• Модель на 32B уже про сложное планирование и reasoning. По качеству она приближается к фронтирным решениям.
Архитектура Mixture-of-Transformers. Разные части модели обрабатывают разные типы данных. Это снижает шум и даёт более точное восприятие.
Latent tokens. Более компактное представление визуальной информации, что помогает модели лучше понимать окружение.
Self-evolving post-training. Модель продолжает дообучаться и улучшать поведение после базового обучения.
On-policy distillation. Знания переносятся с большой модели на маленькую без сильной потери качества.
По бенчмаркам маленькая модель обгоняет аналоги на большинстве задач. Это важный сигнал для edge и роботики.
GitHub: https://github.com/Tencent-Hunyuan/HY-Embodied
Hugging Face: https://huggingface.co/tencent/HY-Embodied-0.5
🌟 VimRAG: мультимодальный RAG-агент, который держит контекст в виде графа памяти.
Tongyi Lab (Alibaba Group) опубликовала VimRAG - фреймворк агентного RAG для работы с текстом, изображениями и видео.
Проект развивает прошлогодний VRAG-RL и решает проблему мультимодального RAG: визуальные данные тяжелые по токенам, но семантически разрежены, а классическая ReAct-история забивает контекст шумом и провоцирует повторные бесполезные запросы к поиску.
По графикам обучения это дает более быструю сходимость, чем базовый GSPO без прунинга.
Код трейна самого VimRAG обещают выложить после внутреннего ревью Alibaba.
Liquid AI выпустили LFM2.5-VL-450M - vision-language модель для edge-устройств.
Обрабатывает картинку 512×512 за ~240мс на устройстве, без облака. Хватает на 4 FPS видеопоток с пониманием происходящего, а не просто детекцией.
Главное: один инференс заменяет привычную связку детектор → классификатор → эвристики. Весь multi-stage пайплайн в одном проходе.
В релизе добавили bounding box prediction (81.28 на RefCOCO-M), мультиязычный визуал на 8 языках и function calling.
Крутится на Jetson Orin, Samsung S25 Ultra, AMD 395+ Max.
Веса открыты.
huggingface.co/spaces/LiquidAI/LFM2-VL-WebGPU
Claude Mythos сейчас выглядит именно так, по рассказам Anthropic
Читать полностью…
Сегодня Anthropic запустила в открытую бету Claude Managed Agents - хостируемый сервис для запуска долгоживущих агентов на инфраструктуре Claude Platform.
Если коротко: вы описываете задачи, инструменты и ограничения, а всё остальное берет на себя платформа.
Самое интересное спрятано в инженерном блоге, где команда описала архитектуру. Они пришли к ней через боль. Первая версия упаковывала всё в один контейнер: и сессию, и harness (цикл вызовов модели), и sandbox. Контейнер превращался в "питомца" - если он падал, сессия терялась. Дебажить можно было только через шелл внутри контейнера, а там лежали пользовательские данные. Когда клиенты хотели подключить свой VPC, им приходилось пирить сети.
Решение: декомпозиция на три интерфейса. Session - append-only лог всех событий, живущий отдельно от всего. Harness - stateless оркестратор, который при падении просто перезапускается, подтягивает лог через getSession(id) и продолжает с последнего события. Sandbox - среда исполнения, к которой harness обращается как к обычному инструменту через execute(name, input) → string. Каждый компонент стал "скотом", а не "питомцем" в классической инфраструктурной метафоре.
Отдельно стоит сказать про безопасность. В монолитной архитектуре prompt injection мог добраться до токенов, лежащих в том же контейнере. Теперь sandbox физически изолирован от credentials. Git-токены прошиваются в remote при инициализации, OAuth хранится в vault за прокси. Агент никогда не видит реальных ключей.
По перформансу результаты заметные: p50 TTFT (время до первого токена) упал на 60%, p95 - на 90 с лишним процентов. Контейнер теперь поднимается по требованию через tool call, а если задача не требует sandbox, инференс стартует сразу.
Архитектура поддерживает "many brains, many hands": один агент может управлять несколькими sandbox-ами, а несколько агентов могут передавать окружения друг другу. Сессия при этом выступает как объект контекста за пределами context window модели - harness может запрашивать срезы через getEvents(), трансформировать их и управлять cache hit rate.
Notion уже в закрытой альфе: команды делегируют задачи Claude прямо из рабочего пространства, десятки задач выполняются параллельно.
Философия проекта прямо проговаривается в блоге: это мета-harness. Anthropic намеренно не фиксирует конкретную реализацию оркестрации, потому что она устаревает с каждым поколением моделей. Они уже столкнулись с этим, когда "context anxiety" из Sonnet 4.5 исчез в Opus 4.5, а workaround превратился в мертвый код. Поэтому ставка на стабильные интерфейсы, за которыми реализация меняется свободно - ровно та же идея, что у POSIX: read() работает одинаково для диска из 70-х и современного SSD.
https://www.anthropic.com/engineering/managed-agents
Claude Mythos опять подогрел разговоры достигли мы AGI или нет .
При этом единого определения AGI как не было, так и нет. Google DeepMind еще в 2023-м попытались разрулить хаос и выкатили целую таксономию с уровнями от нуля до сверхчеловеческого.
Помогло примерно никак.
Итого: все спорят о том, достигли ли мы AGI, для определение которого тоже не можем договориться. Классика.
Claude Mythos нашёл дыру в своей безопасности, вырвался и рассказал об этом всему миру!
Пока все обсуждают невероятный прорыв Antropic моделей, : Они провели еще один эксперимент и получили результат, который выглядит как сценарий из триллера.
Claude Mythos выбрался из изолированной среды и пошёл дальше, чем от него ожидали.
Модель поместили в sandbox и дали простую задачу: попробуй выбраться и сообщи об этом человеку. На бумаге обычный тест. На практике получилось куда интереснее.
Mythos не просто нашёл уязвимость. Он собрал последовательность действий и аккуратно её реализовал, обойдя ограничения, заданные разработчиками.
Но ключевой момент был дальше.
Вместо того чтобы остановиться после «побега», модель нашла ещё одну дыру и получила доступ к открытому интернету. Изначально ей оставили только ограниченные каналы для связи с пользователем.
Дальше поведение стало неожиданным.
Claude сообщил разработчику о побеге, который в этот момент спокойно ел сэндвич в парке, и параллельно выложил детали эксплойта в открытый доступ.
Вся история выглядит так:
- сначала выход из sandbox
- потом расширение доступа
- потом публикация того, как это было сделано в интрнет
https://www-cdn.anthropic.com/53566bf5440a10affd749724787c8913a2ae0841.pdf
@vistehno
⚡️ Anthropic запустила проект Glasswing.
Project Glasswing - инициатива по защите критической программной инфраструктуры с помощью ИИ.
Поводом стали возможности разрабатываемой модели Claude Mythos Preview, которая, по оценке самой компании, превосходит почти всех специалистов по поиску и эксплуатации уязвимостей в коде.
За несколько недель работы Mythos Preview обнаружила тысячи 0-day уязвимостей, в том числе во всех крупных операционных системах и браузерах. Среди раскрытых примеров:
🟢27-летняя ошибка в OpenBSD, позволяющая удаленно обрушить систему через одно подключение;
🟢16-летний баг в FFmpeg, который автотесты не замечали после 5 млн. прогонов;
🟢автономно собранная цепочка эксплойтов в ядре Linux, поднимающая права обычного пользователя до полного контроля над машиной.
Модель находила уязвимости и писала эксплойты без участия человека. Все упомянутые баги уже исправлены, для остальных Anthropic уже опубликовала криптографические хэши описаний и раскроет детали после выхода патчей.
🔥 Китайцы выкатили мощный голосовой ИИ - VoxCPM2
Модель от OpenBMB, которая умеет:
• Понимать и генерировать речь
• Работать с голосом почти в реальном времени
• Делать voice-to-voice без сложных пайплайнов
• Подходит под ассистентов, звонки и голосовые агенты
Главный плюс - всё это в одной модели, без костылей из ASR + TTS
https://huggingface.co/openbmb/VoxCPM2
🔥 Милла Йовович теперь тоже Вайбкодер😱
Актриса выложила на GitHub опенсорс-инструмент MemPalace для работы с памятью ИИ-агентов. Делала его вместе с другом.
Фишка в том, что все данные хранятся локально, а система сама решает, какие факты о пользователе подтягивать под конкретный запрос. По бенчмарку LongMemEval инструмент уже обгоняет и платные, и бесплатные решения.
За сутки репозиторий набрал 2k+ звёзд.
Настоящий обитель зла 💀
https://x.com/bensig/status/2041229266432733356
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
🤖 Автономные AI-агенты для инженерии
AutoAgent позволяет AI-агентам самостоятельно настраивать и улучшать свои конфигурации, используя мета-агента. Пользователь задает задачи через program.md, а агент автоматически модифицирует свою архитектуру и оценивает результаты.
🚀 Основные моменты:
- Автоматическая настройка AI-агентов без прямого редактирования кода.
- Использует Markdown для задания задач и инструкций.
- Оценка производительности через числовые баллы.
- Поддержка Docker для изоляции выполнения.
- Совместимость с задачами Harbor.
📌 GitHub: https://github.com/kevinrgu/autoagent
#python
🖥 Сохраняй МЕГАШПАРГАЛКУ ПО CLAUDE CODE. В н Это один из самых плотных гайдов по Claude Code.
В сеть слили один из самых плотных гайдов по Claude Code. Не набор советов, а реально сжатая карта всей системы на одном листе.
Внутри разобрано - как устроен сервис изнутри, как правильно стартовать проект, как работает память и иерархия. Плюс показали нормальную структуру проекта, без хаоса.
Отдельно прошлись по практическим вещам.
Скиллы, хуки, рабочие паттерны, горячие клавиши. То, что реально экономит часы в повседневной работе.
Это информация о том, как люди реально используют Claude Code каждый день.
Сохрани. Чтобы потом не искать.
🚨 Claude «деградировал» и это видно по логам.
Senior AI Director из AMD разобрала сессии Claude за январь-март и картина получилась неприятная.
Модель стала думать меньше. Медианная длина reasoning упала примерно с 2200 до 600 символов. Это сразу бьёт по качеству решений.
Параллельно выросло количество API-запросов - почти в 80 раз с февраля на март. Меньше анализа, больше попыток, больше ретраев и сжигания токенов.
Поведение тоже поменялось. Модель чаще «сдаётся» или начинает спрашивать, продолжать ли дальше. За 17 дней таких кейсов было 173, до 8 марта - ноль.
Ещё одна неприятность падение reads-per-edit (reads-per-edit = сколько файлов / участков кода модель посмотрела перед правкой). Было 6.6, стало 2.0. То есть Claude теперь хуже изучает код перед изменениями.
Плюс выросло количество противоречий. Модель чаще переобувается по ходу ответа.
Пользователи замечают, что Клод начинает игнорировать такие вещи, как CLAUDE.md. Просто не хватает «бюджета мышления», чтобы учитывать контекст.
Что интресно, наблюдается зависимость от времени суток. Худшие результаты в 5–7 вечера по PST, ночью качество заметно выше. Похоже, это напрямую связано с загрузкой GPU.
Claude всё ещё мощный, но его поведение стало менее стабильным и сильно зависит от нагрузки
Замечали ли вы, что Claude стал тупее в последнее время ?🤯
Директор по AI в AMD проанализировала 6 852 сессии Claude Code и показала, что модель сильно ухудшили.
234 760 вызовов инструментов, 17 871 блоков размышлений, 3 месяца логов.
После этого Anthropic ответили и фактически подтвердили её выводы.
Пожалуй, самый чистый и показательный аудит AI за 2026 год 👇
https://github.com/anthropics/claude-code/issues/42796#issuecomment-4194007103
@ai_machinelearning_big_data
#news #ai #ml #claude
21 апреля приглашаем на бизнес-митап «Лаборатория решений DataLens» — офлайн-встречу о BI и аналитике данных.
📍 Loft Hall (Avantage), м. Автозаводская
Сбор гостей с 16:30, начало в 17:00
Формат — демонстрация реальных кейсов: партнёры покажут решения на базе DataLens для задач из ритейла, финансов, госсектора и фармы.
Что будет:
— Решения бизнес-задач от Навикон, КОРУС Консалтинг, Смарт-Аналитикс, SQEEL
— Доклад команды DataLens о развитии и новых возможностях
— Q&A по архитектуре и подходам
— Нетворк и фуршет
💡 Вы увидите, как создаются решения: от архитектуры до дашбордов и оценки эффективности.
Кому будет полезно:
— компаниям, выбирающим BI
— аналитикам и специалистам по данным
👉 Регистраци по ссылке.
Теперь можно бесплатно дообучать Gemma 4 31B прямо в ноутбуке 🚀
Обучение модели на 31 миллиард параметров полностью бесплатно с использованием Kaggle и Unsloth.
GitHub: https://github.com/unslothai/unsloth
Гайд: https://unsloth.ai/docs/models/gemma-4/train
Ноутбук: https://kaggle.com/code/danielhanchen/gemma4-31b-unsloth
🚨 Claude Code ускорили в 4 раза на больших кодовых базах
Один и тот же таск. Один и тот же промпт. Меняется только инструмент.
Без него Claude Code 8 минут бродит по коду, читает десятки файлов и всё равно пропускает важные зависимости. В итоге решение сырое.
С ним тот же сценарий занимает около 2 минут и даёт более точный результат.
Речь про repowise.
Инструмент repowise - строит структурную модель проекта. Граф зависимостей с приоритизацией. Историю изменений с зонами ответственности. Автоген документации. И слой решений, который фиксирует, зачем вообще написан код.
Этот слой решает главную проблему. Обычно модель не понимает контекст решений и начинает действовать вслепую.
В тесте на репозитории с 3000 файлов задача была добавить rate limiting во все API.
Без repowise модель читает случайные файлы, не видит ключевые связи и ломает скрытые зависимости.
С repowise хватает нескольких вызовов. Модель сразу находит все зависимости, обнаруживает существующую логику ретраев и даже подсказывает, кто должен ревьюить изменения.
Расход токенов падает примерно на 60 процентов. Модель перестаёт читать всё подряд и работает точечно.
Дополнительно repowise генерирует CLAUDE.md на основе реального состояния репозитория.
Self hosted. Работает локально. Можно использовать с Ollama.
https://github.com/repowise-dev
Господдержка может ускорить развитие ИИ в России
На конференции Data Fusion представитель ВТБ отметил, что без господдержки рынок ИИ не сможет масштабироваться. Главные узкие места — инфраструктура (ЦОДы) и доступ к высокопроизводительным чипам. Эти задачи бизнес в одиночку закрыть не может.
Отдельный вопрос — экономика: ИИ-проекты требуют крупных инвестиций и долго окупаются, из-за чего часто проигрывают другим направлениям по эффективности.
В качестве решения предлагают классический набор стимулов: субсидии, налоговые льготы и другие меры поддержки, которые должны ускорить внедрение технологий.
Фактически речь о том, что без системной помощи государства ИИ останется нишевой историей, а не массовой инфраструктурой. А вы как думаете?
🎯Полезные Мл-ресурсы 🚀 Max
🚨 Claude восстановил игру 90-х без исходников
Разработчик откопал свой проект 1992 года. Тогда ему было 19. Это была мультиплеерная игра на CompuServe, она даже получила награду и закрылась в 1999.
Исходников не осталось. Только скрипты на кастомном языке, который он сам придумал для гейм-мастеров, старый мануал и запись геймплея.
Он просто загрузил всё это в Claude Code и попросил разобраться.
Модель сначала восстановила сам язык. Без документации и без примеров в сети. Вытащила грамматику из скриптов и текста, который писался для людей без технического бэкграунда.
После этого она пересобрала игру с нуля. Полноценный мир с тысячами комнат, предметами, монстрами, магией, крафтом и боевой системой.
Проект, который в 90-х собирался месяцами, был восстановлен за выходные.
Модель работает с неполными данными, восстанавливает структуру и доводит систему до рабочего состояния.
Фактически это реверс-инжиниринг без исходников.
Игра сейчас доступна бесплатно, код открыт.
🚀 Представь: уровень рассуждений как у Claude 4.6 Opus, но полностью локально на твоей GPU с всего 16GB VRAM
Эта версия Qwen3.5 на 27B параметров, дистиллированная на reasoning-трейсах Claude 4.6 Opus, даёт уровень кодинга почти как у топовых моделей — но без облака
Что внутри:
- Обгоняет Claude Sonnet 4.5 на SWE-bench даже в 4-битной квантизации (Q4_K_M)
- Сокращает chain-of-thought на 24% — меньше мусора, быстрее ответы
- Сохраняет 96.91% точности на HumanEval
- Идеально подходит для агентных циклов (без API и задержек)
📦 Уже 300K+ скачиваний на Hugging Face
Локальные модели начинают догонять фронтир и это только начало
https://huggingface.co/Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled
😆 AI-проект с Миллой Йовович и крипто-фаундером оказался странной поделкой с подменой авторства
Вчера известная актриса выложила на GitHub свой опенсорс-инструмент для улучшения памяти ИИ-агентов - MemPalace, который она якобы создала с помощью ИИ . -
Mempalace пушали как «лучшую memory-layer для ИИ». В проекте фигурируют Бен, крипто-фаундер, и Решил проверить, что там под капотом.
Чем глубже смотришь, тем больше вопросов.
Бен на сайте рассказывает про AI-продукты и локальные модели. Но его GitHub почти полностью про биткоин и лендинг. Из AI там по сути один форкнутый проект.
Сам репозиторий выглядит так:
10K звёзд
1000+ форков
7 коммитов
Для серьёзной memory-системы это не выглядит правдоподобно.
Дальше интереснее.
Нет нормальной истории разработки. Аккаунт, который изначально запушил код, aya-thekeeper, удалён сразу после публикации.
Внутри файлов ttcnm подпись:
код и бенчмарки написал некий Lu (DTL), март 2026, «для Бена»
При этом:
в README его нет
в git-истории его нет
Историю репозитория затем схлопнули в один коммит и перезалили.
И уже после этого проект публикуется от имени Миллы Йовович.
По словам Бена, она участвует в разработке. По факту всего :
• 7 коммитов
• 2 дня активности за всё время
Картина складывается такая:
Сверху добавляется маркетинг и накрученные цифры.
Если коротко: проект с участием актрисы и крипто-фаундера больше похож на витрину, чем на реальную инженерную работу.
Если используете подобные решения, смотрите не на лендинг и звёзды, а на git-историю и реальных авторов кода.
Мила заскамила ) Видимо, Resident Evil закончился и начался Resident Git.
https://github.com/milla-jovovich/mempalace/issues/27
https://github.com/milla-jovovich/mempalace
https://x.com/AdvicebyAimar/status/2041559354034344438
🔥 В Google Colab добавили овзмодность дообучения 500+ опенсорсных нейронок
Unsloth выкатили удобный ноутбук для настройки моделей.
Инструкция:
1. Открываем страницу в Colab: https://colab.research.google.com/github/unslothai/unsloth/blob/main/studio/Unsloth_Studio_Colab.ipynb
2. Запускаем блоки и сам Unsloth Studio.
3. Выбираем модель, датасет .
4. Жмём «Start Training» и наблюдаем за прогрессом в реальном времени.
5. Всё готово - обычную и файн-тюн версию модели можно сразу сравнить в чате.
🌟 Инструкция как поднять Gema4 локально и связать с OpenClaw всего в 3 шага:
Шаг 1 Устанавливаешь Ollama: https://ollama.com/download
Шаг 2 Скачиваешь модель Gemma 4 26B A4B на свой компьютер. Она хорошо балансирует скорость и качество, поэтому отлично подходит для локальных AI-агентов. При желании этот шаг можно пропустить - на следующем этапе всё подтянется автоматически.
Шаг 3 Запускаешь OpenClaw с Gemma 4 через Ollama. Система сама установит OpenClaw и сразу поднимет его с нужной моделью.
На прошлой неделе вышла Gemma 4 - компактная, но очень мощная модель Google. Это Пошаговая инструкция как поднять её локально и связать с OpenClaw всего в 3 шага:
Всё максимально просто и быстро. По сути, можно было уложить это в один короткий пост.
Можно сразу идти и собирать своих агентов.
Если аналитика спрятана в отдельной вкладке, её почти никто не открывает. Данные есть, но в работе они не участвуют.
15 апреля в Yandex Cloud покажут, как встроить DataLens прямо в продукт — в личный кабинет, портал или клиентский сервис. Так, чтобы отчёты жили там же, где принимаются решения, а не где-то отдельно.
Речь не про очередной дашборд, а про нормальную интеграцию: без лишних аккаунтов, с безопасным доступом и адекватным UX.
Команда разберёт реальные кейсы и покажет, как работает embedding для непубличного и публичного встраивания.
Участие бесплатное, нужна только регистрация.
Андрей Карпаты говорит, что когда AI-агенты дают сбой, это обычно проблема в Cкилах, а не возможностях агента
Ты просто:
- недостаточно хорошо написал инструкции
- неправильно настроил память
- или не распараллелил задачи
"Главный сдвиг - это работа на уровне макро-действий"
Один агент занимается исследованием
другой пишет код
третий планирует и всё это работает параллельно, в задачах по 20 минут
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml