48228
Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
📌 Большой мастер-класс по Claude Code!
Перед вами репозиторий с полноценным визуальным и практическим гайдом по одному из самых мощных инструментов для разработчиков.
Что внутри:
• Пошаговое обучение - от базовых команд (/init, /plan) до продвинутых вещей вроде MCP, хуков и агентов
Осваивается за ~11–13 часов
• Большая библиотека кастомных команд под реальные задачи
• Готовые шаблоны памяти - как для одиночной работы, так и для команд
• Инструкции и скрипты для:
- автокод-ревью
- проверки стиля и стандартов
- генерации API-документации
• Автоматизация через циклы
Можно настроить Claude так, чтобы он работал автономно без вашего участия
• Подключение внешних инструментов
GitHub, API и другие сервисы - всё разложено по шагам
• Объяснения через схемы и диаграммы
Подойдёт даже тем, кто только начинает
• Примеры настройки узкоспециализированных субагентов
• Отдельные скрипты под обучение
Например, генерация книг и материалов для быстрого освоения любой темы
https://github.com/luongnv89/claude-howto
🚨 У ANTHROPIC утечка: Новая мощная МОДЕЛЬ
Anthropic случайно оставила черновики блог-постов в публично доступном кэше данных. Их нашли исследователи кибербезопасности:
- новая модель под названием "Claude Mythos"
- также упоминается как "Capybara"
- это новый уровень моделей
- больше и умнее, чем Opus
Anthropic подтвердила, что это не фейк:
- «качественный скачок»
- «самая мощная модель, которую мы когда-либо создавали»
- «значительно лучше в программировании, логике и кибербезопасности»
- «сильно опережает любые другие AI-модели в кибер-возможностях»
И они сами этим обеспокоены:
- «Модель предвещает волну ИИ, способных находить и эксплуатировать уязвимости гораздо быстрее, чем защитники успевают реагировать»
https://m1astra-mythos.pages.dev/
🐍 полезные ресурсы 🚀Max
@data_analysis_ml
Здесь говорят о том, как работать с данными в 2026 году ↗️
Узнайте на GoCloud 2026
9 апреля в Москве пройдет GoCloud 2026 – большая конференция про ИИ и облака от команды Cloud.ru.
Отдельный трек будет посвящен данным и аналитике: доклады о технологических трендах, простых инструментах и экономически эффективном управлении данными.
Вы узнаете:
▶️какие подходы к работе с данными станут стандартом в 2026 году
▶️как управлять разными-дата сервисами на одной платформе
▶️как быстро обрабатывать real-time данные
▶️почему ML-системы начинаются не с моделей, а с дата-инфраструктуры
▶️какие возможности дает интеграция ИИ и Spark
Рекомендательные системы — один из ключевых механизмов, на которых держатся современные продукты. Они помогают пользователям находить контент, товары и сервисы, а бизнесу — повышать вовлеченность и качество пользовательского опыта. Вместе с Владимиром Байкаловым, ведущим исследователем AI VK, разбираем главные тренды в рекомендациях и последние значимые работы.
🔗 Список статей
Масштабирование
🟣Действия говорят громче слов: последовательные преобразователи с триллионом параметров для генеративных рекомендаций
🟣Масштабирование трансформеров для рекомендательных систем до одного миллиарда параметров
🟣LLaTTE: законы масштабирования для многоэтапного моделирования последовательностей в крупномасштабных рекламных рекомендательных системах
Lifelong Recommendations
🟣TransAct V2: моделирование последовательностей действий пользователя на протяжении всей жизни в рекомендациях Pinterest
🟣TWIN V2: расширение моделирования ультра‑длинных последовательностей поведения пользователя для улучшения CTR‑предсказания в Kuaishou
🟣LONGER: повышение эффективности моделирования длинных последовательностей в промышленных рекомендательных системах
🟣Укрощение ультра-длинных последовательностей пользовательского поведения в генеративных рекомендациях на уровне сессий
Generative Retrieval
🟣Память трансформера как дифференцируемый поисковый индекс
🟣Рекомендательные системы с генеративным поиском
🟣Sparse Meets Dense: унифицированные генеративные рекомендации с каскадными разреженно-плотными представлениями
Semantic IDs
🟣Повышение стабильности эмбеддингов в рекомендательных системах с помощью Semantic ID
🟣ActionPiece: контекстная токенизация последовательностей действий для генеративных рекомендаций
🟣Обучаемая токенизация объектов для генеративных рекомендаций
🟣Semantic ID переменной длины для рекомендательных систем
End to End Рекомендации
🟣OneRec: объединение retrieval и ranking в генеративной рекомендательной модели с итеративным выравниванием предпочтений
🟣OxygenREC: генеративный фреймворк, следующий инструкциям, для рекомендаций в электронной коммерции
🟣EGA: унифицированный end-to-end генеративный фреймворк для промышленных рекламных систем
LLMxRecSys
🟣PLUM: адаптация предварительно обученных языковых моделей для генеративных рекомендаций промышленного масштаба
🟣OneRec‑Think: рассуждение в тексте для генеративной рекомендации
🟣ReaSeq: использование мировых знаний через рассуждение для последовательного моделирования
Для специалистов по анализу данных ключевой вопрос — как быстро и эффективно извлечь нужную информацию из разных источников. Для этого необходим универсальный инструмент. Например, таким может выступать File Search — встроенный инструмент, доступный на платформе Yandex AI Studio. Инструмент работает на базе RAG-подхода и позволяет большим языковым моделям обогащать контекст данными из корпоративной базы знаний.
🚀Недавно платформа представила обновление инструмента и добавила новые возможности:
- Поддержка таблиц CSV и Excel — поиск по структурированным данным теперь встроен, что упрощает работу с финансовыми, маркетинговыми и операционными отчетами.
- Мультимедиа — видео и аудио можно анализировать через специализированный пайплайн, извлекая ценные инсайты из нестандартных источников.
File Search позволяет аналитикам быстрее находить ответы на вопросы, формируя их на основе загруженных корпоративных данных, а не только общих знаний модели о мире, и упрощает интеграцию в существующие BI- и аналитические процессы.
The AI Scientist официально вышел в Nature - и это уже не просто эксперимент.
Речь про систему, которая способна автоматизировать весь цикл научного исследования:
- генерировать идеи
- писать код
- запускать эксперименты
- оформлять научную статью
Обновлённая версия AI Scientist-v2 уже сгенерировала первую полностью AI-сгенерированную научную работу,
которая прошла полноценное рецензирование людьми.
Теперь вышла публикация в Nature,
где подробно разобрана архитектура системы и показано, как всё это работает на практике.
В ИИ-систему добавили Automated Reviewer - AI-рецензента, который оценивает статьи
на уровне человека и даже стабильнее, чем сами люди.
Исследователями обнаружен прямой закон масштабирования науки -
чем сильнее базовая модель,
тем выше качество научных работ, которые она генерирует.
Это означает простую вещь:
По мере роста моделей и удешевления вычислений
качество AI-науки будет расти автоматически.
Фактически мы подошли к точке, где исследования можно масштабировать так же, как сегодня масштабируют код или контент.
• Nature: https://nature.com/articles/s41586-026-10265-5
• Blog: https://sakana.ai/ai-scientist-nature
@data_analysis_ml
⚡️ MWS Cloud выпустил сервис по работе с большими языковыми моделями.
MWS GPT Model Hub — облачный сервис, который предоставляет доступ к LLM внутри MWS Cloud Platform. Развертывание занимает секунды, модели подключаются через OpenAI‑совместимый API.
Сейчас в сервисе 10 моделей, включая DeepSeek, Google, Alibaba, Zhipu AI. До конца года добавят еще десяток — с поддержкой преобразования текста в речь и аудио в текст.
Что можно делать с помощью MWS GPT Model Hub:
• запускать AI‑ассистентов без настройки инфраструктуры;
• обрабатывать большие объемы текстовых данных;
• создавать внутренние AI‑сервисы для сотрудников;
• сокращать time‑to‑market вдвое за счет быстрого прототипирования;
• внедрять интеллектуальный поиск в продукты.
К плюшкам: встроенные инструменты биллинга и учета ресурсов отслеживают расходы на AI‑функции по проектам и командам.
Как перейти от ИИ-экспериментов к рабочим системам
Рассказываем, где узнать реальный опыт тех, кто встроил искусственный интеллект в ключевые процессы компании и извлек из этого реальную выгоду. 22 апреля присоединяйтесь к конференции МЛечный путь от Selectel, провайдера инфраструктуры для ИИ.
Эксперты топовых ИТ-компаний расскажут:
🔺Как ускорить ML-пайплайны и снизить издержки на инференс без потери качества
🔺Как безопасно внедрить генеративные модели в ключевые процессы и управлять эффектом этого внедрения
🔺Как интегрировать модели в существующую ИТ-архитектуру
Конференция пройдет 22 апреля в Москве. Участие бесплатное, регистрируйтесь: https://slc.tl/ib77j
Реклама. АО "Селектел". erid:2W5zFHjUoay
🚀 Похоже, в Claude Code появилась новая фича - Auto-dream
Пока официально не анонсирована, но её уже заметили в /memory
• Что это такое
Auto-dream - это фоновый подагент Claude, который:
- анализирует последние сессии
- извлекает ключевые знания
- обновляет MEMORY.md
- очищает и переорганизует старые данные
• Как устроена память
- MEMORY.md - это индекс
- отдельные файлы - детали по темам
- /memory - управление системой
👉 по сути, как garbage collector, но для памяти
🐍 Python полезные ресурсы 🚀Max
@data_analysis_ml
Если вы работаете с выгрузками из баз, логами сервисов или отчетами за годы — вы уже имеете дело со значениями, разделенными запятыми (CSV). Но умеете ли вы загружать CSV в Spark правильно?
На открытом уроке разберем, как из плоского файла получить распределенную коллекцию данных — DataFrame. Поймем, почему DataFrame — это не просто таблица, как настраивать разбор грязных данных, объявлять схему вручную и избегать ошибок в промышленной среде.
Вы увидите, как Spark взаимодействует с файловой системой, научитесь писать код для загрузки CSV в PySpark или Scala и разберетесь, когда достаточно pandas, а когда без Spark не обойтись.
Открытый урок проходит в преддверии старта курса «Spark-разработчик».
➡️ Подробности и регистрация: https://otus.pw/XM07/
🚀 Ускоряем внедрение ИИ-агентов в реальные задачи на Agents Week
Насыщенный интенсив от Школы анализа данных Яндекса пройдет с 6 по 10 апреля. Много про инженерных подход к современным агентным системам, их мониторинг и масштабирование. За пять дней поймете, с чего начать проектирование и настройку поведения, какие есть практики построения single-agent и multi-agent-систем, как доводить агентов о продакшена.
Формат: лекции с возможностью задать вопрос экспертам и практика.
Программа и спикеры — по ссылке. Там же можно зарегистрироваться до 9 апреля включительно.
Как запустить микросервисы в Managed Kubernetes
Микросервисное приложение мало просто задеплоить — нужны правила запуска, обновлений, масштабирования и изоляции. Именно они делают эксплуатацию предсказуемой, а инфраструктуру — готовой к росту нагрузки.
1️⃣ разберете, в каких проектах микросервисы действительно нужны и как быстро запустить готовое масштабируемое решение в облаке без лишних сложностей;
2️⃣ рассмотрите базовую структуру Kubernetes для микросервисов: что потребуется сразу, а что можно отложить;
3️⃣обсудите, как организовать деплой, обновления и откаты, чтобы релизы были управляемыми;
4️⃣ настроите масштабирование с помощью нативных инструментов Kubernetes;
5️⃣ свяжете платформу с реестром артефактов;
6️⃣ узнаете, как следить за метриками и логами приложения.
🤖 Palantir AI + Claude использовались для обнаружения, приоритизации и ударов по более чем 1000 целям в первые 24 часа операции против Ирана
Результат оказался настолько мощным и прорывным, что Пентагон даже не стал ждать.
То, что раньше было просто пилотным проектом и тестировалось в ограниченном режиме…
в один момент стало официальным, постоянным и начало масштабироваться повсюду.
Теперь Palantir - это ключевой “AI-мозг” всей армии США.
Система уже внедряется во все роды войск.
https://www.moneycontrol.com/world/how-palantir-and-anthropic-ai-helped-the-us-hit-1-000-iran-targets-in-24-hours-article-13853331.html
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
🔥 Очень любопытный проект: Supermemory показал 99% на SOTA-бенчмарке памяти
• Supermemory набрал ~99% на LongMemEval_s с использованием экспериментальной техники ASMR (Agentic Search and Memory Retrieval)
• Вместо классического vector search и embeddings используется система параллельных агентов-наблюдателей, которые извлекают структурированные знания из истории взаимодействий сразу по нескольким направлениям
• Используются специализированные поисковые агенты:
→ для точных фактов
→ для связанного контекста
→ для восстановления временной последовательности
• И самое интересное, никакой векторной базы данных не требуется
🚀 Проект станет open-source уже через 11 дней, следим:
https://x.com/DhravyaShah/status/2035517012647272689
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
🔥 Полезная подборка каналов только код, практика и самые передовые инструменты, которые используют разработчики прямо сейчас.👇
🖥 ИИ: t.me/ai_machinelearning_big_data
🖥 Python: t.me/pythonl
🖥 Linux: t.me/linuxacademiya
🖥 C++ t.me/cpluspluc
🖥 Docker: t.me/DevopsDocker
🖥 Хакинг: t.me/linuxkalii
🖥 Devops: t.me/DevOPSitsec
👣 Golang: t.me/Golang_google
🖥 Аналитика: t.me/data_analysis_ml
🖥 Javascript: t.me/javascriptv
🖥 C#: t.me/csharp_ci
🖥 Java: t.me/javatg
🖥 Базы данных: t.me/sqlhub
👣 Rust: t.me/rust_code
🤖 Технологии: t.me/vistehno
💰 Экономика и инвестиции в ИИ t.me/financeStable
💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi
🖥Подборка по Golang: /channel/addlist/MUtJEeJSxeY2YTFi
⚡️ Лучшие ИИ ресурсы: /channel/addlist/2Ls-snqEeytkMDgy
Max ИИ: https://max.ru/ai_machinelearning_big_data
Max Ml: https://max.ru/vistehno
Max python: https://max.ru/pythonl
Max Go: https://max.ru/Golang_google
Max Linux: https://max.ru/linuxkalii
Max Java: https://max.ru/javatg
Max Sql: https://max.ru/sqlhub
Max Devops: https://max.ru/DevOPSitsec
Анализ данных: https://max.ru/data_analysis_ml
C++ : https://max.ru/cpluspluc
C#: https://max.ru/csharp_ci
🖥 Chatgpt бот в тг: t.me/Chatgpturbobot
📚 Бесплатные ит-книги: /channel/addlist/HwywK4fErd8wYzQy
Как я стал дата инженером с ЗП 800к
Без удачи и связей
5 лет назад я работал в техподдержке с графиком 2/2 и жестко бухал
- мой путь из техподдержки до техлида с зп 800к
- какие ошибки я совершил и как их обойти
- как выглядит типичный день ДЕ
🚀 Tencent выкатывает Covo-Audio (7B) - новый уровень голосовых AI.
Это уже не просто “распознал → ответил → озвучил”.
Модель умеет говорить и слушать одновременно.
Что внутри:
• Qwen2.5-7B + Whisper
• 8 млн часов аудио обучения
• full-duplex — диалог без пауз
Главное отличие:
Нет отдельных пайплайнов ASR и TTS.
→ всё работает как единая модель
Что это даёт:
• можно перебивать (barge-in)
• естественный разговор, как с человеком
• меньше задержек
• меньше костылей в архитектуре
Отдельно:
Разделение интеллекта и голоса
→ проще делать voice cloning
→ гибкость под разные сценарии
Тренд очевиден:
AI переходит от “голосовых интерфейсов”
→ к полноценному живому диалогу
Скоро кнопка “нажми и говори” исчезнет совсем.
Модель: https://huggingface.co/tencent/Covo-Audio-Chat
В Claude Code уже 93 команды.
Но чтобы получить 80% пользы, тебе хватит вот этих 16 👇/init
→ создаёт CLAUDE.md - память проекта и репозитория/plan
→ сначала думает, потом пишет код/context
→ показывает, что именно съедает твои токены/compact
→ очищает контекст прямо в середине сессии/clear
→ сбрасывает состояние между задачами/model
→ переключает модели: Opus / Sonnet / Haiku/btw
→ позволяет задать побочный вопрос, не ломая основной поток работы/rewind
→ откатывает назад, если всё пошло не туда/agents
→ запускает несколько суб-агентов параллельно/chrome
→ управляет браузером: клик, ввод, навигация/loop
→ прогоняет промпты по кругу, удобно для мониторинга/simplify
→ 3 агента вместе ревьюят твой код/permissions
→ заранее разрешает безопасные действия--dangerously-skip-permissions
→ полностью автоматический режим, без лишних подтвержденийShift + Tab
→ мгновенное переключение режимовultra think
→ максимальная глубина рассуждения
Большинство используют Claude Code как обычный чат-бот.
Поэтому и упираются в потолок.
Продвинутые пользователи работают с ним как с целой системой.
ARC-AGI-3 - бенчмарк,показал неприятную для всей индустрии вещь: даже топовые frontier-модели сейчас набирают меньше 1%.
Лучшие результаты на старте такие:
- Gemini 3.1 Pro Preview - 0.37%
- GPT-5.4 High - 0.26%
- Opus 4.6 Max - 0.25%
И это, пожалуй, главный вывод.
ARC-AGI-3 - это уже не набор статичных головоломок, как в прошлых версиях ARC. Теперь это интерактивные игровые миры, где агенту нужно самому разбираться, что вообще происходит.
Что именно проверяет новый тест:
- исследование незнакомой среды с нуля
- поиск целей и правил без текстовых инструкций
- построение своей модели мира по ходу задачи
- длинное планирование на много шагов вперёд
- обучение на опыте, а не по шаблону
- пересмотр гипотез, если первые догадки оказались неверными
То есть здесь уже мало просто "хорошо рассуждать в чате".
Нужно адаптироваться в реальном времени, помнить прошлые действия, извлекать сигналы из слабой обратной связи и не скатываться в перебор.
Внутри ARC-AGI-3:
- 150+ новых интерактивных окружений
- почти 1 000 уровней
- replay-сессии, где можно смотреть весь таймлайн решений агента
Скоринг считает не только факт решения, а то, насколько эффективно модель осваивает навык по сравнению с человеком.
Именно поэтому результаты выглядят настолько жёстко.
По сути, ARC Prize говорит прямо:
пока между человеком и ИИ есть такой разрыв в освоении новых задач, говорить о настоящем AGI рано.
И это, возможно, один из самых честных тестов за последнее время.
Не потому что модели "слабые".
А потому что реальная универсальная адаптация всё ещё не решена.
https://arcprize.org/
🐍 полезные ресурсы 🚀Max
@data_analysis_ml
Все что выпустили Antropic за последнее время.
73 релиза за 52 дня.
В Claude Code агент теперь сам решает, какие действия можно выполнять 👇
Раньше было два режима:
- либо он постоянно спрашивает разрешение
- либо skip permissions - делает всё без спроса
Первое раздражает.
Второе - рискованно.
Теперь появился auto mode.
В этом режиме Claude:
- сам принимает решения о доступах
- оценивает каждое действие
- безопасные - выполняет сразу
- рискованные - блокирует или ищет альтернативу
По сути:
• это тот же skip permissions, но с встроенной проверкой на потенциальный вред
🧠 Под капотом - классификатор, который анализирует каждый шаг агента
🐍 полезные ресурсы 🚀Max
@data_analysis_ml
Google представили TurboQuant - алгоритм, который сильно снижает требования к памяти при работе LLM.
KV-cache - это то, что хранит весь контекст во время генерации.
И именно он сейчас становится главным ограничением, а не сами модели.
Чем длиннее диалог или больше пользователей, тем быстрее заканчивается память на GPU.
TurboQuant решает это так:
- сжимает KV-cache минимум в 6 раз
- ускоряет инференс до 8 раз
- сохраняет качество без заметной потери
Это ключевой момент: раньше компрессия почти всегда ухудшала ответы.
Как это устроено:
- сначала данные преобразуются (rotation), чтобы их было проще сжимать
- затем применяется основной алгоритм сжатия (PolarQuant)
- после этого добавляется лёгкая коррекция (QJL), которая убирает ошибки
В итоге получается почти точное восстановление при сильно меньшем объёме.
С TurboQuant:
- модели можно запускать на меньшем количестве GPU
- один сервер может обслуживать больше запросов
- становится проще работать с длинным контекстом
- падает стоимость инференса
По сути, это не про “ускорить модель”, а про перераспределение ресурсов внутри всей системы.
Раньше оптимизировали веса моделей
теперь оптимизируют то, как они работают в проде
И KV-cache, как раз одна из самых дорогих частей.
https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
🐍 полезные ресурсы 🚀Max
@data_analysis_ml
🚀 Cursor сделал regex-поиск мгновенным
Instant Grep ищет по миллионам файлов за миллисекунды
16.8 сек → 13 мс
И главное:
они не ускоряли regex
они убрали лишний поиск
🧠 Как это работает
- создаётся индекс: куски текста → файлы
- используются триграммы (fil, ile, le_)
- сначала ищутся кандидаты
- потом запускается regex
👉 большинство файлов вообще не открывается
🔥 Ключевая идея - sparse n-grams
- индексируются не все куски
- только самые «полезные»
- редкие символы имеют больший вес
💾 Всё локально
- индекс хранится у тебя
- привязан к Git
- быстрый доступ через memory map
Скорость даёт не regex
а умный отбор файлов до поиска.
https://x.com/cursor_ai/status/2036122609931165985
🚀 Anthropic показали новый режим:
AI может выполнять задачи на компьютере и по расписанию без твоего участия
Главное:
- Claude управляет компьютером
- кликает, вводит текст, открывает сайты
- выполняет задачи в браузере и приложениях
+ появился режим /schedule:
- ставишь задачу → задаёшь время
- Claude сам запускает и выполняет её
- даже если твой ноут выключен
- отчёты генерируются сами
- соцсети мониторятся автоматически
- задачи выполняются без контроля
https://claude.com/product/cowork#dispatch-and-computer-use
🐍 Python полезные ресурсы 🚀Max
@data_analysis_ml
🤖 Этот open-source репозиторий даёт твоему ClawdBot “зрение”
Это AI-ассистент в реальном времени для умных очков Meta Ray-Ban.
Он объединяет:
→ голос
→ зрение
→ действия агента
Работает через Gemini Live и OpenClaw.
Как это выглядит:
Ты надеваешь очки → нажимаешь кнопку AI → просто говоришь
Дальше:
• Gemini видит через камеру очков и описывает происходящее
• передаёт задачу в OpenClaw
• OpenClaw выполняет её через подключённые приложения
Можно:
→ отправлять сообщения в WhatsApp / Telegram / iMessage
→ искать информацию в интернете
→ получать ответы голосом
📊 Технически:
• камера очков передаёт изображение примерно 1 кадр в секунду в Gemini
• аудио работает в обе стороны в реальном времени
• OpenClaw выполняет действия как агент
По сути, это полноценный AI-ассистент, который видит мир вместе с тобой
https://github.com/Intent-Lab/VisionClaw
🐍 Python полезные ресурсы 🚀Max
🌟 Лучшие GitHub-репозитории для Claude Code, которые могут увеличить эффективность твоего следующего проекта:
1. Superpowers
https://github.com/obra/superpowers
→ Набор “супер-скиллов” для Claude: готовые промпты и инструменты, которые расширяют возможности агента (автоматизация, генерация кода, workflow).
2. Awesome Claude Code
https://github.com/hesreallyhim/awesome-claude-code
→ Кураторский список всего полезного вокруг Claude Code: гайды, тулзы, примеры, лучшие практики.
3. GSD (Get Shit Done)
https://github.com/gsd-build/get-shit-done
→ Фреймворк для реального продакшн-использования агентов: ставишь задачи - агент разбивает их и доводит до результата.
4. Claude Mem
https://github.com/thedotmack/claude-mem
→ Система памяти для Claude: позволяет агенту “помнить” контекст, прошлые действия и работать как долгоживущий ассистент.
5. UI UX Pro Max
https://github.com/nextlevelbuilder/ui-ux-pro-max-skill
→ Набор навыков для генерации интерфейсов: помогает Claude делать более качественные UI/UX решения и дизайн.
6. n8n-MCP
https://github.com/czlonkowski/n8n-mcp
→ Интеграция Claude с n8n: можно подключать агента к автоматизациям, API и workflow без кучи кода.
7. Obsidian Skills
https://github.com/kepano/obsidian-skills
→ Навыки для работы с Obsidian: управление заметками, knowledge base и личной базой знаний через Claude.
8. LightRAG
https://github.com/hkuds/lightrag
→ Лёгкая реализация RAG (Retrieval-Augmented Generation): быстро подключаешь свою базу данных к модели для более точных ответов.
9. Everything Claude Code
https://github.com/affaan-m/everything-claude-code
→ Универсальный сборник: шаблоны, примеры, инструменты - всё, чтобы быстро стартовать и прокачать Claude Code.
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Это уже не code review.
Это distributed system из двух LLM, которые дебажат друг друга.
⚡️ Андрей Карпаты: спрос на софт взлетит, но это временно
Он отметил важный сдвиг:
Теперь код стал ephemeral (эфемерным, временным).
Его можно:
— переписать за секунды
— адаптировать под любого пользователя
— менять прямо на лету
Фактически весь digital-мир начинает пересобираться в реальном времени.
Что это значит:
• 📈 В краткосрочной перспективе
Спрос на разработку резко растёт,
потому что теперь можно сделать гораздо больше за то же время.
• 🤯 В долгосрочной перспективе
Даже те, кто создаёт AI, понимают:
они могут автоматизировать собственную работу.
Мы приходим к новой реальности: код больше не статичный продукт -
это динамический поток, который постоянно меняется.
Полное интервью: https://www.youtube.com/watch?v=kwSVtQ7dziU&t=1s
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
🚀 Релиз LongCat-Flash-Prover - это одна из самых сильных open-source моделей для формальной математики.
Модель строит и проверяет доказательства как в реальной математике.
Внутри
• 🧠 Не один агент, а гибрид экспертов - модель генерирует и отбирает лучшие цепочки рассуждений
• ⚙️ Алгоритм HisPO - держит длинную логику без развала
• 🔍 Жесткая проверка:
- Lean4 (формальная математика)
- AST-анализ
- проверка корректности
→ галлюцинации почти убраны
📊 Результаты:
• 97.1% на MiniF2F (всего 72 попытки)
• 41.5% на PutnamBench (очень сложные задачи)
Это уже уровень, где open-source начинает догонять топовые research-модели.
📄 Paper: https://github.com/meituan-longcat/LongCat-Flash-Prover/blob/main/LongCat_Flash_Prover_Technical_Report.pdf
📂 GitHub: https://github.com/meituan-longcat/LongCat-Flash-Prover
🤗 Hugging Face: https://huggingface.co/meituan-longcat/LongCat-Flash-Prover
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml