Аналитика данных админ - @haarrp @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы @pythonl - Python @pythonlbooks- python книги📚 @datascienceiot - ml книги📚
🔍T-one — открытая русскоязычная модель распознавания речи, выпущенная Т-Технологиями специально для звонков и телефонии
🧠 Главное:
— Обрабатывает речь кусками по 300 мс и запоминает контекст, подходит для реального времени
— Основа — Conformer и CTC-декодер, дополнительно подключается языковая модель (5-грамм, KenLM), чтобы повысить точность
— Задержка небольшая: около 1–1.2 секунды вместе с постобработкой
— Хорошо справляется с шумом, паузами и разговорной речью по телефону (8 кГц)
— Обучена на 80 тысячах часов аудио, в том числе 6 тысяч часов — это реальные телефонные звонки
— Используется в продуктах Т-Банка
— Дает заметно лучшее качество, если подключить языковую модель
https://habr.com/ru/companies/tbank/articles/929850/
🚨 BREAKING: Руководитель DeepMind резко раскритиковал заявление OpenAI о "золоте" на Международной математической олимпиаде (IMO)
IMO — это International Mathematical Olympiad (Международная математическая олимпиада).
📌 Это крупнейшее и престижнейшее соревнование по математике для школьников со всего мира. Впервые проведено в 1959 году, сегодня в нём участвуют более 100 стран.
>Прессслужба OpenAI сообщили, что их модель впервые в истории выиграла на IMO золото
> “У IMO есть внутренний протокол оценки, который никто извне не видит.
> Без него нельзя утверждать, что у вас 1 место.
> С потерей баллов на задаче P6 — это серебро, а не золото.”
📌 Что произошло:
— OpenAI не уведомлял IMO, но объявила о "первом месте" своей модели
— Объявление сделали до окончания церемонии IMO, нарушив просьбу не затмевать победу реальных студентов
— DeepMind, наоборот, работала с IMO официально и соблюдала все условия
— Научное сообщество обвиняет OpenAI в непрозрачности и неуважении к сообществу
— Пост был сделан без публикации всей методики и без согласования с организаторами
💬 Цитата из сообщества:
“OpenAI повела себя неуважительно и эгоистично. Нельзя сравнивать так модели и людей.”
🧠 Вопрос к читателю:
Где грань между научным прогрессом и этикой в публичных заявлениях ИИ-компаний?
@data_analysis_ml
Присоединяйся к сообществу современной ИТ-компании. Проходи бесплатные стажировки, знакомься с экспертами, участвуй в активностях и найди работу мечты!
Лига — это:
— Более 6 000 сотрудников по всей России
— Удобный график: удаленка, гибрид или офис
— Полный соцпакет, ДМС, корпоративная связь
— Компенсация фитнеса
— И многое другое
Хочешь расти как профессионал, работать в дружной команде, отдыхать в компании единомышленников, участвовать в масштабных корпоративах? Тогда тебе к нам!
/channel/digitalleague?erid=2W5zFJaD2nU
Реклама. ООО "ЭЙТИ КОНСАЛТИНГ". ИНН 7715744096.
🚨 Подождите, NVIDIA выпустила новые open-source модели SOTA-уровня?!
🧠 OpenReasoning-Nemotron — линейка мощных LLM, специально обученных для математики, науки и программирования.
💾 Доступны 4 версии: 1.5B, 7B, 14B и 32B — можно запускать полностью локально, без облаков и подписок.
📊 Выдают топовые результаты на бенчмарках
⚙️ Идеальны для reasoning-задач и технических доменов
Как запустить на ноутбуке и всё, что нужно знать — ниже 👇
Как запустить OpenReasoning-Nemotron у себя на ноуте:
1️⃣ Скачай LM Studio для macOS, Windows или Linux
2️⃣ В поиске введи: openreasoning
3️⃣ Установи нужную модель
🧠 Совет: берите 7B-версию от Bartowski в квантовке Q4_0 — отличное качество при маленьком размере.
Идеально для ARM-процессоров (например, M1/M2).
🔥 Запускай топовую LLM локально — без облака, подписок и тормозов.
https://huggingface.co/collections/nvidia/openreasoning-nemotron-687730dae0170059860f1f01
MWS Cloud запустила платформу хранения больших данных для обучения ИИ.
⚡️MWS Data Lakehouse - это целая экосистема, способная переваривать любые типы данных — структурированные, неструктурированные и векторные. А это значит, что теперь вся ваша информация — от отчетов о продажах и заказах до логистики — могут находится в одном месте.
Безопасность - на высшем уровне. В платформу встроены инструменты централизации контроля доступа, аудита и шифрования, динамического маскирования чувствительных данных.
При этом она легко интегрируется с Greenplum и Postgres, что позволяет бизнесу сохранить свои исторические активы, сократить цикл реализации проекта по миграции, а также снизить затраты и риски, связанные с переходом на новое решение.
Результаты говорят сами за себя:
• данные обрабатываются в 23 раза быстрее;
• хранилище используется на 40% экономичнее;
• персонал работает эффективнее в 2,5 раза;
• время расчетов аналитически витрин сокращается в 2 раза.
Поверх платформы можно запустить инструменты для обучения и инференса ML и больших языковых моделей. Компания может развернуть как свои сервисы для работы с ИИ, так и использовать готовые MLOps-инструменты MWS.
Генеративный ИИ для предприятий сегмента Enterprise: как выбрать пилотный проект с максимальной отдачей?
Крупные компании уже запускают первые проекты на основе генеративного искусственного интеллекта. Но как определить, какие решения принесут реальную пользу при ограниченных бюджетах и сжатых сроках реализации?
31 июля в 11:00 мск приходите на первый совместный вебинар Yandex Cloud и «Инфосистемы Джет», чтобы:
– узнать как выбрать перспективные ИИ-проекты для вашего бизнеса,
– увидеть демонстрацию рабочих GPT-решений по интеллектуальному поиску, технической поддержке, кибербезопасности и анализу отзывов,
– поучаствовать в разработке GPT-решения.
Все посетители вебинара смогу сделать свои проекты частью JET & YandexGPT Lab — новой российской платформы по разработке и тестированию GPT-решений для бизнеса.
Спикеры:
🔸Наиль Енаев, руководитель направления GPT «Инфосистемы Джет»
🔸Антон Чикин, начальник отдела ML «Инфосистемы Джет»
🔸Тарас Юзефович, менеджер по работе с партнерами ML&AI Yandex Cloud
Для кого:
▫️Руководители по ИТ и ИБ в крупных компаниях
▫️Ответственные за внедрение генеративного ИИ и больших языковых моделей
▫️Директора по данным, цифровизации и цифровой трансформации
➡️ Успейте зарегистрироваться на вебинар!
🧪 Octelium — новая open-source платформа для запуска и оценки LLM-агентов в реалистичных сценариях.
🔍 Что делает:
• Запускает LLM-агентов в симулированных задачах: от браузинга до программирования
• Оценивает их поведение, принятие решений и эффективность
• Работает локально, без облака
• Поддерживает мультимодельность и кастомные задачи
• Подходит для RL, alignment, eval-пайплайнов
📦 Отличный инструмент для исследований, тестов и продвинутых экспериментов с LLM.
🔗 github.com/octelium/octelium
🚨 Похоже у нас тут… первая утечка GPT‑5?
В репозитории biology-benchmarks-inspect
появился подозрительный новый идентификатор:
`gpt‑5‑reasoning‑alpha` 👀
🧠 Главное:
> 20 часов назад коммит заменил модель o3
на новую — gpt‑5‑reasoning‑alpha
Если репозиторий действительно внутренний (а он на это похож), то GPT‑5 уже где-то рядом.
🤖 Это могут быть предварительные тесты, бенчмарки или подготовка к релизу.
@data_analysis_ml
⚡ VoltAgent — TypeScript-фреймворк для создания автономных AI-агентов. Этот open-source проект предлагает готовую инфраструктуру для разработки сложных агентов на базе LLM, избавляя от необходимости писать всё с нуля. С его помощью можно создавать как простых чат-ботов, так и многоагентные системы с координацией через Supervisor и сложной workflow-логикой.
Фреймворк поддерживает популярные языковые модели, интеграцию с внешними API через Model Context Protocol и даже голосовые интерфейсы через @voltagent/voice. Для отладки есть VoltOps — платформа с визуализацией работы агентов.
🤖 GitHub
@data_analysis_ml
🎨 Откуда у диффузионок креативность?
Команда AI VK Hub разбирает свежую статью с ICML 2025:
Достаточно двух свойств свёрточных сетей — локальности и инвариантности к сдвигам, чтобы генерировать осмысленные и разнообразные изображения, даже без нейросети.
Аналитический процесс с этими ограничениями почти не уступает ResNet и U-Net по качеству — и отлично объясняет поведение диффузионных моделей.
⚙️ Rig — современная Rust-библиотека для работы с LLM, предлагающая унифицированный интерфейс для разных провайдеров ИИ. Проект выделяется акцентом на модульность и эргономику, позволяя интегрировать языковые модели в приложения с минимальным бойлерплейтом.
Инструмент уже используют в продакшене такие проекты, как Dria Compute Node и Linera Protocol. Библиотека поддерживает не только чат-модели вроде GPT-4, но и векторные базы данных, включая MongoDB и LanceDB.
🤖 GitHub
@data_analysis_ml
🛠️ Вышел Public Roadmap для Gemini CLI — команды хотят создать мощного, open-source Coding Agent, ориентированного на сообщество.
Проект развивается сразу по 4 ключевым направлениям:
1. Extensible
CLI должен быть легко расширяемым под любые среды и сценарии: кастомные slash-команды, удалённые протоколы, запуск .gemini.md
файлов с пользовательскими тулзами.
2. Everywhere
Агент можно запускать как фоновый процесс в разных окружениях: локально, в контейнерах, GitHub Actions, облаке. Поддерживается делегирование задач субагентам.
3. Intelligent
Фокус на качестве моделей и инструментов. Цель — попасть в топ по метрикам вроде SWE Bench. Все критические баги (P0) будут закрыты до релиза версии 1.0.
4. Open Source
Проект строится в диалоге с сообществом: быстрое реагирование на ишью и PR’ы, минимальный бэклог и удобные процессы участия.
🔄 Workstreams уже распределены:
- Качество модели (улучшение рассуждений, устранение повторов)
- Производительность (кеширование, умная маршрутизация моделей)
- Расширяемость (агенты в фоне, деплой в облако)
- Автоматизация сообщества (улучшение dev-флоу)
📌 Если хочешь участвовать в разработке следующего поколения AI-инструментов для кодинга — сейчас самое время подключиться к Gemini CLI.
https://github.com/google-gemini/gemini-cli/discussions/4226
⚡️ Klavis AI — открытая платформа для интеграции MCP в AI-приложения. Проект предлагает готовые решения для работы с популярными сервисами вроде YouTube, Gmail и GitHub через единый API, избавляя разработчиков от необходимости писать клиентский код для каждого сервиса.
Инструмент имеет поддержку мультиплатформенных сценариев. Klavis позволяет одновременно использовать инструменты разных сервисов через единый интерфейс. Есть возможность как облачного использования, так и self-hosted развертывания.
🤖 GitHub
@data_analysis_ml
🔥 Бывший сотрудник OpenAI поделился откровенными впечатлениями о годе работы внутри одной из самых обсуждаемых компаний мира.
Он присоединился к команде в мае 2024, ушёл три недели назад — и решил написать личные размышления, пока всё ещё свежо в памяти.
Он подчёркивает: никаких скандалов или внутренних конфликтов — просто желание снова что-то строить с нуля. Несмотря на это, он признаёт: сложно уйти с работы, где ты видишь рождение AGI своими глазами и участвуешь в запуске Codex.
Культура OpenAI — это хаос, скорость и независимость.
Компания за год выросла с 1000 до более чем 3000 сотрудников. Почти все руководители делают совершенно другую работу, чем пару лет назад. И всё внутри строится снизу вверх: roadmap’ов не было, а идеи рождались и запускались без бюрократии.
Всё общение происходит в Slack — никаких email, почти никакого планирования. Команды могут быть хаотичны и перегружены, но часто это работает: если идея крутая, люди просто начинают делать, и вокруг появляется команда.
Руководители не мешают, а помогают — особенно в исследовательских командах. Исследователь воспринимается как мини-руководитель: выбрал интересную задачу — вперёд. Главное — не «казаться», а «делать». Политика и презентации — не в цене. Лучшие идеи побеждают.
OpenAI умеет разворачиваться на ходу. Как только появляется новая информация, стратегия может кардинально поменяться — и в этом сила. Вдохновлённый атмосферой Segment, автор признаёт: OpenAI удалось сохранить эту гибкость даже при таком масштабе.
Закрытость — часть культуры.
Из-за огромного внимания общества и прессы компания крайне аккуратно делится информацией. Многое не анонсируется даже внутри. Но при этом она остаётся самой открытой из «больших AI-лабораторий»: модели попадают в API, доступны не только корпорациям, но и отдельным пользователям.
Внимание к реальным рискам (злоупотребления, манипуляции, self-harm) — важный фокус внутри. Хоть фундаментальные угрозы (в духе "intelligence explosion") тоже обсуждаются, упор в работе на конкретные и прикладные сценарии.
Технологически OpenAI — монорепозиторий на Python, немного Rust и Go. Всё крутится на Azure, но доверяют только 2–3 сервисам. Инфраструктура напоминает ранний Facebook: всё движется быстро, дублируется, много внутренней разработки и отсутствие строгих архитектурных комитетов.
Он отдельно отметил уникальность команды Codex, с которой провёл последние 3 месяца. За 7 недель (!) они с нуля запустили продукт: с контейнерным рантаймом, fine-tuning моделей, git-интеграцией и полноценным асинхронным агентом. В ночь перед запуском они сидели до 4 утра, а утром уже нажимали на кнопку.
Codex показал: будущее программирования будет похоже на общение с ассистентом, а не набор кода строка за строкой. С момента запуска Codex сгенерировал более 630 000 pull request’ов — это десятки тысяч на каждого инженера в команде.
Несмотря на скандалы в пресе — тысячи людей, искренне верящих, что строят нечто важное. OpenAI остаётся одной из самых амбициозных организаций в мире: не только чат, не только API, но и hardware, агенты, изображения — и это ещё не всё.
📌 Читать
@data_analysis_ml
#openai #ai #ml #llm #chatgpt
⚡️ Skywork-R1V3 — новейшая мультимодальная LLM с открытыми весами от китайской компании SkyworkAI. Модель демонстрирует SOTA-результаты в бенчмарках мультимодального мышления, превосходя аналогичные open-source решения и некоторые проприетарные модели.
Проект использует RL-дообучения для улучшения логических и визуальных цепочек рассуждений. Доступны квантованные версии для запуска на видеокартах с 30+ GB памяти.
🤖 GitHub
@data_analysis_ml
🧠 Нейроаналитик — AI-агент для анализа и визуализации данных от Yandex B2B Tech.
🔍 Что делает:
• Помогает искать инсайты в таблицах и графиках
• Строит и редактирует визуализации по запросу на естественном языке
• Ускоряет отчёты и проверку гипотез примерно на 30%
• Работает внутри BI-сервиса Yandex DataLens
• Доступен в облаке и on-premises
• Не требует знаний синтаксиса формул или кода
Построен на базе Yandex Cloud AI Studio, где также можно собирать своих ИИ-ассистентов. Первая версия фичи появится в сентябре этого года, а пока можно записаться в лист ожидания.
@data_analysis_ml
🧱 Pi³ (Pi-Cubed) — новая SOTA‑модель, которая строит 3D‑модель объекта по фотографиям 📸
💡 Главное:
— На вход подается несколько фото с разных ракурсов — и она восстанавливает объёмную 3D‑форму
— Не важно, в каком порядке поданы изображения
— Модель сама определяет, где стояла камера, как выглядел объект в объёме, и выдаёт готовое 3D
⚙️ Под капотом:
— Работает без supervision
— Не требует фиксированной позиции камеры
— Отлично подходит для 3D‑сканирования, реконструкции, AR/VR и генеративных задач
📄 Paper: https://yyfz.github.io/pi3/
👨💻 Code: https://github.com/yyfz/Pi3
🤗 Demo: https://huggingface.co/spaces/yyfz233/Pi3
#3d #ml #reconstruction
🚀 Новая модель рассуждений — Hierarchical Reasoning Model (HRM) 🧠🤖
HRM — это ИИ, вдохновлённый тем, как устроен человеческий мозг: информация обрабатывается иерархически, от простого к сложному. И результат — впечатляет.
💡 Модель решает сложные задачи, такие как:
- ARC-AGI (бенчмарк на гибкое мышление)
- Судоку экспертного уровня
И всё это:
✅ Без предобучения
✅ Без Chain-of-Thought
✅ Всего на 1,000 обучающих примерах!
🔬 Это не просто новая модель — это подход, построенный на принципах нейронауки, и он уже показывает мощные результаты.
📄 Исследование: https://arxiv.org/abs/2506.21734
💻 Код на GitHub: https://github.com/sapientinc/HRM
@data_analysis_ml
Бесплатный курс по PostgreSQL от практиков рынка
Присоединяйтесь к бесплатному курсу по основам PostgreSQL от Selectel и Эльбрус Буткемп. Он будет полезен Junior- и Middle-специалистам: администраторам баз данных, разработчикам, DevOps-инженерам и аналитикам.
Вы научитесь:
🔹создавать и связывать таблицы,
🔹выполнять базовые операции с данными,
🔹работать с РСУБД.
Бонусы: вы можете получить сертификат о прохождении курса, а также промокоды для практики на мощностях Selectel.
Начните обучение уже сегодня.
Реклама. АО «Селектел», ИНН 7810962785, ERID: 2VtzqwqVE9D
🔍 Lucy (1.7B) — легковесная агентная модель веб-поиска на базе Qwen3, обученная только через RL, без привычного SFT.
📱 Заточена под мобильные устройства и CPU-only:
• Агентный поиск через Serper (Google API) + Crawl4AI
• Специальные векторные задачи направляют рассуждение
• Обгоняет DeepSeek-v3 на SimpleQA (MCP-бенчмарк)
• Работает с vLLM, llama.cpp, Jan, LMStudio
• Есть в формате gguf — для локального запуска на CPU
• Режим генерации: temp 0.7 / top-p 0.9 / top-k 20
https://huggingface.co/collections/Menlo/lucy-6879d21ab9c82dd410b231ca
💸 Марк Цукерберг предложил *Марку Чену перейти к нему — и, по слухам, миллиардер предложил 1 миллиард долларов.
Когда речь заходит о гонке за ИИ‑талантами, ставки становятся буквально космическими 💸
Марк Чен (Mark Chen) — ведущий исследователь OpenAI, занимающий пост Chief Research Officer / Senior VP of Research.
ML-инженеры и Data Scientists + One Day Offer = попадание в команду HR-платформы Сбера! 💚
26 июля вы сможете пройти экспресс-отбор в команду банка, которая делает поиск кандидатов проще и быстрее. Вот для каких задач вы будете искать и разрабатывать AI-решения:
✔️ ранжирование резюме или вакансий
✔️ рекомендации образовательного контента
✔️ распознавание документов
✔️ автоматизация рутинных процессов
✔️ прогнозирование оттока и внутренних перемещений
Регистрация на One Day Offer по ссылке!
🎆 Harbor — локальный стек для работы с LLM в один клик. Этот инструмент упрощает запуск локальных языковых моделей и связанных сервисов — от веб-интерфейсов до RAG и голосового взаимодействия. Всё работает в Docker и настраивается парой команд.
Harbor автоматически интегрирует компонентов, например, SearXNG сразу подключается к Open WebUI для поиска по вебу, а ComfyUI — для генерации изображений. Подходит тем, кто хочет быстро развернуть локальную среду для экспериментов с ИИ.
🤖 GitHub
@data_analysis_ml
🚗 python-can — универсальная библиотека для работы с CAN-шиной из Python. Этот проект предоставляет удобные абстракции для взаимодействия с различными CAN-адаптерами и поддерживает как классический CAN, так и CAN FD.
Библиотека обладает кроссплатформенностью и поддерживает множество бэкендов, включая SocketCAN, Kvaser, PCAN и другие. Полезно для автомобильной диагностики, робототехники и промышленной автоматизации.
🤖 GitHub
📊 ManusAI теперь умеет визуализировать данные красиво и без боли
Загружаете сырые данные → описываете, что хотите увидеть → выбираете тип графика → Manus сам всё строит.
Мы вот так выяснили, что среди трёх видов пингвинов — Адели, Антарктических и Генту — самые пухлые и длинноластые оказались именно генту. 🐧
Подходит идеально для:
— дашбордов и презентаций
— отчётов для коллег и инвесторов
— исследовательского анализа без кода
🎨 Приятный интерфейс, поддержка CSV, markdown-выгрузка и PDF. И всё это — бесплатно.
Попробовать: https://manus.ai
@data_analysis_ml
#manus
Рискните зарегистрироваться на One Day Offer и получите работу в команду блока «Риски» ⚡️
25 июля Сбер приглашает дата-инженеров и аналитиков данных пройти ускоренный отбор и открыть доступ к реально интересным задачам в 120+ витринах и 25+ петабайтах данных.
Встречаемся онлайн 25 июля в 10:30 — ссылка на регистрацию здесь!
Как уменьшить расходы на КХД в 7 раз и не отстать от AI гонки?
Нужно использовать КХД на архитектуре Lakehouse. 74% западных корпораций уже мигрировали на архитектуру Lakehouse, которая объединяет сильные стороны DWH и Data Lake, а также служит фундаментом для быстрого внедрения AI-инициатив.
Протестируйте VK Data Lakehouse — КХД нового поколения для уменьшения стоимости хранения данных и ускорения аналитики до 10 раз.
→ Дешевое хранение данных в S3-хранилище. Стоимость хранения 1 ГБ с репликацией в облаке уменьшается в 10 раз — с 30 до 3 рублей по сравнению с DWH.
→ Транзакционность для данных в S3-хранилище. Табличный формат поверх S3 обеспечивает ACID и полноценную работу в сценариях DWH.
→ Ускорение аналитики. MPP SQL-движок для параллельной работы с данными из разных источников без тяжелого ETL.
→ Уменьшение расходов за счет разделения compute и storage. Платите только за то, что используете. Нет затрат на простаивающие ресурсы.
→ Линейный рост затрат вместо экспоненциального при масштабировании.
→ Не нужно содержать отдельные команды под DWH и Data Lake.
→ Универсальное решение для работы с любым объемом данных. От гигабайт до сотен петабайт. Без сложного масштабирования и миграций.
→ Работа с ML становится быстрее без рисков уронить DWH. DS команда может экспериментировать с ad hoc запросами без опаски уронить DWH и BI.
Чтобы получить до 150 000 бонусных рублей для тестирования VK Data Lakehouse в VK Cloud с поддержкой архитекторов:
👉Оставляйте заявку
Будем рядом на всех этапах пилота и поможем довести MVP до результата.
Не прошло и дня: эра 3D-вайфу на базе ИИ набирает обороты.
Первые open-source версии этого чуда уже на доступны на GitHub
https://github.com/Jackywine/Bella
@data_analysis_ml
#ai #ml
💥 Исследователи из Университета Торонто представили первую в мире атаку типа Rowhammer, работающую на видеопамяти GPU — GPUHammer. Им удалось взломать защиту NVIDIA A6000 и изменять данные в памяти GDDR6, что особенно опасно для систем машинного обучения.
Для атаки использовали особенности CUDA и оптимизации доступа к памяти. NVIDIA рекомендует включать ECC, но это снижает производительность на 10%. Код эксплойта уже выложен в открытый доступ.
🔗 Ссылка - *клик*
@data_analysis_ml
🎓 Новые лекции от UCLA: *Reinforcement Learning of Large Language Models* (весна 2025)
Свежий курс, полностью посвящённый обучению LLM с помощью RL. Отличный ресурс для тех, кто хочет разобраться не только в RLHF, но и в новых направлениях, которые появляются на стыке обучения с подкреплением и больших языковых моделей.
📚 Что в курсе:
– Базовые принципы RL применительно к LLM
– RLHF (reinforcement learning from human feedback)
– RL с верифицируемыми наградами (RLVR)
– RL на этапе inference: оптимизация в момент выполнения
– Архитектуры, policy shaping, reward modeling и др.
Это не просто обзор — это системная попытка осмыслить будущее RL для LLM, где важно не только fine-tuning, но и работа с обратной связью в режиме реального времени, доверие к награде и оптимизация вычислений.
🧠 Полезно всем, кто:
– интересуется агентами и автономными системами
– работает над LLM‑продуктами
– хочет выйти за пределы SFT и попробовать более «горькие» методы обучения
#LLM #RLHF #RLVR #AIeducation #ReinforcementLearning #UCLA
🔜 Youtube: https://youtube.com/playlist?list=PLir0BWtR5vRp5dqaouyMU-oTSzaU5LK9r
🔜 Курс: https://ernestryu.com/courses/RL-LLM.html