Присоединяйтесь к нашему каналу и погрузитесь в мир для дата сайентиста Связь: @devmangx
4 способа запустить LLM, такую как DeepSeek-R1, локально на вашем компьютере:
Запуск LLM локально — это как обладание суперспособностью:
🔸Экономия средств
🔸Конфиденциальность: ваши данные остаются на вашем компьютере
🔸К тому же, это безумно интересно
Сегодня мы рассмотрим лучшие способы сделать это. Поехали:
1. Ollama
Самый простой способ — выполнить команду:
ollama run deepseek-r1
curl -fsSL https://ollama.com/install.sh | sh
Сегодня стартовала неделя опенсорса от DeepSeek
На прошлой неделе команда анонсировала, что с 24 по 28 февраля они выложат в открытый доступ пять репозиториев из своей внутренней экосистемы
Сегодня — первый релиз: FlashMLA
Это эффективный декодирующий кернел для MLA на GPU Hopper, оптимизированный для обработки последовательностей переменной длины.
Альтернатива Pandas, работающая в 100 раз быстрее!
(Может даже обойти GPU-библиотеки для работы с DataFrame)
Хотя Pandas — самая популярная библиотека для работы с DataFrame, у нее есть серьезные ограничения:
🔸Использует только одно ядро процессора
🔸Часто создает громоздкие DataFrame.
🔸Немедленное (eager) выполнение мешает глобальной оптимизации.
Представляем FireDucksDev — высокоэффективную замену Pandas, которую можно использовать без изменений кода.
Достаточно просто заменить одну строку:
import fireducks.pandas as pd
Пользователям Jupyter это точно понравится
Stickyland — это инструмент с открытым исходным кодом, который позволяет выйти за рамки линейного представления ноутбука.
🔸Создавайте плавающие ячейки
🔸Формируйте дашборды из ячеек
🔸Автоматически выполняйте ячейки при изменениях
👉 @DataSciencegx | #ресурсы
Нашёл мощную альтернативу Jupyter Notebook (с открытым исходным кодом)
marimo объединяет возможности Jupyter, Streamlit, ipywidgets (и не только) в реактивном интерфейсе.
Он также отображает интерактивные таблицы Pandas, и к ним можно выполнять SQL-запросы.
👉 @DataSciencegx | #ресурсы
Следующая визуализация показывает 5 самых популярных шаблонов проектирования, используемых при создании ИИ-агентов
Давайте их разберём:
1. Шаблон рефлексии
ИИ анализирует свою работу, чтобы выявить ошибки, и повторяет процесс до тех пор, пока не создаст окончательный ответ.
2. Шаблон использования инструментов
Инструменты позволяют LLM собирать дополнительную информацию с помощью:
🔸Запросов к векторным базам данных
🔸Выполнения Python-скриптов
🔸Вызова API и т. д.
Это полезно, поскольку LLM не зависит исключительно от своего внутреннего знания.
3. Шаблон ReAct (Reason and Act):
ReAct сочетает два вышеописанных шаблона.
4. Шаблон планирования:
Вместо того чтобы решать задачу за один раз, ИИ создаёт план действий:
🔸Разбивает задачи на части
🔸Формулирует цели
Такое стратегическое мышление позволяет решать задачи более эффективно.
5. Шаблон многократных агентов:
🔸Мы имеем несколько агентов.
🔸Каждый агент получает свою роль и задачу.
🔸Каждый агент может также использовать инструменты.
Все агенты работают вместе, чтобы достичь конечного результата, делегируя задачи другим агентам по мере необходимости.
🔸Агент может отражать сгенерированные выводы.
🔸Он может взаимодействовать с миром с помощью инструментов.
Это делает данный шаблон одним из самых мощных, используемых сегодня
👉 @DataSciencegx
В Python можно выполнить директорию проекта как скрипт
🔸Переименуйте основной файл в main[.]py.
🔸Запустите "python имя_директории".
Это удобно и позволяет другим легко идентифицировать основной файл
👉 @DataSciencegx
Топ репозитории GitHub, которые нельзя пропустить на этой неделе:
1. Бесплатный курс по LLM (2025) — обновленный репозиторий с основами LLM, дообучением и квантизацией.
👉 GitHub
2. Qwen2.5-VL — мультимодальная языковая модель для обработки документов и реальных задач.
👉 GitHub
3. GPT Researcher — бесплатная альтернатива Deep Research для глубоких исследований с отчетами и цитатами.
👉 GitHub
4. Text Generation Web UI — интерфейс для работы с LLM, с простым подключением и поддержкой API.
👉 GitHub
5. Browser-use — агент для автоматизации браузера с командным управлением.
👉 GitHub
👉 @DataSciencegx | #ресурсы
Как выглядит эффективная среда для экспериментов в машинном обучении?
Практики MLOps направлены на повышение скорости разработки продуктов машинного обучения, однако серьезные узкие места возникают, когда среда для экспериментов и другие инфраструктурные элементы интегрированы плохо.
Давайте разберем ключевые свойства, которыми должна обладать эффективная среда для экспериментов. Как инженер MLOps, вы должны предоставлять их пользователям, а как Data Scientist – понимать, что именно вам необходимо.
🔸 Доступ к сырым данным
Хотя обработка сырых данных – зона ответственности Data Engineering, Data Scientist'ам важно иметь возможность исследовать и анализировать их, чтобы решать, какие данные необходимо продвигать по Data Value Chain (цепочке ценности данных).
🔸 Доступ к подготовленным (curated) данным
Подготовленные данные могут находиться в Data Warehouse, но при этом не быть доступны через Feature Store. Такие данные не должны использоваться для обучения моделей в продакшн-среде. Data Scientist'ы должны иметь возможность исследовать подготовленные данные и решать, что стоит продвигать дальше.
🔸 Источник данных для обучения моделей
Данные для обучения моделей должны поступать из Feature Store, если ML-тренировочный конвейер готов к переходу в продакшн.
🔸 Гибкость в развертывании вычислительных кластеров
Data Scientist'ы должны легко запускать различные типы вычислительных кластеров (Spark, Dask или другие технологии) для эффективного исследования сырых и подготовленных данных.
🔸 Возможность запуска продакшн-подобного ML-конвейера из ноутбука
Data Scientist'ы должны иметь возможность ад-хок развернуть тренировочный ML-конвейер в среде разработки прямо из Jupyter Notebook. Это значительно ускоряет итерации экспериментов.
🔸 Автоматизированное тестирование и продвижение кода
Должен быть автоматизированный процесс тестирования и деплоя в следующую среду при создании Pull Request в определенные ветки. Например, PR из feature/*
в release/*
может запускать CI/CD, который протестирует и развернет ML-конвейер в pre-prod.
🔸 Интеграция с Git
Ноутбуки и другой код, связанный с CI/CD, должны быть частью Git-репозитория. Важно четко определить, где должен храниться тот или иной тип кода. Хорошая практика – использование шаблонов репозиториев с понятной документацией.
🔸 Система отслеживания экспериментов и моделей
Она должна быть доступна как для локальных, так и для удаленных ML-конвейеров.
🔸 Соответствие окружения ноутбуков и продакшн-среды
Ноутбуки должны запускаться в том же окружении, что и продакшн-код, чтобы избежать проблем с несовместимыми зависимостями. Это можно реализовать с помощью контейнеризации
👉 @DataSciencegx
Крутой репозиторий с обширным списком статей про LLM-агентов
https://github.com/WooooDyy/LLM-Agent-Paper-List
👉 @DataSciencegx | #ресурсы
Ускорьте Python в 50 раз за 4 простых шага
По умолчанию интерпретатор Python, CPython, работает медленно, в основном из-за своей динамичности.
После определения переменной с определённым типом её можно изменить на другой. Эти динамические манипуляции приводят к дополнительным затратам на выполнение и память.
Чтобы ускорить работу, используйте модуль Cython. Он превращает код Python в C, делая его быстрым и эффективным.
Вот как использовать модуль Cython:
1) Загрузите модуль Cython: %load_ext Cython
2) Добавьте магическую команду Cython
3) Указывайте типы данных параметров при использовании функций
4) Определяйте каждую переменную с помощью ключевого слова cdef и указывайте её тип данных
Вот и всё!
Теперь ваш код будет работать с ускорением до скорости нативного машинного кода, как показано на картинке.
👉 @DataSciencegx
bRAG: Серия уроков по RAG
Открытое руководство, которое проведет вас от основ RAG до продвинутых реализаций.
Уроки насыщены практическими примерами, которые помогут вам создавать готовые к продакшену системы RAG с применением новейших технологий, таких как CRAG и многовекторный поиск.
👉 https://github.com/bRAGAI/bRAG-langchain
👉 @DataSciencegx | #ресурсы
Отличный ресурс для изучения SQL — SQL Squid Game
Вы — новоиспечённый дата-сайентист в загадочной организации. Ваш босс, Фронтмен, требует от вас решения бизнес-задач с помощью SQL. Не справитесь — ☠️
Гайд по техникам RAG
В репозитории собраны материалы по различным способам реализации Retrieval Augmented Generation (RAG). Вот некоторые методы:
🔸Простой RAG с LangChain;
🔸RAG с валидацией данных;
🔸RAG с трансформацией запроса;
🔸Relevant Segment Extraction (RSE);
🔸Сжатие контекста из документов.
👉 Ссылка на репозиторий
👉 @DataSciencegx | #ресурсы
Советы от эксперта для тех, кто хочет развиваться в области DS и ML
На канале школы MLinside вышел подкаст с Алексеем Толстиковым, руководителем ШАД Яндекса.
Что внутри:
⏩ Какие навыки важны для работы в Data Science и Machine Learning
⏩ Почему одних технических знаний может не хватить для того, чтобы быть востребованным специалистом
⏩ Роль соревнований и междисциплинарности в развитии карьеры
⏩ Как поступить в ШАД и совмещать учёбу с работой
🔜 Ссылка: тык
👉 @DataSciencegx | #ресурсы
Генеративные vs. дискриминативные модели в ML
Генеративные модели:
🔸Изучают распределение данных, чтобы генерировать новые образцы.
🔸Обладают дискриминативными свойствами — их можно использовать для классификации.
Дискриминативные модели не обладают генеративными свойствами
👉 @DataSciencegx
Используйте эти репозитории на GitHub, чтобы прокачать свои навыки в Python и ML:
🔸 Homemade Machine Learning — Репозиторий содержит коллекцию алгоритмов машинного обучения, реализованных с нуля на Python, что помогает понять их внутреннюю работу.
🔸 Awesome Machine Learning — Подборка отличных фреймворков, библиотек и программного обеспечения для машинного обучения
🔸 Machine Learning Tutorial — Собрание обучающих материалов, статей и других ресурсов по машинному и глубокому обучению
🔸 Best Of ML With Python — Ранжированный список лучших библиотек Python для машинного обучения, обновляемый еженедельно
🔸 Machine Learning Interview — Репозиторий предоставляет ресурсы для подготовки к интервью по машинному обучению, включая примеры вопросов и советы
👉 @DataSciencegx | #ресурсы
Используйте box plot с осторожностью. Они могут вводить в заблуждение
В этом примере три разных набора данных дают похожие box plot. Поэтому всегда проверяйте распределение данных с помощью гистограмм, KDE и других методов.
👉 @DataSciencegx
⭐️ Шпаргалка из 40 методов NumPy, которые используются в 95% случаев
👉 @DataSciencegx
Только что наткнулся на отличный разбор трансформеров от Брэндона Роэра и не могу не поделиться
Если вам когда-либо было сложно разобраться, как работают эти модели (и при этом не утонуть в формулах), обязательно прочитайте эту статью.
Автор объясняет всё максимально интуитивно — никаких сложных выкладок, только суть. Визуализации и аналогии помогают действительно понять такие концепции, как механизм внимания.
Если вы работаете с LLM, готовитесь к собеседованию или просто хотите лучше понять, как устроены модели вроде ChatGPT, этот материал — один из лучших, что я встречал
👉 https://www.brandonrohrer.com/transformers
👉 @DataSciencegx | #ресурсы
Как превратить недвижимость в надежный источник пассивного дохода?
В условиях нестабильной экономической ситуации, когда фондовые рынки колеблются, а ставки по депозитам не радуют, недвижимость остается одним из самых стабильных и прибыльных способов вложений. Но как выбрать правильные объекты для инвестиций, чтобы получать высокий доход и минимизировать риски?
🔥 Наш канал Новый бетон | Новостройки Москвы о новостройках и инвестициях предоставляет информацию, которая поможет вам принимать взвешенные решения, увеличивать доходность и избежать распространенных ошибок на рынке недвижимости.
Вот что мы рассказываем в наших постах:
1️⃣ Как выбрать район для инвестиций в Москве: перспективы и риски — подробное руководство по анализу рынков новостроек. Читать пост
2️⃣ Секреты роста цен на недвижимость в столице в 2025 году — что стоит учитывать, чтобы успеть за трендами и не упустить прибыль. Читать пост
3️⃣ Как выбрать новостройку с максимальным потенциалом для аренды? — мы делимся проверенными методами анализа доходности объектов. Читать пост
4️⃣ Стратегия минимизации рисков при инвестировании в новостройки — как защитить свои деньги от кризиса и сделать правильный выбор. Читать пост
5️⃣ Идеальные новостройки для инвестиций в 2025 году: подборка проектов с гарантированной доходностью — актуальные объекты, которые стоит рассматривать прямо сейчас. Читать пост
Подписывайтесь на канал Новый бетон | Новостройки Москвы и получайте актуальные новости, советы по выбору объектов и стратегии для успешных инвестиций в недвижимость.
💬 Напишите в комментариях «ИНВЕСТИЦИЯ», и наши эксперты помогут вам с выбором лучших объектов и выстроят персональную стратегию для увеличения доходности вашего портфеля.
👉 Подписывайтесь на канал Новый бетон | Новостройки Москвы и будьте в курсе всех выгодных предложений!
#реклама
О рекламодателе
Традиционный vs. Графовый RAG: понятное объяснение
Представьте, что у вас есть длинный документ, например, биография человека (X), где каждая глава посвящена одному из его достижений.
Например:
↳ Глава 1: Описывает Достижение-1.
↳ Глава 2: Описывает Достижение-2.
...
↳ Глава 10: Описывает Достижение-10.
Теперь внимательно разберём следующий момент
Допустим, вы создали традиционный RAG (Retrieval-Augmented Generation) на основе этого документа и хотите суммировать все достижения X.
Сделать это с помощью традиционного поиска может быть сложно, так как для полноценного ответа нужен весь контекст...
...но при этом вы, скорее всего, извлекаете только топ-k наиболее релевантных фрагментов из векторной базы данных.
Кроме того, традиционные RAG-системы извлекают каждый фрагмент отдельно, и LLM вынужден самостоятельно восстанавливать связи между этими частями (если они вообще были найдены).
— Графовый RAG решает эту проблему
Основная идея заключается в том, чтобы сначала создать граф (сущности и их связи) из документов, а затем выполнять обход этого графа на этапе извлечения информации.
Как Graph RAG устраняет проблемы традиционного подхода:
1. Генерация графа
🔸LLM анализирует биографию и строит граф, выявляя сущности и связи между ними.
🔸В результате получается полноценный граф, а его подграф, связанный с достижениями X, будет выглядеть так:
↳ X → <достиг> → Достижение-1.
↳ X → <достиг> → Достижение-2.
...
↳ X → <достиг> → Достижение-N.
2. Поиск по графу
🔸На этапе извлечения информации система выполняет обход графа, собирая все релевантные данные о достижениях X.
🔸Полученный контекст передаётся LLM, что позволяет сформировать логичный, полный и связный ответ, в отличие от традиционного RAG.
— Почему Graph RAG так эффективен?
😫 Структурированные данные — LLM лучше работает с четко организованной информацией.
😫 Более полный контекст — система получает всю нужную информацию, а не только разрозненные куски.
😫 Глубокая связь между сущностями — связи между фактами сохраняются и используются при генерации ответа.
👉 @DataSciencegx
Сделайте свое RAG-приложение в 10 раз умнее
ColiVara — это уникальный метод извлечения документов, который не требует разбиения на фрагменты или текстовой обработки. Это все еще похоже на RAG, но без OCR, извлечения текста, сломанных таблиц или отсутствующих изображений.
То, что вы видите, — это то, что вы получаете.
Вот почему это прорыв:
🔸Индексация на основе визуальных данных
🔸 Поддержка более 100 форматов файлов
🔸 Передовое мультимодальное извлечение
🔸 API и SDK для Python/TypeScript
🔸 Нет необходимости в управлении векторной базой данных (pgVector используется "под капотом")
Но это еще не все:
🔸 Подробная документация
🔸 Быстрый запуск локально или в облаке
🔸 Встраивание с поздним взаимодействием для повышенной точности
И самое главное — это 100% open-source!
Ссылка на репозиторий GitHub
👉 @DataSciencegx | #ресурсы
Это — база по Machine Learning и Data Science, которая заменит вам сотни тг-каналов и сайтов. Фишка в том, что здесь опытные ML-специалисты первыми освещают новости сферы, пишут емкие разборы статей и делятся прикладными материалами.
И канал – только часть клада: ребята сделали целый сайт с научными лонгридами, ML-соревнованиями и свежими вакансиями индустрии.
Теперь вся жизнь ML-специалиста собрана в одном месте: Data Secrets
11 наиболее важных распределений, используемых в DS
Статистические модели предполагают существование некоторого процесса генерации данных.
Основываясь на предполагаемом процессе генерации данных, мы можем:
— Сформулировать шаг максимального правдоподобия (MLE);
— Определить оценки максимального правдоподобия.
В результате производительность модели полностью зависит от:
— Вашего понимания процесса генерации данных;
— Выбранного распределения для моделирования данных, что, в свою очередь, зависит от знания различных распределений.
Таким образом, крайне важно знать некоторые из наиболее значимых распределений и тип данных, который они могут моделировать.
Ниже приведены 11 наиболее важных распределений в Data Science:
C: Непрерывное (Continuous)
D: Дискретное (Discrete)
Почему DeepSeek Janus-7B — это нечто действительно невероятное
В статье рассматриваются ключевые особенности новой мультимодальной модели DeepSeek Janus-7B, которая, по заявлениям, превосходит популярные AI-инструменты, такие как DALL-E 3 и Stable Diffusion.
Подробно анализируются её уникальные технические решения и возможности.
🔜 Читать статью
👉 @DataSciencegx | #cтатья
«Комбинаторика для начинающих» — бесплатный курс на «Степике»
Курс предназначен для начинающих, которые хотят освоить основы комбинаторики с нуля, а также для тех, кто когда-то изучал этот раздел математики, но нуждается в обновлении и систематизации знаний.
Включает разделы:
🔸Правило сложения и умножения. Принцип Дирихле
🔸Основные комбинаторные величины и их свойства
🔸Сочетания с повторениями и без
🔸Комбинаторные тождества
🔸Полиномиальные коэффициенты
🔸Формула включений и исключений
🔸Выравнивания
👉 Ссылка на курс
👉 @DataSciencegx | #ресурсы
Gaze-LLE
Это модель позволяющая предсказывать куда направлен взгляд человека на видео.
Метод поддерживает многопользовательскую инференцию, обрабатывая пакеты изображений с указанием ограничивающих рамок на головы людей.
Включены функции визуализации тепловых карт и скрипты для оценки на наборах данных GazeFollow и VideoAttentionTarget, а модели можно легко интегрировать с PyTorch Hub.
👉 https://github.com/fkryan/gazelle
👉 @DataSciencegx | #ресурсы
Scientific Computing with Python — бесплатный интерактивный курс
Это своего рода учебник от Freecodecamp. Его цель — дать обучающимся навыки анализа и обработки данных с помощью Python. Учебник содержит следующие темы:
⏩работа со строками;
⏩List Comprehension;
⏩основы дизайна алгоритмов;
⏩структуры данных;
⏩классы и объекты.
⛓ Ссылка: тык
👉 @DataSciencegx | #курсы
Проектирование систем машинного обучения
Автор: Чип Хьюен
Год: 2023
⬇️ Скачать книгу
👉 @DataSciencegx | #книги