52807
по всем вопросам @haarrp @itchannels_telegram - 🔥 best it channels @ai_machinelearning_big_data -ML @ArtificialIntelligencedl -AI @datascienceiot - ml 📚 @pythonlbooks -📚books
🔥 Полезная подборка каналов только код, практика и самые передовые инструменты, которые используют разработчики прямо сейчас.👇
🖥 ИИ: t.me/ai_machinelearning_big_data
🖥 Python: t.me/python
🖥 Linux: t.me/linuxacademiya
🖥 C++ t.me/cpluspluc
🖥 Docker: t.me/DevopsDocker
🖥 Хакинг: t.me/linuxkalii
🖥 Devops: t.me/DevOPSitsec
👣 Golang: t.me/Golang_google
🖥 Аналитика: t.me/data_analysis_ml
🖥 Javascript: t.me/javascriptv
🖥 C#: t.me/csharp_ci
🖥 Java: t.me/javatg
🖥 Базы данных: t.me/sqlhub
👣 Rust: t.me/rust_code
🤖 Технологии: t.me/vistehno
💰 Экономика и инвестиции в ИИ t.me/financeStable
💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi
🖥 Chatgpt бот в тг: t.me/Chatgpturbobot
📚 Бесплатные ит-книги: /channel/addlist/HwywK4fErd8wYzQy
🖥Подборка по Golang: /channel/addlist/MUtJEeJSxeY2YTFi
⚡️ Лучшие ИИ ресурсы: /channel/addlist/2Ls-snqEeytkMDgy
Самое лучшее в этом: ты учишься даже тогда, когда “нет времени, просто потому что читаешь правильную ленту.
🕘 Таймер продуктивности на Python с использованием threading
Используйте библиотеку threading для создания простого таймера продуктивности, который поможет вам сосредоточиться на работе в течение заданного времени с последующим перерывом. Это поможет избежать выгорания и повысит продуктивность.
Читать полностью…
import threading
import time
def timer(duration, break_duration):
print(f"Начинаем работу на {duration} минут.")
time.sleep(duration * 60) # Длительность работы в секундах
print("Время на перерыв!")
time.sleep(break_duration * 60) # Длительность перерыва в секундах
print("Перерыв закончен, продолжайте работу!")
# Задайте длительность работы и перерыва
work_duration = 25 # в минутах
break_duration = 5 # в минутах
# Запускаем таймер
threading.Thread(target=timer, args=(work_duration, break_duration)).start()
🚀 Вышла интересная open-source модель - MiniCPM-o 4.5
MiniCPM-o 4.5 позиционируется как full-duplex omni-modal LLM.
Проще говоря, модель может:
- одновременно видеть (видео/изображение)
- слушать (аудио)
- говорить
и делать это в реальном времени, без режима "подожди, я сначала дослушаю". Больше похоже на живой диалог, чем на поочередные запросы.
Не только отвечает, но и проявляет инициативу
Заявлена поддержка проактивного поведения - модель может не просто реагировать на вопросы, а, например, сама инициировать напоминания или действия в рамках диалога.
По метрикам
С 9B параметрами модель показывает 77.6 на OpenCompass и, по авторам, обходит GPT-4o и Gemini 2.0 Pro в ряде vision-language задач. Для такого размера это сильный результат.
Практический момент
Главный плюс - это open-source, и всё можно крутить локально на ПК, а не только через облачные API.
https://huggingface.co/openbmb/MiniCPM-o-4_5
@pythonl
🔥 С этим проектом, вы можете клонировать голоса, которые звучат по-настоящему живо.
Без робо-голоса. Без “синтетики”.
Полноценная, естественная человеческая речь.
Речь о модели на 1.7B параметров, заточенной под чистую и выразительную генерацию голоса.
Это уже не просто TTS.
Это высокоточное клонирование голоса с передачей интонаций, ритма и естественного звучания.
Разница между “голосом ИИ” и “голосом человека” стремительно исчезает.
Если ты работаешь с аудио, AI-ассистентами, агентами или медиа-инструментами - это серьёзно расширяет возможности.
Модель: https://huggingface.co/Qwen/Qwen3-TTS-12Hz-1.7B-CustomVoice
⚡️ Хотите собрать своего личного JARVIS, но Clawdbot кажется слишком сложным для развёртывания и понимания?
Попробуйте - nanobot: ультралёгкая версия Clawdbot (на 99% проще), которая поднимает персонального AI-ассистента меньше чем за минуту.
⚡️ Базовый функционал всего в ~4 000 строк Python - против 400k+ строк у Clawdbot.
Ключевые особенности nanobot:
🪶 Ультралёгкий — ~4 000 строк кода, только ядро без перегруза.
🔬 Удобен для исследований — чистый, понятный код, легко менять и расширять.
⚡️ Быстрый — минимальный размер = быстрый старт, меньше ресурсов, быстрые итерации.
💎 Простой в использовании — один запуск, и ассистент уже работает.
Что умеет nanobot:
📈 24/7 анализ рынка в реальном времени — мониторинг и инсайты.
🚀 Full-stack софт-инженер — помощь в разработке от идеи до продакшена.
📅 Умный менеджер рутины — помогает организовать день и задачи.
📚 Персональный ассистент по знаниям — хранение, поиск и работа с информацией.
Если хочется своего AI-агента без монструозной инфраструктуры — это именно тот старт, который нужен.
🔗 Open Source: https://github.com/HKUDS/nanobot
🔗Video: https://www.youtube.com/shorts/Wx2RBCnl5nU
#Clawdbot #AIAssistant #Agents
@pythonl
🚀 RenderCV: Open-Source AI для создания CV/резюме на лету
RenderCV - это GitHub-проект, который автоматизирует генерацию профессионального резюме с помощью AI. Он берет базовые данные (например, профиль, опыт, навыки) и формирует красиво отформатированный CV с умным распределением разделов, прицелом на ATS-системы (системы автоматического трекинга резюме) и внимание к деталям.
🔍 Основные фишки
- 💡 AI-генерация контента - на основе вводимых данных автоматически создаются описания опыта, навыков и достижений
- 📄 Готовые шаблоны — вывод резюме в структурированном виде, готовом для печати или публикации
- ⚙️ Настраиваемость — легко адаптировать под свой стиль, менять поля и формат
- 🤖 Поддержка AI-логики для переработки сухих фактов в интересные, читабельные формулировки
Простой рабочий цикл:
1) Вводишь базовые данные (имя, опыт, навыки)
2) AI дописывает грамотные описания
3) Получаешь готовое резюме без лишних усилий
💡 Это особенно полезно начинающим специалистам, карьерным переходам или тем, кто не любит вручную вырезать и править резюме перед каждой подачей.
🛠 Пример использования (в духе проектов этого класса):
# Клонируем репозиторий
git clone https://github.com/rendercv/rendercv.git
# Переходим в папку
cd rendercv
# Устанавливаем зависимости и запускаем
# (инструкции могут отличаться в зависимости от реализации)
npm install
npm start
🔍 PaddleOCR-VL-1.5 внезапно ворвался в топ open-source OCR - и при этом модель всего на 0.9B параметров.
Фактически это сейчас один из самых сильных открытых инструментов для распознавания текста и понимания документов - при очень скромном размере по меркам современных AI-моделей.
Ирония в тайминге:
• Сначала вышел Kimi 2.5
• Потом DeepSeekOCR-2
• И буквально следом - PaddleOCR-VL-1.5
Неделя просто взрывная для направления AI, которое занимается документами: сканы, PDF, таблицы, формы, смешанный текст и структура.
Что особенно интересно - это не просто классический OCR "картинка → текст", а визуально-языковая модель. То есть она лучше понимает структуру документа: блоки, таблицы, взаимосвязи между элементами, а не только символы.
Для разработчиков это означает более точный парсинг документов, автоматизацию работы с формами, счетами, договорами, отчетами и любыми полу-структурированными файлами - и все это на базе полностью открытой модели.
Порог входа в продвинутую document AI снова стал ниже.
huggingface.co/PaddlePaddle/PaddleOCR-VL-1.5
@pythonl
🖥 Большинство “парсеров” умирают через 2 дня.
Ты научишься делать те, которые живут в проде.
Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:
• не падают от мелких правок на сайте
• собирают данные в разы быстрее
• обновляют всё сами по расписанию
• обходят ограничения и баны
• выглядят как сервис, а не хаос из файлов
Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключиться.
В итоге ты сможешь:
• забирать данные для своих проектов
• автоматизировать чужую рутину
• делать инструменты для аналитики
• брать коммерческие заказы на сбор данных
Это навык, который напрямую превращается в деньги.
Не “знаю Python”, а умею добывать данные из интернета профессионально.
🎁 48 часов скидка 50% на Stepik: https://stepik.org/a/269942/
Как все представляют завтрак разработчика в 2026 году 🤩
На самом деле утро начинается с мысли: «Как кодить еще лучше?»
Если вы уже освоили базу по Python и ищете зону роста, пройдите бесплатный мини-курс в Академии Selectel.
В программе:
🔸 набор Python-инструментов и расширений, которые ускоряют кодинг;
🔸 гайд по работе с библиотекой Tkinter, чтобы создавать приложения с графическим интерфейсом;
🔸 инструкция по основам парсинга данных с веб-сайтов и многое другое.
Закрепить полученные знания вы сможете тут же — эксперты собрали базу задач с готовыми ответами.
Все материалы бесплатные. До роскошного IT-завтрака осталось пройти курс в удобное время: https://slc.tl/leedt?2W5zFGhkak8
🧠 Продвинутые советы по работе с Regex в Python
Всегда компилируй регулярные выражения. Это ускоряет работу при многократном использовании, делает код чище и упрощает тестирование.
import re
RE_EMAIL = re.compile(r"\b[A-Z0-9._%+-]+@[A-Z0-9.-]+\.[A-Z]{2,}\b", re.I)
emails = RE_EMAIL.findall(text)
RE_DATE = re.compile(r"""
\b
(?P<year>\d{4})-(?P<month>0[1-9]|1[0-2])-(?P<day>0[1-9]|[12]\d|3[01])
\b
""", re.VERBOSE)
re.findall(r"(?:https?://)?(?:www\.)?example\.com/\S+", text)
\A и \Z безопаснее для валидации, чем ^ и $, которые зависят от флага MULTILINE.
re.match(r"\A\d+\Z", "123\n")
re.search(r"<[^>]{0,2000}>", html)
m = re.search(r"(?<=token=)[^\s]+", s)
re.fullmatch(r"[a-z0-9_-]{3,32}", username)
RE_NUM = re.compile(r"\d+")
masked = RE_NUM.sub(lambda m: "*" * len(m.group(0)), s)
pip install regex
🐍 Самая крутая фича Python 3.14 - `sys.remote_exec()` (объясняю по-человечески)
Идея простая:
✅ у тебя уже запущено Python-приложение (например FastAPI в Docker/K8s)
✅ оно уже дошло до нужного состояния (в памяти есть переменные, сессии, кеши)
❌ но тебе нужно посмотреть “что внутри” или поставить дебаггер
Раньше ты делал так:
- добавлял debugpy в код
- перезапускал приложение
- заново воспроизводил баг
Python 3.14 даёт новый чит-код:sys.remote_exec() позволяет выполнить кусок Python-кода ВНУТРИ уже работающего Python-процесса.
То есть буквально “вколоть” скрипт в живой процесс.
Это как:
🔹 зайти внутрь процесса
🔹 выполнить print(), импорт, запись переменных
🔹 или даже подключить дебаггер
без рестарта вообще.
Пример: что можно сделать через sys.remote_exec()
Допустим у нас есть работающий процесс Python.
1) Мы хотим “добавить” туда код:
- вывести PID
- посмотреть глобальные переменные
- записать лог
- даже поменять значение переменной
# Этот код выполняется СНАРУЖИ и запускает инжект внутрь процесса
import sys
target_pid = 12345 # PID запущенного Python процесса
payload = r"""
import os
import time
print("✅ Injected into running process!")
print("PID:", os.getpid())
print("Time:", time.time())
# Пример: читаем что есть в глобальном пространстве
g = globals()
print("Globals keys sample:", list(g.keys())[:10])
# Пример: создаём переменную прямо в процессе
INJECTED_FLAG = True
"""
# Новое API Python 3.14
sys.remote_exec(target_pid, payload)
import sys
target_pid = 12345 # PID работающего uvicorn / fastapi процесса
payload = r"""
import debugpy
HOST = "0.0.0.0"
PORT = 5679
debugpy.listen((HOST, PORT))
print(f"🐞 debugpy is listening on {HOST}:{PORT}")
# если хочешь остановить выполнение и ждать пока подключишь IDE:
# debugpy.wait_for_client()
# print("✅ debugger attached!")
"""
sys.remote_exec(target_pid, payload)
SYS_PTRACE (можно читать/менять процессы) - поэтому только для локалки/стендов.
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
🖥 Ты бы поставил в прод пакет, который вышел 2 часа назад?
Обновлять зависимости важно - так ты получаешь новые фичи и фиксы багов.
Но у свежих релизов есть минус:
часто в первые дни всплывают ошибки, несовместимости и неожиданные регрессы, пока комьюнити не успеет всё отловить.
✅ В uv для этого есть опция exclude-newer
Она позволяет задать “период охлаждения” - и пропускать пакеты, которые были выпущены слишком недавно.
Как использовать:
добавь в pyproject.toml:exclude-newer = "7 days"
И при желании поменяй срок под себя (например, 3 дня, 14 дней и т.д.).
Идея простая:
обновляйся регулярно, но не на самых горячих релизах.
https://www.youtube.com/shorts/98q0IkNrBbU
@pythonl
📌 Библиотека алгоритмов робототехники на Python.
PythonRobotics - открытая коллекция кода на Python и учебник по алгоритмам робототехники, которую собрал Ацуши Сакаи.
🟡В проекте есть все:
🟢Локализация (EKF, фильтры частиц, гистограммные фильтры);
🟢SLAM (FastSLAM, ICP-сопоставление);
🟢Планирование пути (A, RRT, Дейкстра, D*, потенциальные поля, решетка состояний);
🟢Отслеживание траекторий (контроллер Стэнли, LQR, MPC);
🟢Навигация для манипуляторов;
🟢БПЛА;
🟢Проектирование движения для двуногих роботов.
К каждой теме есть визуальные анимации, математические объяснения и рабочий код.
Библиотека не перегружена, ее легко читать и понимать, она содержит практические алгоритмы. которые реально используются в индустрии.
Это отличный образовательный ресурс с 2 212 коммитами, вкладом 138 разработчиков и активной поддержкой.
Если вы изучаете робототехнику, создаете автономные системы или преподаете алгоритмы — этот ресурс для вас.
У проекта лицензия MIT, так что можно свободно использовать его в личных или коммерческих проектах.
А еще, это отличный пример, как выглядит хороший опен-сорс: образовательный, практичный, хорошо документированный и развиваемый сообществом.
@ai_machinelearning_big_data
#AI #ML #Robotics #Github
⚡️ Экосистема AI-агентов превратилась в настоящий джунгли.
Чем больше появляется фреймворков, тем сложнее их настраивать, дебажить и просто понимать, что происходит внутри. Поэтому особенно ценны инструменты, которые возвращают всё к простоте.
KISS Multi-Agent Evolutionary Framework 0 небольшой Python-фреймворк, который следует принципу: *Keep It Simple, Stupid*.
Что в нём интересного:
- Почти никакой магии - обычный Python и один run()
- Обычная функция с type hints автоматически становится tool через нативный function calling модели
- Без декораторов, лишних аннотаций и glue-кода
- Код читается и отлаживается как обычный Python
Агент работает по циклу ReAct:
думает → вызывает инструмент → анализирует результат → повторяет, пока не достигнет цели.
Нужно несколько агентов?
Всё просто: вызываете их последовательно в Python.
researcher → writer → editor
Можно использовать разные модели и строить пайплайны без сложной оркестрации.
Фреймворк также сохраняет trajectory-лог:
- шаги агента
- использование токенов
- время выполнения
- стоимость
Это позволяет быстро понять, где агент ошибся или начал тратить слишком много.
Но самая сильная часть — автоэволюция.
AgentEvolver
- создаёт множество вариантов агента
- применяет мутации и кроссовер
- выбирает лучшие по качеству, скорости и стоимости
GEPA (Genetic-Pareto)
- агент сам анализирует свои ответы и переписывает промпты
- используется Pareto-фронт
- сохраняется несколько оптимальных стратегий, а не одна
В итоге получается не просто агент, а самооптимизирующаяся система, которая ищет баланс между качеством и затратами.
Если устали от тяжёлых агент-фреймворков и хотите минимализм, прозрачность и контроль - KISS может стать отличной базой для ваших LLM-агентов.
https://github.com/ksenxx/kiss_ai
@pythonl
🖥 Вы неправильно считываете JSON в Python.
Большинство делает так - и теряет скорость, память и контроль над данными.
Ошибка №1 - читать огромный JSON целиком json.load() загружает ВСЁ в память. На больших файлах ты сам создаёшь себе OOM.
Ошибка №2 - не валидировать структуру
Ты думаешь, что поле есть. Прод думает иначе.
Ошибка №3 - парсить стандартным json там, где нужна скорость
Стандартный модуль медленный для high-load задач.
Как правильно:
- Большие файлы → читать потоково (ijson / построчно)
- Критичная скорость → использовать orjson
- Важные данные → сразу проверять ключи и типы
- API → оборачивать в try/except, а не надеяться
Продакшн-код работает не потому что “JSON простой”,
а потому что ты контролируешь объём, структуру и ошибки.
🌟 Для тех, кто еще не использует ИИ в разработке.
Выдели 1 час и прокачай самый важный навык 2026 года - работу с LLM.
Большинство устали сейчас не от кода.
А от того, что мы пытаемся использовать ИИ “на ходу”, без понимания его возможности.
Это такой же навык, как и другие. Его нужно тренировать.
Вот простой старт:
Подготовка
1. Подключи Anthropic Pro ($20) с прицелом позже перейти на 5× Max
2. Установи Claude Code
3. Используй модель Opus 4.5 (она стоит по умолчанию)
Рабочий цикл
1. Включи режим планирования
2. Попроси модель спланировать одну маленькую фичу
3. Когда план тебя устраивает - включай авто-принятие правок
4. Если видишь, что модель “уезжает не туда” - сразу ставь на паузу
5. Очищай контекст и переходи к следующей фиче
И так по кругу.
Задача не в том, чтобы получить идеальный код.
Задача - нащупать границы модели:
- что она делает быстро и качественно
- где начинает придумывать
- какие задачи ей давать выгодно
- где проще и безопаснее сделать самому
Через 10-20 часов такой осознанной практики ИИ перестаёт быть “магией” и становится нормальным рабочим инструментом, который реально снимает нагрузку.
@pythonl
Команды Яндекса ищут продуктовых и data-аналитиков, а также data scientists с опытом на Python от 3 лет.
Участвуйте в Weekend Offer, чтобы всего за 2 дня пройти все собеседования и получить офер.
Как участвовать?
⚪ Зарегистрироваться на сайте до 25 февраля.
⚪ Пройти две технические секции 28 февраля.
⚪ Познакомиться с командами и получить офер 1 марта.
Мы опираемся на научные исследования и аналитические данные, а потом превращаем их в реальные продукты для миллионов пользователей. Присоединяйтесь, чтобы строить полезные сервисы вокруг ИИ-технологий, находить новые решения и делать то, что другим не по силам.
Подробности и регистрация — по ссылке: https://yandex.ru/project/events/wo-analytics-0226
🖥 PYTHON МАТЕМАТИКА КАК У ПРОФИ
Ппрофессиональный подход к математике в Python строится не вокруг «посчитать формулу», а вокруг правильного стека инструментов и воспроизводимости. Всегда разделяй символьную математику, численные методы и работу с данными.
Для аналитики и вывода формул используй SymPy, для быстрых численных расчётов - NumPy, для научных алгоритмов - SciPy, для больших таблиц экспериментов - Pandas.
Никогда не смешивай «магические числа» в коде - все параметры выноси в переменные. Работай в Jupyter или VS Code с ноутбуками, фиксируй версии библиотек и обязательно проверяй устойчивость решений через разные методы (например, интеграл численно и аналитически). Так код становится не просто расчётом, а научным инструментом.
import numpy as np
import sympy as sp
from scipy import integrate
# 1. Символьная математика
x = sp.symbols('x')
expr = sp.sin(x) / x
analytic_integral = sp.integrate(expr, (x, 1, 10))
# 2. Численная математика
f = lambda x: np.sin(x) / x
numeric_integral, error = integrate.quad(f, 1, 10)
# 3. Векторизация вместо циклов
arr = np.linspace(1, 10, 1_000_000)
fast_result = np.sin(arr) / arr
print("Analytic:", analytic_integral)
print("Numeric:", numeric_integral, "Error:", error)
🖥 Python ищет дубликаты файлов
Когда папка разрастается, дубликаты начинают тихо съедать место - особенно если ты сохраняешь одно и то же под разными именами.
Быстрый способ на Python - посчитать хеш каждого файла и собрать группы с одинаковым хешем. Так ты сразу увидишь, какие файлы реально одинаковые по содержимому, а не только по названию.
Читать полностью…
import os, hashlib
m = {}
for n in os.listdir("."):
if os.path.isfile(n):
with open(n, "rb") as f:
h = hashlib.md5(f.read()).hexdigest()
m.setdefault(h, []).append(n)
for v in m.values():
if len(v) > 1:
print("DUP:", v)
Знания кода недостаточно: как сохранить и поднять свою ценность в IT
О волне сокращений заговорили ещё в прошлом году: IBM, Microsoft, Amazon и другие гиганты стали постепенно заменять сотрудников нейросетями. Сейчас можем оценить первые результаты - по данным консалтинговой компании Challenger, Gray & Christmas, ИИ стал причиной почти 55 000 увольнений в США в 2025 году.
И это касается не только сотрудников поддержки: компании всё чаще делегируют нейросетям простой код. Сейчас до 30% внутренней разработки в Microsoft и Google лежит на ИИ, а та же Claude уже превосходит программистов в техсобесах.
Пока ИИ берёт на себя рутину, ценность человека смещается в сторону интерпретации, приоритизации и влияния на решения - того, что по-прежнему нельзя автоматизировать полностью.
А это значит, что сейчас самое время дополнять стек не новыми языками программирования, а умением связывать технологии с потребностями бизнеса.
Если хотите выделиться на рынке и не пасть жертвой ИИ-сокращений, усильте свои компетенции на курсе "Аналитик данных" от Академии Eduson.
Что внутри:
- 419 коротких уроков по всему необходимому: от Excel, SQL, BI до презентации результатов.
- Модуль по профильным нейросетям для аналитики.
- 10+ практических кейсов для портфолио.
- Онлайн-формат без дедлайнов и бессрочный доступ к обновлениям.
- Личный куратор на 365 дней.
- Лекции от экспертов-практиков из "Яндекса", Datalatte, Softline, "Работа.ру".
- Диплом о профпереподготовке и гарантия содействия трудоустройству: если не найдёте работу - вернут деньги, это прописано в договоре.
Курс также подойдёт самоучкам, которые хотят систематизировать знания основ Python и войти в IT с востребованной специализацией.
Оставить заявку можно здесь. По промокоду PYTHON получите скидку 55% и второй курс на выбор в подарок: сможете прокачать ещё больше навыков или порадовать кого-то из близких.
Реклама. ООО "Эдюсон", ИНН 7729779476, 2W5zFFvJXcc
✔ NVIDIA показала новый разговорный ИИ - PersonaPlex
Суть фичи в том, что модель старается звучать максимально “живым” собеседником, а не просто отвечать по очереди.
Что умеет PersonaPlex:
· Переключать стиль общения (persona) - например строгий учитель, дружелюбный консультант, бармен и т.д.
· Говорить и слушать одновременно - меньше задержек и пауз в диалоге
· Поддакивать на фоне (“угу”, “ок”, “понятно”), пока человек говорит - чтобы разговор был ближе к реальному
· Проект открыт - исходники доступны, можно брать и пробовать самому
▪GitHub
▪Hugging Face
🎨 Генерация изображений с GLM-Image
GLM-Image — это мощная модель генерации изображений, использующая гибридную архитектуру автогрессивного и диффузионного декодера. Она превосходно справляется с задачами текстового рендеринга и генерации сложной информации, обеспечивая высокое качество изображений и детальную проработку.
🚀 Основные моменты:
- Поддержка генерации изображений из текста и редактирования изображений.
- Высокая точность рендеринга текста и семантического понимания.
- Модуль обратной связи для улучшения эстетики и детализации.
- Подходит для задач с высокой информационной плотностью.
📌 GitHub: https://github.com/zai-org/GLM-Image
🐋 DeepSeek выпустили DeepSeek-OCR 2 - новое поколение OCR с SOTA качеством
DeepSeek представили DeepSeek-OCR 2 - 3B модель для продвинутого понимания изображений, документов и OCR, которая выходит на уровень SOTA.
Ключевая новинка - DeepEncoder V2.
В отличие от классических vision LLM, которые «читают» картинку как сетку (слева-направо, сверху-вниз), DeepEncoder V2 работает ближе к тому, как читает человек:
- Сначала формируется глобальное понимание изображения
- Затем модель определяет логический порядок чтения — что важно первым, что дальше
Что это даёт на практике
📄 Лучше работает со сложными макетами документов
📊 Корректно читает таблицы
🧾 Связывает подписи и значения
📰 Понимает колонки и структурированный текст
🔀 Надёжнее обрабатывает смесь текста и визуальной структуры
По качеству
- Обходит Gemini 3 Pro на ряде бенчмарков
- Даёт >4% прироста по сравнению с прошлой версией DeepSeek-OCR
И это при размере модели всего 3B параметров.
Можно запускать и дообучать
Теперь DeepSeek-OCR 2 можно удобно запускать и fine-tune через Unsloth по готовому гайду.
🔗 Guide: https://unsloth.ai/docs/models/deepseek-ocr-2
🔗 Model: https://huggingface.co/deepseek-ai/DeepSeek-OCR-2
@ai_machinelearning_big_data
#DeepSeek #ocr #opensource
🎙️ NVIDIA выпустила PersonaPlex-7B - open-source голосовая диалоговая модель, которая умеет то, что обычно недоступно классическим пайплайнам: **слушать и говорить одновременно**.
Модель:
- 🔓 бесплатная и полностью открытая (MIT)
- 🤗 веса доступны на Hugging Face
- 🧠 full-duplex conversational model (двусторонний “живой” диалог)
Обычно Voice AI устроен так:
ASR → LLM → TTS
Сначала распознаём речь, потом думаем, потом озвучиваем.
Работает эффективно, но диалог получается “роботным”:
говоришь по очереди, без перебиваний, без живой реакции.
PersonaPlex-7B меняет подход.
Она работает на непрерывных аудио-токенах и использует dual-stream transformer, который генерирует текст и аудио параллельно, а не переключает управление между модулями.
Это даёт:
- мгновенные “угу / да / понял” реакции (back-channel)
- естественные перебивания и уточнения
- нормальный ритм разговора, как у человека
Ещё один плюс: управление “персоной” работает zero-shot, без дополнительного дообучения.
Если ты делаешь голосового ассистента или саппорт-агента с низкой задержкой - это очень сильный шаг вперёд.
https://github.com/NVIDIA/personaplex
@pythonl
🤖 Автоматизация исследований с NotebookLM
Notebooklm-py — это неофициальная библиотека для работы с Google NotebookLM, позволяющая автоматизировать исследовательские процессы, генерировать контент и интегрировать AI-агентов. Подходит для прототипов и личных проектов, используя Python или командную строку.
🚀Основные моменты:
- Интеграция с AI-агентами и Claude Code
- Автоматизация исследований с импортом источников
- Генерация подкастов, видео и учебных материалов
- Поддержка работы через Python API и CLI
- Использование с неофициальными Google API
📌 GitHub: https://github.com/teng-lin/notebooklm-py
⚡️ Дарио Амодеи: софт скоро может стать «почти бесплатным»
CEO Anthropic Дарио Амодеи предупреждает: мы быстро идём к миру, где создание софта становится настолько дешёвым, что будет ощущаться почти бесплатным.
Из-за этого может исчезнуть старая логика рынка:
раньше приложения делали “в массовую дистрибуцию”, чтобы окупить разработку.
А дальше этот принцип может перестать работать.
Возможный сценарий будущего:
- приложения и функции будут генерироваться под конкретный запрос,
- даже для простых задач “на один раз”,
- без долгой разработки, команды и релизных циклов.
Но у этого есть обратная сторона:
карьеры, построенные на традиционной разработке, могут полностью исчезнуть.
По мнению Амодеи, адаптироваться можно, но проблема в том, что многие ещё не понимают масштаб изменения, которое уже началось.
@pythonl
🎨 Генерация изображений с GLM-Image
GLM-Image - это мощная модель генерации изображений, использующая гибридную архитектуру с автогрессивным и диффузионным декодерами. Она превосходно справляется с задачами текстового рендеринга и генерацией изображений с высоким уровнем детализации, поддерживая как текст-в-изображение, так и изображение-в-изображение.
🚀 Основные моменты:
- Гибридная архитектура для высококачественной генерации изображений.
- Поддержка текст-в-изображение и множество задач изображение-в-изображение.
- Модуль обратной связи для улучшения семантического понимания и детализации.
- Высокая точность рендеринга текста в изображениях.
- Доступность через Hugging Face и ModelScope.
📌 GitHub: https://github.com/zai-org/GLM-Image
@pythonl
🕐 FastScheduler: “Celery для запуска скриптов по расписанию, но без боли”
Иногда нужно просто:
- запустить функцию каждые 5 минут
- или каждый день в 09:00
- или по cron
…и всё.
Но Celery для этого — реально оверкилл: брокер, воркеры, Redis/RabbitMQ, отдельная инфраструктура.
FastScheduler решает ровно эту задачу:
✅ *in-process* планировщик задач (никаких Redis / брокеров)
✅ decorator-first API — красиво и быстро
✅ async поддержка из коробки
✅ персистентность (состояние сохраняется, переживает рестарты)
✅ опционально — FastAPI dashboard для просмотра задач
Пример того, как выглядит API:
@scheduler.every(5).minutes
def sync_users():
...
@scheduler.daily.at("09:00")
async def morning_report():
если тебе не нужна распределённость - не бери Celery, попробуй FastScheduler.
pip install fastscheduler[all]