52807
по всем вопросам @haarrp @itchannels_telegram - 🔥 best it channels @ai_machinelearning_big_data -ML @ArtificialIntelligencedl -AI @datascienceiot - ml 📚 @pythonlbooks -📚books
🔥 С этим проектом, вы можете клонировать голоса, которые звучат по-настоящему живо.
Без робо-голоса. Без “синтетики”.
Полноценная, естественная человеческая речь.
Речь о модели на 1.7B параметров, заточенной под чистую и выразительную генерацию голоса.
Это уже не просто TTS.
Это высокоточное клонирование голоса с передачей интонаций, ритма и естественного звучания.
Разница между “голосом ИИ” и “голосом человека” стремительно исчезает.
Если ты работаешь с аудио, AI-ассистентами, агентами или медиа-инструментами - это серьёзно расширяет возможности.
Модель: https://huggingface.co/Qwen/Qwen3-TTS-12Hz-1.7B-CustomVoice
⚡️ Хотите собрать своего личного JARVIS, но Clawdbot кажется слишком сложным для развёртывания и понимания?
Попробуйте - nanobot: ультралёгкая версия Clawdbot (на 99% проще), которая поднимает персонального AI-ассистента меньше чем за минуту.
⚡️ Базовый функционал всего в ~4 000 строк Python - против 400k+ строк у Clawdbot.
Ключевые особенности nanobot:
🪶 Ультралёгкий — ~4 000 строк кода, только ядро без перегруза.
🔬 Удобен для исследований — чистый, понятный код, легко менять и расширять.
⚡️ Быстрый — минимальный размер = быстрый старт, меньше ресурсов, быстрые итерации.
💎 Простой в использовании — один запуск, и ассистент уже работает.
Что умеет nanobot:
📈 24/7 анализ рынка в реальном времени — мониторинг и инсайты.
🚀 Full-stack софт-инженер — помощь в разработке от идеи до продакшена.
📅 Умный менеджер рутины — помогает организовать день и задачи.
📚 Персональный ассистент по знаниям — хранение, поиск и работа с информацией.
Если хочется своего AI-агента без монструозной инфраструктуры — это именно тот старт, который нужен.
🔗 Open Source: https://github.com/HKUDS/nanobot
🔗Video: https://www.youtube.com/shorts/Wx2RBCnl5nU
#Clawdbot #AIAssistant #Agents
@pythonl
🚀 RenderCV: Open-Source AI для создания CV/резюме на лету
RenderCV - это GitHub-проект, который автоматизирует генерацию профессионального резюме с помощью AI. Он берет базовые данные (например, профиль, опыт, навыки) и формирует красиво отформатированный CV с умным распределением разделов, прицелом на ATS-системы (системы автоматического трекинга резюме) и внимание к деталям.
🔍 Основные фишки
- 💡 AI-генерация контента - на основе вводимых данных автоматически создаются описания опыта, навыков и достижений
- 📄 Готовые шаблоны — вывод резюме в структурированном виде, готовом для печати или публикации
- ⚙️ Настраиваемость — легко адаптировать под свой стиль, менять поля и формат
- 🤖 Поддержка AI-логики для переработки сухих фактов в интересные, читабельные формулировки
Простой рабочий цикл:
1) Вводишь базовые данные (имя, опыт, навыки)
2) AI дописывает грамотные описания
3) Получаешь готовое резюме без лишних усилий
💡 Это особенно полезно начинающим специалистам, карьерным переходам или тем, кто не любит вручную вырезать и править резюме перед каждой подачей.
🛠 Пример использования (в духе проектов этого класса):
# Клонируем репозиторий
git clone https://github.com/rendercv/rendercv.git
# Переходим в папку
cd rendercv
# Устанавливаем зависимости и запускаем
# (инструкции могут отличаться в зависимости от реализации)
npm install
npm start
🔍 PaddleOCR-VL-1.5 внезапно ворвался в топ open-source OCR - и при этом модель всего на 0.9B параметров.
Фактически это сейчас один из самых сильных открытых инструментов для распознавания текста и понимания документов - при очень скромном размере по меркам современных AI-моделей.
Ирония в тайминге:
• Сначала вышел Kimi 2.5
• Потом DeepSeekOCR-2
• И буквально следом - PaddleOCR-VL-1.5
Неделя просто взрывная для направления AI, которое занимается документами: сканы, PDF, таблицы, формы, смешанный текст и структура.
Что особенно интересно - это не просто классический OCR "картинка → текст", а визуально-языковая модель. То есть она лучше понимает структуру документа: блоки, таблицы, взаимосвязи между элементами, а не только символы.
Для разработчиков это означает более точный парсинг документов, автоматизацию работы с формами, счетами, договорами, отчетами и любыми полу-структурированными файлами - и все это на базе полностью открытой модели.
Порог входа в продвинутую document AI снова стал ниже.
huggingface.co/PaddlePaddle/PaddleOCR-VL-1.5
@pythonl
🖥 Большинство “парсеров” умирают через 2 дня.
Ты научишься делать те, которые живут в проде.
Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:
• не падают от мелких правок на сайте
• собирают данные в разы быстрее
• обновляют всё сами по расписанию
• обходят ограничения и баны
• выглядят как сервис, а не хаос из файлов
Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключиться.
В итоге ты сможешь:
• забирать данные для своих проектов
• автоматизировать чужую рутину
• делать инструменты для аналитики
• брать коммерческие заказы на сбор данных
Это навык, который напрямую превращается в деньги.
Не “знаю Python”, а умею добывать данные из интернета профессионально.
🎁 48 часов скидка 50% на Stepik: https://stepik.org/a/269942/
Как все представляют завтрак разработчика в 2026 году 🤩
На самом деле утро начинается с мысли: «Как кодить еще лучше?»
Если вы уже освоили базу по Python и ищете зону роста, пройдите бесплатный мини-курс в Академии Selectel.
В программе:
🔸 набор Python-инструментов и расширений, которые ускоряют кодинг;
🔸 гайд по работе с библиотекой Tkinter, чтобы создавать приложения с графическим интерфейсом;
🔸 инструкция по основам парсинга данных с веб-сайтов и многое другое.
Закрепить полученные знания вы сможете тут же — эксперты собрали базу задач с готовыми ответами.
Все материалы бесплатные. До роскошного IT-завтрака осталось пройти курс в удобное время: https://slc.tl/leedt?2W5zFGhkak8
🧠 Продвинутые советы по работе с Regex в Python
Всегда компилируй регулярные выражения. Это ускоряет работу при многократном использовании, делает код чище и упрощает тестирование.
import re
RE_EMAIL = re.compile(r"\b[A-Z0-9._%+-]+@[A-Z0-9.-]+\.[A-Z]{2,}\b", re.I)
emails = RE_EMAIL.findall(text)
RE_DATE = re.compile(r"""
\b
(?P<year>\d{4})-(?P<month>0[1-9]|1[0-2])-(?P<day>0[1-9]|[12]\d|3[01])
\b
""", re.VERBOSE)
re.findall(r"(?:https?://)?(?:www\.)?example\.com/\S+", text)
\A и \Z безопаснее для валидации, чем ^ и $, которые зависят от флага MULTILINE.
re.match(r"\A\d+\Z", "123\n")
re.search(r"<[^>]{0,2000}>", html)
m = re.search(r"(?<=token=)[^\s]+", s)
re.fullmatch(r"[a-z0-9_-]{3,32}", username)
RE_NUM = re.compile(r"\d+")
masked = RE_NUM.sub(lambda m: "*" * len(m.group(0)), s)
pip install regex
🐍 Самая крутая фича Python 3.14 - `sys.remote_exec()` (объясняю по-человечески)
Идея простая:
✅ у тебя уже запущено Python-приложение (например FastAPI в Docker/K8s)
✅ оно уже дошло до нужного состояния (в памяти есть переменные, сессии, кеши)
❌ но тебе нужно посмотреть “что внутри” или поставить дебаггер
Раньше ты делал так:
- добавлял debugpy в код
- перезапускал приложение
- заново воспроизводил баг
Python 3.14 даёт новый чит-код:sys.remote_exec() позволяет выполнить кусок Python-кода ВНУТРИ уже работающего Python-процесса.
То есть буквально “вколоть” скрипт в живой процесс.
Это как:
🔹 зайти внутрь процесса
🔹 выполнить print(), импорт, запись переменных
🔹 или даже подключить дебаггер
без рестарта вообще.
Пример: что можно сделать через sys.remote_exec()
Допустим у нас есть работающий процесс Python.
1) Мы хотим “добавить” туда код:
- вывести PID
- посмотреть глобальные переменные
- записать лог
- даже поменять значение переменной
# Этот код выполняется СНАРУЖИ и запускает инжект внутрь процесса
import sys
target_pid = 12345 # PID запущенного Python процесса
payload = r"""
import os
import time
print("✅ Injected into running process!")
print("PID:", os.getpid())
print("Time:", time.time())
# Пример: читаем что есть в глобальном пространстве
g = globals()
print("Globals keys sample:", list(g.keys())[:10])
# Пример: создаём переменную прямо в процессе
INJECTED_FLAG = True
"""
# Новое API Python 3.14
sys.remote_exec(target_pid, payload)
import sys
target_pid = 12345 # PID работающего uvicorn / fastapi процесса
payload = r"""
import debugpy
HOST = "0.0.0.0"
PORT = 5679
debugpy.listen((HOST, PORT))
print(f"🐞 debugpy is listening on {HOST}:{PORT}")
# если хочешь остановить выполнение и ждать пока подключишь IDE:
# debugpy.wait_for_client()
# print("✅ debugger attached!")
"""
sys.remote_exec(target_pid, payload)
SYS_PTRACE (можно читать/менять процессы) - поэтому только для локалки/стендов.
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
🖥 Ты бы поставил в прод пакет, который вышел 2 часа назад?
Обновлять зависимости важно - так ты получаешь новые фичи и фиксы багов.
Но у свежих релизов есть минус:
часто в первые дни всплывают ошибки, несовместимости и неожиданные регрессы, пока комьюнити не успеет всё отловить.
✅ В uv для этого есть опция exclude-newer
Она позволяет задать “период охлаждения” - и пропускать пакеты, которые были выпущены слишком недавно.
Как использовать:
добавь в pyproject.toml:exclude-newer = "7 days"
И при желании поменяй срок под себя (например, 3 дня, 14 дней и т.д.).
Идея простая:
обновляйся регулярно, но не на самых горячих релизах.
https://www.youtube.com/shorts/98q0IkNrBbU
@pythonl
📌 Библиотека алгоритмов робототехники на Python.
PythonRobotics - открытая коллекция кода на Python и учебник по алгоритмам робототехники, которую собрал Ацуши Сакаи.
🟡В проекте есть все:
🟢Локализация (EKF, фильтры частиц, гистограммные фильтры);
🟢SLAM (FastSLAM, ICP-сопоставление);
🟢Планирование пути (A, RRT, Дейкстра, D*, потенциальные поля, решетка состояний);
🟢Отслеживание траекторий (контроллер Стэнли, LQR, MPC);
🟢Навигация для манипуляторов;
🟢БПЛА;
🟢Проектирование движения для двуногих роботов.
К каждой теме есть визуальные анимации, математические объяснения и рабочий код.
Библиотека не перегружена, ее легко читать и понимать, она содержит практические алгоритмы. которые реально используются в индустрии.
Это отличный образовательный ресурс с 2 212 коммитами, вкладом 138 разработчиков и активной поддержкой.
Если вы изучаете робототехнику, создаете автономные системы или преподаете алгоритмы — этот ресурс для вас.
У проекта лицензия MIT, так что можно свободно использовать его в личных или коммерческих проектах.
А еще, это отличный пример, как выглядит хороший опен-сорс: образовательный, практичный, хорошо документированный и развиваемый сообществом.
@ai_machinelearning_big_data
#AI #ML #Robotics #Github
Сел я значит вечером подправить пет-проект и вот как-то закрутилось
@pythonl
🌍 Google выпустили TranslateGemma - открытые модели перевода на базе Gemma 3
Google представили TranslateGemma - набор open-source переводчиков, построенных на Gemma 3.
Что важно:
- это не “чат-LLM, который может переводить”, а отдельная линейка моделей именно под перевод
- доступны размеры 4B / 12B / 27B
- поддержка 55 языков
- фокус на практичности: можно запускать на разном железе и встраивать в приложения
Идея простая:
сделать качественный машинный перевод доступным и открытым, чтобы разработчики могли использовать модели локально, в продуктах и сервисах без привязки к закрытым API.
Ещё один шаг к тому, что перевод становится “базовой функцией” прямо внутри открытых моделей.
Анонс: https://blog.google/innovation-and-ai/technology/developers-tools/translategemma/
HF: https://huggingface.co/collections/google/translategemma
@pythonl
🧭 LLMRouter - умная маршрутизация запросов между LLM
UIUC (ULab) выложили LLMRouter - проект про то, что скоро станет стандартом в AI-продуктах:
не выбирать “одну лучшую модель”,
а маршрутизировать запросы между несколькими LLM так, чтобы было:
- дешевле
- быстрее
- точнее
Идея простая:
разные модели сильны в разном.
Одна лучше пишет код, другая - рассуждает, третья - дешёвая для рутины.
Но большинство продуктов до сих пор делают тупо:
“все запросы → одна LLM”.
LLMRouter делает наоборот:
- анализирует входной запрос
- оценивает сложность / тип задачи
- выбирает подходящую модель
- может учитывать цену, latency, качество, политики
В итоге:
✅ обычные вопросы идут в дешёвую модель
✅ сложные reasoning-задачи - в сильную
✅ код/инструменты - в специализированную
✅ и всё это автоматически
Почему это важно:
как только у тебя 3-5 моделей (OpenAI/Anthropic/Gemini/open-source),
маршрутизация превращается в экономию десятков тысяч долларов в месяц.
Короче: это “load balancer” для LLM, но с мозгами.
GitHub: https://github.com/ulab-uiuc/LLMRouter
#LLM #AI #Routing #Agents #MLOps
@pythonl
Команды Яндекса ищут продуктовых и data-аналитиков, а также data scientists с опытом на Python от 3 лет.
Участвуйте в Weekend Offer, чтобы всего за 2 дня пройти все собеседования и получить офер.
Как участвовать?
⚪ Зарегистрироваться на сайте до 25 февраля.
⚪ Пройти две технические секции 28 февраля.
⚪ Познакомиться с командами и получить офер 1 марта.
Мы опираемся на научные исследования и аналитические данные, а потом превращаем их в реальные продукты для миллионов пользователей. Присоединяйтесь, чтобы строить полезные сервисы вокруг ИИ-технологий, находить новые решения и делать то, что другим не по силам.
Подробности и регистрация — по ссылке: https://yandex.ru/project/events/wo-analytics-0226
🖥 PYTHON МАТЕМАТИКА КАК У ПРОФИ
Ппрофессиональный подход к математике в Python строится не вокруг «посчитать формулу», а вокруг правильного стека инструментов и воспроизводимости. Всегда разделяй символьную математику, численные методы и работу с данными.
Для аналитики и вывода формул используй SymPy, для быстрых численных расчётов - NumPy, для научных алгоритмов - SciPy, для больших таблиц экспериментов - Pandas.
Никогда не смешивай «магические числа» в коде - все параметры выноси в переменные. Работай в Jupyter или VS Code с ноутбуками, фиксируй версии библиотек и обязательно проверяй устойчивость решений через разные методы (например, интеграл численно и аналитически). Так код становится не просто расчётом, а научным инструментом.
import numpy as np
import sympy as sp
from scipy import integrate
# 1. Символьная математика
x = sp.symbols('x')
expr = sp.sin(x) / x
analytic_integral = sp.integrate(expr, (x, 1, 10))
# 2. Численная математика
f = lambda x: np.sin(x) / x
numeric_integral, error = integrate.quad(f, 1, 10)
# 3. Векторизация вместо циклов
arr = np.linspace(1, 10, 1_000_000)
fast_result = np.sin(arr) / arr
print("Analytic:", analytic_integral)
print("Numeric:", numeric_integral, "Error:", error)
🖥 Python ищет дубликаты файлов
Когда папка разрастается, дубликаты начинают тихо съедать место - особенно если ты сохраняешь одно и то же под разными именами.
Быстрый способ на Python - посчитать хеш каждого файла и собрать группы с одинаковым хешем. Так ты сразу увидишь, какие файлы реально одинаковые по содержимому, а не только по названию.
Читать полностью…
import os, hashlib
m = {}
for n in os.listdir("."):
if os.path.isfile(n):
with open(n, "rb") as f:
h = hashlib.md5(f.read()).hexdigest()
m.setdefault(h, []).append(n)
for v in m.values():
if len(v) > 1:
print("DUP:", v)
Знания кода недостаточно: как сохранить и поднять свою ценность в IT
О волне сокращений заговорили ещё в прошлом году: IBM, Microsoft, Amazon и другие гиганты стали постепенно заменять сотрудников нейросетями. Сейчас можем оценить первые результаты - по данным консалтинговой компании Challenger, Gray & Christmas, ИИ стал причиной почти 55 000 увольнений в США в 2025 году.
И это касается не только сотрудников поддержки: компании всё чаще делегируют нейросетям простой код. Сейчас до 30% внутренней разработки в Microsoft и Google лежит на ИИ, а та же Claude уже превосходит программистов в техсобесах.
Пока ИИ берёт на себя рутину, ценность человека смещается в сторону интерпретации, приоритизации и влияния на решения - того, что по-прежнему нельзя автоматизировать полностью.
А это значит, что сейчас самое время дополнять стек не новыми языками программирования, а умением связывать технологии с потребностями бизнеса.
Если хотите выделиться на рынке и не пасть жертвой ИИ-сокращений, усильте свои компетенции на курсе "Аналитик данных" от Академии Eduson.
Что внутри:
- 419 коротких уроков по всему необходимому: от Excel, SQL, BI до презентации результатов.
- Модуль по профильным нейросетям для аналитики.
- 10+ практических кейсов для портфолио.
- Онлайн-формат без дедлайнов и бессрочный доступ к обновлениям.
- Личный куратор на 365 дней.
- Лекции от экспертов-практиков из "Яндекса", Datalatte, Softline, "Работа.ру".
- Диплом о профпереподготовке и гарантия содействия трудоустройству: если не найдёте работу - вернут деньги, это прописано в договоре.
Курс также подойдёт самоучкам, которые хотят систематизировать знания основ Python и войти в IT с востребованной специализацией.
Оставить заявку можно здесь. По промокоду PYTHON получите скидку 55% и второй курс на выбор в подарок: сможете прокачать ещё больше навыков или порадовать кого-то из близких.
Реклама. ООО "Эдюсон", ИНН 7729779476, 2W5zFFvJXcc
✔ NVIDIA показала новый разговорный ИИ - PersonaPlex
Суть фичи в том, что модель старается звучать максимально “живым” собеседником, а не просто отвечать по очереди.
Что умеет PersonaPlex:
· Переключать стиль общения (persona) - например строгий учитель, дружелюбный консультант, бармен и т.д.
· Говорить и слушать одновременно - меньше задержек и пауз в диалоге
· Поддакивать на фоне (“угу”, “ок”, “понятно”), пока человек говорит - чтобы разговор был ближе к реальному
· Проект открыт - исходники доступны, можно брать и пробовать самому
▪GitHub
▪Hugging Face
🎨 Генерация изображений с GLM-Image
GLM-Image — это мощная модель генерации изображений, использующая гибридную архитектуру автогрессивного и диффузионного декодера. Она превосходно справляется с задачами текстового рендеринга и генерации сложной информации, обеспечивая высокое качество изображений и детальную проработку.
🚀 Основные моменты:
- Поддержка генерации изображений из текста и редактирования изображений.
- Высокая точность рендеринга текста и семантического понимания.
- Модуль обратной связи для улучшения эстетики и детализации.
- Подходит для задач с высокой информационной плотностью.
📌 GitHub: https://github.com/zai-org/GLM-Image
🐋 DeepSeek выпустили DeepSeek-OCR 2 - новое поколение OCR с SOTA качеством
DeepSeek представили DeepSeek-OCR 2 - 3B модель для продвинутого понимания изображений, документов и OCR, которая выходит на уровень SOTA.
Ключевая новинка - DeepEncoder V2.
В отличие от классических vision LLM, которые «читают» картинку как сетку (слева-направо, сверху-вниз), DeepEncoder V2 работает ближе к тому, как читает человек:
- Сначала формируется глобальное понимание изображения
- Затем модель определяет логический порядок чтения — что важно первым, что дальше
Что это даёт на практике
📄 Лучше работает со сложными макетами документов
📊 Корректно читает таблицы
🧾 Связывает подписи и значения
📰 Понимает колонки и структурированный текст
🔀 Надёжнее обрабатывает смесь текста и визуальной структуры
По качеству
- Обходит Gemini 3 Pro на ряде бенчмарков
- Даёт >4% прироста по сравнению с прошлой версией DeepSeek-OCR
И это при размере модели всего 3B параметров.
Можно запускать и дообучать
Теперь DeepSeek-OCR 2 можно удобно запускать и fine-tune через Unsloth по готовому гайду.
🔗 Guide: https://unsloth.ai/docs/models/deepseek-ocr-2
🔗 Model: https://huggingface.co/deepseek-ai/DeepSeek-OCR-2
@ai_machinelearning_big_data
#DeepSeek #ocr #opensource
🎙️ NVIDIA выпустила PersonaPlex-7B - open-source голосовая диалоговая модель, которая умеет то, что обычно недоступно классическим пайплайнам: **слушать и говорить одновременно**.
Модель:
- 🔓 бесплатная и полностью открытая (MIT)
- 🤗 веса доступны на Hugging Face
- 🧠 full-duplex conversational model (двусторонний “живой” диалог)
Обычно Voice AI устроен так:
ASR → LLM → TTS
Сначала распознаём речь, потом думаем, потом озвучиваем.
Работает эффективно, но диалог получается “роботным”:
говоришь по очереди, без перебиваний, без живой реакции.
PersonaPlex-7B меняет подход.
Она работает на непрерывных аудио-токенах и использует dual-stream transformer, который генерирует текст и аудио параллельно, а не переключает управление между модулями.
Это даёт:
- мгновенные “угу / да / понял” реакции (back-channel)
- естественные перебивания и уточнения
- нормальный ритм разговора, как у человека
Ещё один плюс: управление “персоной” работает zero-shot, без дополнительного дообучения.
Если ты делаешь голосового ассистента или саппорт-агента с низкой задержкой - это очень сильный шаг вперёд.
https://github.com/NVIDIA/personaplex
@pythonl
🤖 Автоматизация исследований с NotebookLM
Notebooklm-py — это неофициальная библиотека для работы с Google NotebookLM, позволяющая автоматизировать исследовательские процессы, генерировать контент и интегрировать AI-агентов. Подходит для прототипов и личных проектов, используя Python или командную строку.
🚀Основные моменты:
- Интеграция с AI-агентами и Claude Code
- Автоматизация исследований с импортом источников
- Генерация подкастов, видео и учебных материалов
- Поддержка работы через Python API и CLI
- Использование с неофициальными Google API
📌 GitHub: https://github.com/teng-lin/notebooklm-py
⚡️ Дарио Амодеи: софт скоро может стать «почти бесплатным»
CEO Anthropic Дарио Амодеи предупреждает: мы быстро идём к миру, где создание софта становится настолько дешёвым, что будет ощущаться почти бесплатным.
Из-за этого может исчезнуть старая логика рынка:
раньше приложения делали “в массовую дистрибуцию”, чтобы окупить разработку.
А дальше этот принцип может перестать работать.
Возможный сценарий будущего:
- приложения и функции будут генерироваться под конкретный запрос,
- даже для простых задач “на один раз”,
- без долгой разработки, команды и релизных циклов.
Но у этого есть обратная сторона:
карьеры, построенные на традиционной разработке, могут полностью исчезнуть.
По мнению Амодеи, адаптироваться можно, но проблема в том, что многие ещё не понимают масштаб изменения, которое уже началось.
@pythonl
🎨 Генерация изображений с GLM-Image
GLM-Image - это мощная модель генерации изображений, использующая гибридную архитектуру с автогрессивным и диффузионным декодерами. Она превосходно справляется с задачами текстового рендеринга и генерацией изображений с высоким уровнем детализации, поддерживая как текст-в-изображение, так и изображение-в-изображение.
🚀 Основные моменты:
- Гибридная архитектура для высококачественной генерации изображений.
- Поддержка текст-в-изображение и множество задач изображение-в-изображение.
- Модуль обратной связи для улучшения семантического понимания и детализации.
- Высокая точность рендеринга текста в изображениях.
- Доступность через Hugging Face и ModelScope.
📌 GitHub: https://github.com/zai-org/GLM-Image
@pythonl
🕐 FastScheduler: “Celery для запуска скриптов по расписанию, но без боли”
Иногда нужно просто:
- запустить функцию каждые 5 минут
- или каждый день в 09:00
- или по cron
…и всё.
Но Celery для этого — реально оверкилл: брокер, воркеры, Redis/RabbitMQ, отдельная инфраструктура.
FastScheduler решает ровно эту задачу:
✅ *in-process* планировщик задач (никаких Redis / брокеров)
✅ decorator-first API — красиво и быстро
✅ async поддержка из коробки
✅ персистентность (состояние сохраняется, переживает рестарты)
✅ опционально — FastAPI dashboard для просмотра задач
Пример того, как выглядит API:
@scheduler.every(5).minutes
def sync_users():
...
@scheduler.daily.at("09:00")
async def morning_report():
если тебе не нужна распределённость - не бери Celery, попробуй FastScheduler.
pip install fastscheduler[all]
🧠 Awesome Agentic Patterns - шпаргалка по агентам, которая реально полезна
Наткнулся на репозиторий awesome-agentic-patterns - и это один из самых практичных “awesome-листов” по теме AI-агентов.
📌 Что внутри:
не теоретические рассуждения, а паттерны - мини-архитектуры и рабочие приёмы, которые используют команды, когда делают production-агентов.
Автор прямо пишет идею проекта:
> тут не про “игрушки и демки”, а про штуки, которые закрывают грязную реальность продакшена.
Почти любой агент в проде упирается в одни и те же проблемы:
- контекст не помещается → нужно умно управлять памятью
- модель косячит → нужны retry/валидация/guardrails
- цепочки действий ломаются → нужна оркестрация
- непонятно, что пошло не так → нужны логи + eval
- безопасность / PII → нужен sandbox и фильтрация
И вот под это как раз собраны паттерны.
https://github.com/nibzard/awesome-agentic-patterns
@pythonl
🐸 Microsoft зарелизили FrogMini - модель для дебага и исправления багов.
Что важно:
- Базируется на Qwen3-14B
- Показала SOTA на SWE-Bench Verified: Pass@1 = 45.0% 🔥
Как обучали:
- Использовали SFT (supervised fine-tuning)
- Данные - успешные debugging trajectories (пошаговые цепочки исправлений)
- Эти траектории сгенерированы сильной teacher-моделью (например, **Claude**)
- Источники багов - микс реальных и синтетических датасетов
Идея простая, но мощная:
учим модель не просто писать код, а думать как дебаггер - шаг за шагом.
📌 Теперь Qwen3-14B + правильные траектории = реальный tool для SWE задач.
https://huggingface.co/microsoft/FrogMini-14B-2510
@pythonl
💼 ru-test-assignments - большая база реальных тестовых заданий от IT-компаний
ru-test-assignments - это открытая коллекция настоящих тестовых заданий, которые кандидаты получали на собеседованиях в российских IT-компаниях.
Без абстрактных задач «в вакууме» только то, что реально спрашивают.
Что внутри 👇
• Сотни заданий по направлениям:
Frontend, Backend, QA, Android, iOS, Data Science, DevOps
• Компании из топа рынка:
Avito, Яндекс, Тинькофф, Сбер, Ozon, VK и другие
• Разные языки и стеки:
Python, JavaScript, Go, Java, PHP, Ruby, C#
• Готовые задания можно прикреплять в портфолио (например, через Hexlet CV)
Почему это полезно:
- понимаешь реальные требования рынка
- тренируешься на задачах уровня интервью
- закрываешь пробелы в стеке
- усиливаешь портфолио без выдуманных кейсов
Отличный ресурс для подготовки к собеседованиям и оценки своего уровня.
https://github.com/Hexlet/ru-test-assignments