Интересное про технологии и не только Для связи: @slokyton
Smart Platform - наша on-premise RAG платформа
Врываюсь с двух ног почти готовым релизом нашего внутреннего продукта (а за плечами 7 месяцев исследований реальных интеграций и разработки)!
Нет ничего приятнее рабочих якорей (ссылок на источники, которые подсвечивают информацию в нужной вам интеграции, использовавшуюся при ответе LLM), которые показаны на нативной интеграции с Confluence в закрытом контуре
И еще больше кайфую, что это уже работает не только в теории, но и на наших внутренних тестах на демо стенде!
Такой RAG может работать и на моделях до 10b (LLM), а значит, сервер для корпоративного RAG начинает стоить адекватных денег
Целая цепочка router-агентов и долгий путь изучения лучших подходов и фреймворков для Q&A и диалоговых RAG-систем для закрытого контура
За всеми апдейтами по продукту предлагаю следить тут в канале нашего CPO Леши Жданова
Материалы по Cursor
🔥 Рекомендуемые ресурсы:
• My LLM codegen workflow
• Как заставить ИИ работать в устаревших кодовых базах
• Видео-гайд по Cursor
📚 Дополнительные материалы:
• Awesome Cursor Rules
• A Structured Workflow for "Vibe Coding" Full-Stack Apps
• Гайд по вайб-кодингу от Anthropic
💡 Мнения:
• Почему я перестал использовать редакторы кода на основе ИИ
• Как заставить AI писать качественный код?
• Вся правда про Cursor
🔗 Официальные ресурсы:
• Документация
• Форум
Почему бизнес уходит от универсальных AI-решений к мультиагентным системам
Подключить LLM, загрузить базу знаний, настроить поиск по документам — кажется, что этого достаточно. Но на практике сложные запросы выходят из контекста, ответы размываются, а вместо решений система предлагает «посмотреть документацию». Там, где бизнес ждёт точности и конкретики — универсальный AI не справляtтся.
Вместе с руководителем направления искусственного интеллекта в red_mad_robot Валерой Ковальским разбираем, как мультиагентная архитектура закрывает эти пробелы: помогает обрабатывать сложные запросы, снижает нагрузку на команды и даёт измеримый эффект в бизнес-процессах.
↗️Читайте свежий кейс на Habr
#AI_moment
@Redmadnews
n8n + Qwen 2.5 7b instruct + vLLM + SO = Мощный диджитал твин на своем железе!
Всем привет!
По следам экспериментов я решил собрать небольшой пост старт по тематике n8n здорового человека
Что это такое?
Low-code подход через n8n для построения логики "диджитал твина"
vLLM для оптимизации инференса модели на локальной инфре + под капотом есть xgrammar
Qwen 2.5 7b instruct(t-lite) - неожиданно эффективная для SO и классификации интентов под такие задачи
Интеграция с RAG Smart Platform как "знаниевый агент" в наборе инструментов
Как это работает?
Structured Output вместо встроенных агентов которые работат на tool которые ломаются чаще российского автопрома для классификации намерений
Гибкая архитектура инструментов через n8n ноды(пришлось попотеть через js Vibe Coding спасает)
Маршрутизация запросов на основе четкой классификации где нет места гибким условиям если есть только flow!
Интеграция с внешними API и базами знаний
Что сейчас умеет такой спрут? Причем n8n стоит локальной на моем сервере
Выбор инструмента на основе намерения пользователя
Роутинг между различными исполнителями задач
Универсальный метод для разных типов запросов (часто без необходимости переобучения модели)
Форматирование запросов от каждой внешней АПИ типо погоды или календаря под тот формат который я задумал для визуализации пользователю!
Система не идеальная, но уже можно автоматизировать множество процессов!
Если вам интересно то этот пост байт на коменты и реакции
Хочу понять стоит ли пилить отдельный пост разбор + выложить код всех нод на гит для повторения!
Smart Platform - наша on-premise RAG платформа
Врываюсь с двух ног почти готовым релизом нашего внутреннего продукта (а за плечами 7 месяцев исследований реальных интеграций и разработки)!
Нет ничего приятнее рабочих якорей (ссылок на источники, которые подсвечивают информацию, использовавшуюся при ответе LLM), которые показаны на нативной интеграции с Confluence в закрытом контуре
И еще больше кайфую, что это уже работает не только в теории, но и на наших внутренних тестах на демо стенде!
Всё на моделях до 10b (LLM), а значит, сервер для корпоративного RAG начинает стоить адекватных денег
Целая цепочка router-агентов и долгий путь изучения лучших подходов и фреймворков для Q&A и диалоговых RAG-систем для закрытого контура
За всеми апдейтами по продукту предлагаю следить тут в канале нашего CPO Леши Жданова
Почему бизнес уходит от универсальных AI-решений к мультиагентным системам
Подключить LLM, загрузить базу знаний, настроить поиск по документам — кажется, что этого достаточно. Но на практике сложные запросы выходят из контекста, ответы размываются, а вместо решений система предлагает «посмотреть документацию». Там, где бизнес ждёт точности и конкретики — универсальный AI не справляется.
Вместе с руководителем направления искусственного интеллекта в red_mad_robot Валерой Ковальским разбираем, как мультиагентная архитектура закрывает эти пробелы: помогает обрабатывать сложные запросы, снижает нагрузку на команды и даёт измеримый эффект в бизнес-процессах.
↗️Читайте свежий кейс на Habr
#AI_moment
@Redmadnews
MoscowJS 64 x red_mad_robot⚡️
15 мая встречаемся на митапе в Робохранилище в Москве.
Поговорим про качество кода, стандарты и то как это влияет на разработчиков и команды. Будем постепенно рассказывать про наших спикеров — следите за обновлениями здесь и в чате сообщества @moscowjs
🕔15 мая, четверг, стартуем в 19:00
📍Москва + онлайн
🔗Регистрация по ссылке.
До встречи 🟥