God tier пейпер про рассуждения и логику у LLM. Разобрал для вас все существующие способы сделать ИИ умнее. Если вы делаете AI продукт, приклейте эту картинку себе на монитор.
Авторы сделали компексный разбор всех существующих механизмов и способов добиться повторяемых и глубоких логических рассуждений от LLM (на картинке). Вот краткий обзор научной мысли в направлении обучения LLM рассуждениям.
Prompt engineering
— Одноэтапные, несколько примеров с цепочками мысли получаемые через CoT промт
— Многоэтапные, разбиение на подзадачи, последовательные промты
Оптимизация процессов
— Самооптимизация, калибровка с помощью дополнительных модулей или другой "проверяющей" LLM
— Ансамблевая оптимизация, когда LLM задает один и тот же вопрос многим клонам самой себя и потом выбирает самый популярный вариант
— Итеративная оптимизация, автоматический файн-тьюнинг LLM на сгенерированных примерах
Внешние механизмы
— Физические симуляторы, имитация процессов через мультимодальность
— Интерпретаторы кода, написание кода самой LLM для достижения результата рассуждений
— Обучение инструментам, внедрение вызовов внешних инструментов через агентов
Дополнение знаниями
— Неявные знания, извлечение из LLM через промтинг
— Явные знания, поиск релевантных знаний во внешних корпусах типа RAG
В целом промты позволяют активировать в LLM способности к логическому мышлению и рассуждениям. Комбинация стратегий промтов и знаний (RAG) это главная идея для улучшения рассуждений.
Запись воркшопа о том как сделать своего собственного ИИ агента с долгосрочной памятью (как за бесплатно получить функционал StackAI стоимостью $900/мес) опубликована в Boosty.
В рамках вебинара мы разобрали:
— что такое ИИ агенты?
— какие есть методы "дообучения" ИИ?
— для каких бизнес кейсов подходит долгосрочная память? как они работают?
— как сделать свой собственный прототип за $0 и за 15 минут?
— как хранятся данные в векторых БД и как с ними работать?
— как сделать из этого публичный интерфейс?
— как изменять функционал агента, добавляя папки с документами или скейпинг вебсайтов?
В следующих частях покажу как связать с ботом, но, самое интересное, это будет поговорить о том как строить семантический слой приложений. Записать данные в векторную базу и их оттуда достать - легко. А вот создать агента, который умеет использовать десятки инструментов для работы с таблицами, аудио, длинными и короткими текстами, named entity, стилям — вот тут уже попахивает сид раундом на $3М.
В тему ИИ как Великого Уравнителя. Я каждый день вижу примеры когда люди благодаря генеративным нейронкам могут делать вещи, к которым раньше они даже не знали с какой стороны подступаться.
У меня есть знакомый, который ни разу в жизни не программировал, а тут, на пенсии, с помощью GPT сделал рабочее приложение для телефона. Или любой кто пишет пост, книгу, презентацию и теперь может бесплатно сгенерировать графику на уровне топ-10% лучших иллюстраторов мира. Или, подписывая контракт, получить анализ договора от Claude на уровне не хуже среднего юрист (но бесплатно, а не за $200). И школьник, которому ИИ объясняет сложную тему (делая её не только сложной, но интересной) с персональным подходом, эмпатией, чистотой объяснения и кастомно сгенерированными графиками и схемами на уровне топ-10% педагогов мира. А заскучавшие школьники генерируют action сцены на уровне средненького боевика с десятимиллионным бюджетом.
В каждом моём дне таких примеров десятки: саммари звонков, редактура текстов, анализ юридических документов, изучение фармакокинетики (для одного проекта), написание и анализ кода на почти незнакомом языке.
Это сегодня. А ведь еще ничего толком не началось. Да, формально, у ИИ-продуктов уже под миллиард пользователей (Bing, GPT, Opera, etc). Но реальных power users, которые почувствовали на себе эту силу Великого Уравнения, по моим скромным оценкам, все ещё только десятки тысяч.
Нас ждут великие приключения и великие потрясения.
Пишу сценарий по использованию LLM с долгосрочной памятью для завтрашего воркшопа. Все ещё принимаются идеи от вас, но с нуля создать и объяснить как это работает смогу только один полноценный сценарий.
— пользователь (админ) загружает документ (в моем случае, один — MiCA, регуляция криптоактивов в ЕС на 150 страниц; второй — подборка медицинских исследований о действии пептидов на организм)
— LLM генерирует список часто задаваемых вопросов по этому документу
— задав конкретный вопрос, конечный пользователь получает подробный ответ со ссылками на источники в документе
— пользователь может попросить перефорулировать каждый ответ одной кнопкой. например, упросить и написать понятным языком
— как бонус: показать как встроить такую систему в телеграм-бот, веб-сайт или Whatsapp
— конечно же, всё через no-code решения
Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma. Исходный код, инструкция и запись воркшопа пришлю всем кто зарегистрирован или подписался в Boosty. Начало в 4pm London / 6pm Moscow / 11am NY.
Только ленивый не написал о выходе DALL-E 3, новой диффузионной модели от OpenAI. В нашем последнем вебинаре мы как раз разбирали как работают такого рода модели.
Из плюсов:
- встроено в чат
- умеет текст и надписи
- классная стилизация
- все это можно будет встраивать через API (сгенерируй модель атома для урока химии, нарисуй лого на этом слайде)
Из минусов:
- непонятно насколько она хороша с лицами и людьми
- OpenAI серьезно восприняли вой на тему «я художник, это мой стиль» и теперь там будет копирайт-холокост и цензура
В течении ближайшего месяца будет доступно для всех пользователей ChatGPT Plus. А значит ваши промты, рабочие воркфлоу и чаты смогу генерировать умопомрачительный графон. Про DALL-E еще сделаем отдельный вебинар.
А в эту пятницу, напомню, будем говорить про создание цепочек ИИ-агентов с доступом к долговременной памяти, подключением к сайту или телеграмм-боту. Будет практический воркшоп. И все это через no-code. Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma.
Чтобы предсказать успешность человека надо ответить на вопрос откуда он получает свой дофамин.
Мозг стремится к (crave) дофамину. И каждый для себя находит способ его получения. Это могут быть шумные вечеринки, интересные лекции, спорт, алкоголь, сериалы. А так же работа.
Так вот, в работе, куда больших результатов обычно получают те, у кого есть привычка получать дофамин не в тот момент, когда ваши идеи поддерживают, а когда вы сами свои идеи улучшаете или даже отбрасываете. Не признание, а улучшение собственной картины мира. Это создает привычку постоянно самоулучшения.
А откуда вы берете свой дофамин?
Вышло очень серьезное исследование использования ИИ в бизнес-процессах, от бизнес-школ Гарварда и Пенна на примере ежедневной работы консультантов BCG (входит в тройку мировых самых крутых консалтинговых компаний).
- Измерялась продуктивность участников (сотрудник BCG получает от $15k/мес) по 18 навыкам. По всем из ним, по всем позициям, по всем типам измерения прироста продуктивности сотрудники с GPT-4 показали превосходство над остальными
- Консультанты, использующие ИИ, в среднем выполнили на 12,2% больше задач, завершили задания на 25,1% быстрее и показали на 40% более высокое качество результатов по сравнению с теми, кто не использовал ИИ. В эксперименте участвовало 728 консультантов BCG, команда провела сотни интервью и замеров.
- Есть две модели: кентавр и киборг. Первые четко разделяют где задачи для человека, а где для машины. Вторые слились с ИИ как продолжением своего тела.
- ИИ — великий уравнитель. Лучшие из лучших получили в среднем 17% прироста эффективности работы, а когорта "отстающих" аж целых 43%. В итоге их "score task" (оценка рабочих задач) почти сравнялся. Примерно как при добыче золота руками был очень важен личный скилл, а после изобретения экскаваторов или лопат все стали резко равны.
- Важно отметить, что слишком сильно полагаться на ИИ и не понимать рабочую область совсем — это тоже проблема. Авторы называют это "уснуть на рулём".
Фокус этого канала сильно сместился в сторону generative AI, но стоит заметить, что в крипте кажется что-то наконец происходит. А именно: paper hands VCs закурившиеся на максимуме бесполезными NFT коллекциями и токенами решились-таки продать на самом дне (одному Б-гу известно какая логика у них в голове), а скамеры отчаялись ждать у моря погоды и пошли в более рыбные места (тот же ИИ).
Не сказал бы, что одного этого достаточно чтобы биткоин взлетел, а лично вы сделали бы 1050 иксов за полторы недели без каких-либо напрягов (я знаю, вы к такому привыкли). Но следить за криптой становится интереснее. Теперь кроме поиска хомяка-инвестора, которому бы втюхать токен, там происходят более интересные штуки.
А именно их две: первая - технологическая, вторая - политическая. Первая про zk, account abstraction, новый дефай, identity&reputation. Вторая про то, про что крипта была с самого начала — последовательное, долгосрочное (think decades) переизоберетение и изменение существующих институтов, таких как глобальная финансовая система или системы распределения публичных благ (aka государства).
В первом случае пока все упирается в базовую продуктовую задачу — сделать так, чтобы это было удобнее и полезнее для пользователя, чем аналоги. Во втором — в задачу политических альянсов, в том числе со стороны разных кандидатов и партий в разных странах, или верховным и иных судах в США/ЕС.
Так что, если вы вдруг решили крипту похоронить только потому что она не сделала вас лично миллиардером с вашего $150 депозита за 3 месяца — то зря.
Продолжаю поражаться как много думания теперь за нас будут делать силиконовые нейронки.
Поиск, анализ и действия на основе информации — это большая часть нашей работы. Теперь её можно в существенной степени автоматизировать.
P.S. На скине редизайн и переработанный бекэнд проекта, о котором я писал в предыдущем посте.
Новое видео! Прикрепляю запись пятничного вебинара, где мы разобрали модели, которые умеют генерировать графический или видеоконтент на основе текстового ввода.
Мы посмотрели популярные диффузионные модели, такие как DALL-E, Stable Diffusion, Imagen. Разобрали принцип работы диффузионных моделей: латентное пространство, ньюансы обучения таких моделей, процесс генерации, производительность.
Так же копнули в инструменты для работы с диффузионными моделями, таких как Automatic1111 и DreamStudio. Так же на практике посмотрели как улучшить качество генерации используя ComfyUI и ControlNet.
Ну и наконец поговорили о перспективах применения диффузионных моделей — для сжатия и передачи медиаконтента, генерации видео по тексту и создания виртуальных персонажей и сред.
Смотреть запись: https://youtu.be/s5ogV5Z2dIU (презентация в описании)
Подписаться на Boosty и получить доступ к закрытым вебинарам: https://boosty.to/codextown
Через несколько часов начнётся вебинар с Майком на тему генерации ИИ-графики с помощью диффузионных моделей типа SD, SDXL, ControlNet, Comfy и других.
А еще сегодня выложу видео про то как делать мощного продажного бота без кода и бесплатно. Видео будет в Boosty.
Регистрация на вебинар: https://lu.ma/codextown
Ясный сокол на 180 миллиардов параметров.
Falcon 180B - сверхмощная языковая модель с 180 миллиардами параметров, обученная на 3.5 триллионах(!) токенов.
Эта модель отлично справляется с различными задачами, такими как рассуждение, кодирование, знание и тесты знаний, даже опережая конкурентов, таких как Meta LLaMA 2.
Среди моделей с закрытым исходным кодом он стоит сразу за GPT 4 от OpenAI и работает наравне с PaLM 2 Large от Google.
Информация, хагингфейс и демо тут, там же можно скачать и почитать лиц соглашение.
https://falconllm.tii.ae/falcon-models.html
Понятно, что она не влезет ни в одну видеокарту, поэтому ждем вот такое оборудование от Nvidia:
🔥NVIDIA GH200 Grace Hopper 282 GB VRAM!
На SIGGRAPH 2023 NVIDIA анонсировала нового монстра для задча Generative AI - GH200 Grace Hopper с памятью HBM3e:
🔹 На борту чипа не только GPU, но и встроенный ARM процессор.
🔹 Базовая версия оснащена 141 GB VRAM и 72 ядрами ARM Neoverse c 480 GB LPDDR5X RAM.
🔹 С помощью NVIDIA NVLink можно объединять в сдвоенные "суперчипы", достигая 480x2 GB быстрой памяти (RAM)
🔹 Сдвоенный чип предлагает 282 GB VRAM, 144 ядра ARM Neoverse и 7.9 PFLOPS int8 производителтьности (так же как и у сдвоенной H100 NVL).
🔹 Новая память HBM3e на 50% быстрее предыдущего поколения HBM3, обеспечивая 10 ТБ/с комбинированной пропускной способности
Поразительный прогресс сегодня происходит в диффузионных ИИ-моделях. С постоянными обновлениями MidJourney мы уже забыли про то, что ровно год назад мы всем интернетом восхищались маленьким картинкам со стулом-авокадо (первая картинка), и всего за год прогресс дошел до неотличимой от реальности граифки, которую можно генерировать абсолютно бесплатно на стареньком Air (а умельцы — даже на ведроидах).
В эту пятницу очередной вебинар Codex Town будет посвящен Stable Diffusion и бесплатным моделям для генерации фото/видео. Мы разберемся как эти модели работают, как скачать и бесплатно начать использовать, какие есть трюки для достижения максимально крутых результатов. Немного поговорим о том как тренировать свои графические модели, чтобы она могла генерировать прекрасные пейзажи и натюрморты исключительно в форме и стиле вашего кота.
Регистрация на вебинар: https://lu.ma/codextown
Подписчики codex.town в Boosty (для карт СНГ) и BuyMeaCoffee получат прямую ссылку на вебинар.
Несколько источников одновременно раскрыли инсайды о следующей, пока непубличной, модели от OpenAI. От техно-мистиков из e/acc твиттера до потаённых нор Реддита, инфа сходится в следующем:
— новая модель, наследник GPT-4, называется «Арракис»
— модель имеет модальность «все ко всему», то есть на вход получает видео/фото/текст/звук и выдает так же любую из них
— значительно лучше GPT-4 и сравнима с топовыми экспертами-людьми во многих областях (цитата: «внутри OpenAI мы достигли AGI», чтобы это не значило)
— имеет функционал автономного агента, умеет создавать для себя инструменты и пользоваться ими
— выйдет в 2024
Авторы этих постов за последние годы до анонсов в СМИ уже предсказывали точный функционал и дату появления продуктов компании, поэтому, хоть и звучит мутновато, инфа относительно credible.
Еще примеры и исследования на тему влияния ИИ на продуктивность людей и разделение труда. Спойлер: они все подтвреждают тезис о великом уравнении.
1. Исследование MIT почти 500 сотрудников, чья работа в основном состоит из написания текстов показало, что GPT существенно снижает разницу в качестве работы между сильными и менее опытными или талантливыми сотрудниками. При этом GPT больше заменяет усилия работников, чем дополняет их навыки.
2. Исследование показывает, что доступ к генеративному ИИ повышает творческий потенциал людей при написании коротких рассказов, особенно у менее креативных авторов, но в то же время приводит к снижению уникальности и разнообразия создаваемого контента.
3. Эксперимент оценивающий влияние помощи ИИ на юридическое мышление: студенты сдавали экзамены по праву с помощью GPT-4 и без неё. Оказалось, что худшие студенты выигрывали больше всего от ИИ, а лучшие - теряли.
4. Исследование более чем 5,000 сотрудников тех поддержки использующих генеративный ИИ. Худшие агенты техподдержки и новички только вышедшие на работу показали максимальный прирост результата. Так же сильно улучшилась оценка качества решения проблемы со стороны клиента.
Меня всегда в любом бизнесе (особенно, крупном) поражало количество тупой и бесполезной работы. Очень для многих ролей это было близко к 100%. Теперь эта проблема решена: тупую работу делают роботы, а люди, даже неквалифицированные, с помощью роботов делают (относительно и в кавычках) «сложную».
Временный пост
Нажмите на ссылку чтобы кинуть Буст каналу. Это бесплатно для вас и тогда будет больше качественного, разного, крутого контента в канале.
Нажать сюда (обновив телегу предварительно): /channel/cryptoEssay?boost
Сегодня (3pm UTC) вебинар-воркшоп про создание цепочек ИИ-агентов для работы с долговременной памятью и саморефлексии ботов. Все это с помощью no-code.
Воркшоп и его запись будут доступны для подписчиков Boosty или для тех, кто зарегистрировался в Luma. Исходный код, инструкция и запись воркшопа пришлю всем кто зарегистрирован или подписался в Boosty. Начало в 4pm London / 6pm Moscow / 11am NY.
Как я и предсказывал, крупные продукты начинают внедрять ИИ функционал почти что в каждую кнопку. Следующий апдейт Windows включает в себя полноценный copilot для всей операционной системы, который будет встроен в приложения от Paint и Notepad до вполне ожидаемых PowerPoint и Excel. Bing Chat будет включать в себя полную и бесплатную версию GPT-4 + DALL-E 3.
На видео показано как Copilot из текстового документа пишет и рисует презентацию. Красота. И абсолютно неизбежно, потому что создание презентаций — это, кажется, самый бессмысленный труд офисных работников.
Ну и, конечно, теперь Word может писать документы по вашим тезисам, а Эксель — считать P&L по вашим вводным.
Можно вечно смотреть как бот подается на вакансии. Если ваши рекрутеры все ещё кожаные, то вас ждут тяжелые времена ;)
Этот скрипт считывает вакансию, сопоставляет её c резюме и заполняет вопросы и сопроводительные письма, где это требуется, индивидуальными ответами в стиле аппликанта.
Сделать ИИ-агент с долгосрочной памятью, без программирования? Легко!
В эту пятницу на очередном (12-ом) вебинаре я покажу вам как сделать ИИ-приложение, которое умеет записывать новые знания в долгосрочную память и отвечать пользователю на основе именно этих знаний. Я покажу как делать это без единой строчки кода и таким образом, что ваш босс/клиент/жена/кот смогут в дальнейшем менять, адаптировать и улучшать приложения без каких-либо технических навыков.
Вам хотелось чтобы ChatGPT давал более конкретные ответы и ссылался бы на источник? Чтобы бот отвечал именно так, как вы его заранее "обучили"? Чтобы для сотрудника технической поддержки выдавалась сразу цитата из документации? Чтобы маркетинговые тексты аккуратно и точно показывали хар-ки продукта? Чтобы ваш личный ассистент отвечал по вашей собственной базе знаний, а не придумывал от себя?
Я покажу как это сделать используя исключительно публично и бесплатно доступные инструменты. Так же расскажу как использовать всю мощь LangChain через no-code платформы и как бесплатно эти платформы захостить. (Грубо говоря, как за $5-7/мес получить функционал, который StackAI продает за $900/мес)
Почти все практические юзкейсы генеративного ИИ включают в себя тот или иной способ дообучения, тьюнинга и чейнинга (соединения одной или нескольких LLM в сеть агентов, которые образуют мыслительный процесс). И подход, про который я расскажу в пятницу является самым простым, удобным даже для нетехнарей способом это сделать.
Вебинар доступен для подписчиков Boosty (любого уровня) или для тех, кто зарегистрировался в Luma. Исходный код, инструкция и запись воркшопа пришлю всем кто зарегистрирован или подписался в бусти. Начало в 4pm London / 6pm Moscow / 11am NY.
OpenAI добавили на сайте возможность управлять своими файнтьюнингами. Обещают в следующем релизе сделать возможным создавать файнтьюнинг прямо тут. То есть, зашел на сайт, вставил нужные данные, затьюнил себе новую модель.
Читать полностью…Лучший веб-сайт чтобы начать день (given, вам интересно куда движется мир и каким он будет через Х лет): https://huggingface.co/papers
Читать полностью…Как OpenAI (и другие LLM компании) формулируют свою миссию: интеллект по запросу.
Есть проблема, для решения которой нужно Х мегатьюрингов конгнитивности? Отправляй свою задачу в этот API и плати $0.002 за ответ на страницу.
Сегодня это просить ИИ шиллить токены и писать мемы; завтра — научные исследования, диагнозы, legal opinions, код для энтерпрайз интеграций.
LLM призваны сэкономить нам миллиарды часов, вот один из примеров.
Сегодня думал как сделать эффективное и ёмкое представление большого количества коммуникаций, чтобы пользователь мог быстро понять что происходит, но ему не требовалось бы читать сотни чатов и имейлов.
Для этого сделал визуализацию чатов и переписок. Работает следующим образом:
— скрипт парсит ваши чаты, письма и группы
— создает графовую визуализацию, которая наглядно показывает участников (зеленые) и ключевые темы обсуждения (фиолетовые)
— и создает грани у графа, которые отражают отношения (предикат) между разными пользователями и идеями
— при желании можно нажать на любую грань и прочитать полный текст сообщения
Тестирую на всех своих каналах и группах. Работает еще не идеально, но зато узнал сколько всего я уже пропустил в безднах телеграма.
Видео с живым демо: https://youtu.be/qoeOdrQ5bZ0
Предыдущие итерации этой идеи: раз, два.
Люди: изобрели промт «думай пошагово», улучшили производительность LLM, горды собой
LLM: придумал для себя промт «глубоко вдохни и подумай», улучшил производительность еще сильнее, забыл сообщить об этом кожаным
В данной таблице приведены примеры промтов, которые LLM делают сами для себя и их сравнительная эффективность.
Ожидание: AI-ассистенты, которые анализируют код, договора, диагнозы и помогают делать научные открытия
Реальность: топ revenue стартапы в ИИ — початиться с героями аниме (character), генерация виртуальных голых женщин, hot-or-not для виртуальных голых женщин, секстинг и виртуальный секс с виртуальными голыми женщинами
Хочешь заработать — аппелируй к низким (и потому максимально распространенным) потребностям.
Кстати, в пятницу мы расскажем как генерировать свои виртуальные картинки и видео (не обязательно голых людей) бесплатно, и как это работает изнутри. Регистрация на вебинар: https://lu.ma/codextown
Подписчики codex.town в Boosty (для карт СНГ) и BuyMeaCoffee получат прямую ссылку на вебинар.
Есть ли сознание у LLM?
Сложный вопрос, учитывая что определить сознание толком не получается. Но авторы этого чудесного 88-страничного пейпера попытались ответить на вопрос. Для начала они выделили основные современные теории, которые определяют что такое вообще сознание:
Recurrent processing theory. Сознание возникает из рекуррентной обработки, при которой сигналы распространяются туда-сюда между различными уровнями кортикальной иерархии. Рекуррентные петли позволяют интегрировать информацию и сформировать организованное представление зрительной сцены.
Global workspace theory. Сознание включает "трансляцию" информации во многие различные области мозга через глобальное рабочее пространство. Только какая-то информация отбирается с помощью внимания и конкуренции, чтобы попасть в рабочее пространство ограниченной емкости и стать сознательной.
Higher-order theories. Сознание требует некоторого рода представления высшего порядка, такого как мысль или метакогнитивный процесс, направленный на ментальное состояние более низкого порядка. Представление высшего порядка делает нас осведомленными или сознательными о состоянии более низкого порядка.
Integrated information theory. Сознанию соответствует способность системы к интегрированной информации. То есть, количество информации, генерируемой взаимодействиями между частями, которое нельзя свести к самим частям.
Attention schema theory. Сознание зависит от построения упрощенной модели внимания - "схемы внимания", которая представляет обработку вниманием информации в мозге. Содержание этой схемы соответствует сознательному опыту.
Predictive processing theory. Мозг постоянно генерирует прогнозы сверху вниз и обновляет их на основе ошибок прогнозирования. Некоторые теоретики утверждают, что основные свойства сознания возникают из динамики предиктивной обработки.
Embodiment and enactivist theory. В основе лежит важность наличия тела, расположенного в окружающей среде, предполагая, что сознание возникает из сенсомоторных процессов и взаимодействий между мозгом, телом и миром.
Определить задачу уже важный шаг. Если пробежаться по пейперу дальше, но какого-то однозначного вывода авторы, конечно, не дают, но замечают интересные факты:
— LLM умны, но это еще не гарантирует сознание
— У LLM нет многих из перечисленных этими теориями свойств, такие как глобальное рабочее пространство, чувство "себя" и агентность, постоянный мониторинг окружающей среды через сенсорные органы
— LLM не имеют чувства физической реальности и тела, это жирный минус
— LLM могут печатать очень складный текст, но это не гарантия сознания. Они не могут подтвердить или проверить свои слова.
— Итого, наверное, сознания нет.
Что не удивительно, но скорее полезен факт того, что авторы сформулировали четкие критерии по которым можно будет отследить когда это сознание наконец-таки появится. Кстати, продажа подписки на сознательного ИИ-агента — это работорговля, ИТ-бизнес или что-то сродни продаже попугаев?
Буду скидывать этот скриншот (отсюда) всем, кто спрашивает "а сколько стоит дообучить мою LLM чтобы она умела Х?"
Читать полностью…