48094
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn
Беларусы есть?
Небольшая частная киностудия в Беларуси ищет помощника/помощницу для синтеза (на ИИ) полнометражного фильма. Работа на студии (Минск, конец проспекта Победителей).
Из обязательного: оч. хорошее владение фотошопом.
Из желательного: собственно, опыт с VEO, Kling, Seedance, Hailuo (и понимание разницы между ними); понятно Nano Banana 2 и т.д.
Т.е. если опыт есть -- замечательно, если нет, говорят, всему научат. Главное: готовность нырнуть в это с головой.
Если интересно, пишите в ЛС @vanya :
- Почему интересно;
- Что вообще думаете про синтетику;
- Есть ли свои работы, если да, дайте ссылки;
- Желательный график работы, желательная з.п.;
- И остальное, что взбредёт в голову.
@cgevent
Firebase - всё
Получил письмо. Пишут, что "Для оптимизации наших инструментов разработки на основе ИИ мы закроем Firebase Studio 22 марта 2027 года. Поскольку его основные возможности уже интегрированы в Google AI Studio и Google Antigravity, мы рекомендуем перенести ваши проекты из Firebase Studio в эти продукты."
@cgevent
ID-LoRA
Identity-Driven Audio-Video Personalization with In-Context LoRA
Новый опенсорсный липсинк.
Тут появилась альтернатива InfiniteTalk
Как я уже писал LTX оказалась очень хороша в оживлении портретов.
ID-LoRA основана именно на LTX (правда 2.0) - на входе картинка и аудио-файл, на выходе говорящая голова.
Бесстрашно сравнивают себя с Клингом.
Но это опен-сорс и у них в планах поддержка LTX-2.3 и Комфи.
Будем подождать, похоже на годный опен-сорсный оживлятор.
https://id-lora.github.io/
@cgevent
#Нейропрожарка
Ekonika AI Campaign SS26
Авторы:
AI Lead & Post-Production - Волков Андрей
AI Artist - Яна Ганжа
Sound - Егор Легостаев
Видео-часть AI кампейна для бренда Ekonika. На видео ушло около 7-10 дней со всем монтажом, грейдом и озвучкой. Задача была соединить каждую героиню с каждым этажом будущего трёхэтажного дома Ekonika и совместить это с подходящим биомом
- 8 дней
- 600 генераций видео, Kling 3.0
- Для фото - Nabobanana Pro/Flux 2 max, инпейнт - Flux2Klein9b
- На каждую героиню была обучена собственная Lora в fal.ai и экспортился в Comfy. В случаях, где Nanobanana выдавала хорошую позу, но неправильное лицо - делал Faceswap в ComfyUI с помощью Flux2Klein9B и Detailer(segs) ноды. Это касается и точечных правок от клиента, замена очков. Все таки, на мой взгляд, лучший инпеинт дал мне именно Flux2klein9b
- Все интерьерные ракурсы подбирались камерой в 3дмаксе (использовали Vantage для ускоренной работы), позже загонялись в NB или Flux 2 Max.
- Апскейл Topaz/SeedVr/Magnific (creative). Если апскейл пережаривал лицо/добавлял излишних деталей - маскировалось в Photoshop
- Каждый биом был сгенерирован смешением Lora в разных стилях c помощью Flux2dev, у последней героини за основу был взят стиль Gizem Akdag
- Эдит/грейд - Davinci
- Нашумевший Seedance 2 так и не вышел в оф релиз, но и не уверен, что в этой задаче он справился бы лучше
@cgevent
Вам конец
Андрей Карпатый сделал проект, в котором каждая профессия в Америке оценивается по шкале от 0 до 10 с точки зрения вероятности ее замены искусственным интеллектом
Он собрал данные по всем 342 профессиям из Бюро труда (скраппинг)
Каждая профессия была скормлена в LLM с подробной шкалой оценки
На итоге - интерактивная диаграмма (treemap), где размер прямоугольника отражает количество рабочих мест, а цвет — степень уязвимости данной профессии перед ИИ (от 0 до 10)
Уязвимость:
0–1: кровельщики, уборщики
4–5: медсестры, работники розничной торговли, врачи
8–9: разработчики программного обеспечения, помощники юристов, аналитики данных
10: медицинские стенографисты
Средний показатель по всем 342 профессиям: 5.3 из 10.
Ключевой критерий в его оценке: если результат работы является по сути цифровым и работу можно выполнять полностью из дома, то степень уязвимости по определению высока.
Поглядите сами (сверху кнопки Зарплата, Образование):
https://karpathy.ai/jobs/
Весь процесс и код выложен в опен сорс. Сбор данных BLS, оценка LLM, визуализация.
https://github.com/karpathy/jobs
Судя по тому, что вы генерите картинки и видео не выходя из дома, вам конец, 10 из 10.
@cgevent
Нейропрожарка
Автор: Солана Ai cine (@Ezofi)
Максим Фадеев со своим клипом так сильно "впечатлил" меня, что я решила попробовать сделать свой клип. 😅
Тема выбрана была та, что на хайпе. Мизогиния и ее адепты. Так родилась группа B:RazeM - 5 девушек, антиподов Маркаряна и ему подобных.
Может показаться, что это бессвязный ряд генераций, но нет. Это визуальная метафора. Часто пространственная. Темная комната с окнами, например, - это внутри головы.
Делала два месяца с перерывами. Основные инструменты: Клинг 2.6, потом 3.0, потом Seedance 2.0.
Мне повезло, что под конец вышел Seedance, так как некоторые сцены не получалось сделать в других нейросетках. Например, дождь (!) в нестандартном ракурсе и щелчок пальцами. С дождем у нейронок вообще большие проблемы.
Трек - Suno, Монтаж - Premier
По деньгам около 600$
Несжатый ролик на ютуб: https://www.youtube.com/watch?v=S4YF4eejgK4
Мой канал: /channel/sola_neiro
Буду рада услышать отзывы завсегдатаев Метаверсища)
@cgevent
Нейропанк, который мы заслужили.
Вместо шоу "Дом-2", у нас теперь будет сериал Bot House.
Премьера от OpenArt на следующей неделе.
https://www.linkedin.com/posts/openart-ai_the-first-ai-reality-show-is-here-introducing-activity-7435050412078080000-EmoN/
@cgevent
Ну, за VFX и Пост.
Ну хорошо, выкорчуют из Сидэнского Томкруизов и Брэдпиттов, уберут селебов.
А что делать Пост Продакшен Студиям?
Как выкатывать заказчику бюджеты?
Я уже писал, что надо бы ILM и Framestore поднапрячься и тоже наехать на Байтдэнс. Типа обучились на наших робатах, а теперь копируете Гадзилл и Терминаторов. Нехорошо-с.
Но поглядите, как это круто сделано и смонтировано. Да, вопрос 4К, логарифмов, битности цвета и пр. Но елы палы, где мы были год назад? А два? А три? Это же был палеозой какой-то. Фоны ручками рисовали.. Знали, что такое рендерман... Ставили на ночь 10 секунд посчитацца..
Куда катится мир?
@cgevent
10 000$ за просмотры от INOUT GAMES🔥
Студия INOUT GAMES запустила платформу и челлендж для креаторов.
🛠 Платформа объединяет все ключевые инструменты в одном интерфейсе, позволяя создавать креативы и упрощать ежедневную работу.
Доступ к INOUT CREATORS
Хочешь зарабатывать на создании креативных видео? Выше примеры работ наших креаторов, которые уже собирают миллионные просмотры!
Что работает в кадре:
🔴 Рост коэффициента
🔴 Пошаговая модель риска
🔴 Фиксация результата в последний момент
🔴 Прогресс внутри одного спина
Когда зритель понимает механику за первые секунды - он остаётся до развязки.
А значит растёт удержание, просмотры и доход по офферу.
Почему это интересно креаторам
Такие форматы:
▪️ стабильно собирают большие просмотры
▪️ дают понятный сценарий для серийных видео
▪️ хорошо монетизируются по офферу
▪️ масштабируются без потери вовлечения
Если видео считывается мгновенно - алгоритмы его любят.
💰 Челлендж для креаторов
Отправляй свои видео и участвуют в соревновании на реальные деньги!
🎯 Побеждает тот, кто наберёт больше всего просмотров.
🏆 Призовой фонд - $10 000
Для дополнительной информации можете обращаться в поддержку INOUT GAMES
INOUT CREATORS channel - канал с материалами УБТ.
Фильм подписчика Андрея Чибисова "Mephisto.protocol" отобрали на Каннский фестиваль.
Очень крутая работа.
Прикиньте, в Каннах теперь есть ИИ-категория (что про это думает Дисней?).
@cgevent
Sonauto V3 - генератор музыки без цензуры и юристов.
Это не новый проект, это новая версия v3 Preview и она довольно огненная.
Там нет цензуры на имена исполнителей.
Пестни до 4:30 (для этого надо выбрать Advanced->More Advanced->Duration Control)
Есть Radio
Сайт сделан довольно нарядно
У них есть API (правда на fal.ai пока только версия 2)
Давайте оттестируем. Они, правда, пишут, что v3 is in preview and may sometimes produce lower quality results.
Но обещают поправить.
P.S. Баяре Кондаков и Тарасов - мнение в студию.
https://sonauto.ai/
@cgevent
Память закончилась
ИИ-бум вычистил склады производителей: чипы памяти скупают бигтехи для обучения моделей и дата-центров.
Рост цен — 170–200%. Локальной специфики нет, дефицит глобальный.
В России облачные тарифы уже выросли на 5–15%, а в премиум-сегменте — до 40%.
Эксперты называют это новой нормой.
Когда интеллект становится искусственным, память — настоящей роскошью.
@cgevent
Нейропрожарка
Коробка с Нейросетями
Автор в телеге: Кеша (Мозг/ИИ Просто)
Ютуб версия: https://youtu.be/MaR_uPjEb6Y
Видео и звуки: Kling 3.0
Арты: Nano Banana
Трек: Suno
Слова: Написал сам
Среда: ComfyUI
Время и деньги: 3 дня, $100 примерно
Наблюдения:
1. Kling 3.0 хорошо генерит много планов сразу, но нужно расписывать каждый. Сам планы придумывает так себе. Опыт режиссуры пригодится
2. Много времени потратил на песню. Хотелось, чтобы постепенно нарастало безумие и было много эмоций. Это примерно 50-й вариант
3. Не стал выдрачивать ИИ-рендер. Как только получалась нужная атмосфера - оставлял. Во-первых, лень. Во-вторых, продакшн-качество противоречит задумке. Поэтому местами всрато. Это не вина Клинга, это я забил.
Мысли:
Я делаю игру (естественно с помощью нейросетей, потому что делаю её один) и пытаюсь понять почему так много их хейта, и как не попасть под каток. Попробую на примере Коробки рассказать к каким выводам пришёл.
Думаю, что всё дело в социальном контакте. Человек - социальное животное. И коммуникация не заканчивается на людях. Мы испытываем социальный опыт при взаимодействии с любой сущностью, которую сделал человек. И не замечаем этого до тех пор, пока автор не исчезает. В этот момент мы испытываем что-то вроде эффекта зловещей долины.
Чтобы этого избежать, можно постараться сохранить ощущение автора. Я надеюсь, что в Коробке автор считывается. Понятно какие фильмы я смотрел, с какими новостями знаком. Можно даже возраст прикинуть. Видно, что у меня неоднозначное отношение к буму генеративного контента. Меня он будоражит и тревожит одновременно.
Помимо общей задумки, есть множество деталей, которые не очень нужны, но мне просто хотелось их добавить. И весь этот ворох под названием "Я хочу чтобы было вот так" считывается на каком-то подсознательном уровне. И передаёт ощущение авторства. И если что я не говорю, что я хороший автор. Схожим образом делает ролики Доброкотов, и поэтому они классные. В них виден он сам.
Не важно каким инструментом создано произведение. Важно, что произведение отражает личное, кривое, косое, но мировоззрение автора. И проявляется оно в деталях. И тогда зрителю норм.
Жалко, что это всё актуально до тех пор, пока ИИ не научится виртуально подделывать человека и в этом вопросе.
@cgevent
Как AI изменил разработку и как управлять этими изменениями
За последний год случился серьезный прорыв в том, что ИИ может дать командам разработки. Мы начинали 25-ый горсткой энтузиастов с простым чатом и автокомплитом в Cursor, а 26-ой начинаем с командами агентов, которые начал внедрять даже энтерпрайз.
Может ли AI ускорять команды – уже не вопрос. Вопрос в том, как это организовать и этим управлять – ведь у отдельных команд еще не накопилось достаточно часов опыта и проверенных практик.
Более сложная задача – отфильтровать шум, когда все хотят прокатиться на хайп трейне. В таком ситуации стоит слушать только тех, кто уже сам провел эксперименты и сделал личные выводы.
Потому Стратоплан и Entropy Talk собрали известных экспертов с реальным опытом: Head of AI и СТО крупных банков, фаундер стартапов с оценкой в десятки $m, инвестор в ИИ-стартапы с чеками 1-10M $, ex-CТО Pure, VP of Product в Jetbrains и Стратоплан
Для кого: senior engineers, тех- и тим-лидов, СТО и фаундеров
Участие – бесплатно, но есть и платное (предоставляем сертификат)
Когда: 24-26 февраля, онлайн или в записи
[ Регистрация ]
@cgevent
Вот это интересно, Eleven Labs сделала магазин для ИИ-музики.
В магазин могут попасть только треки, созданные их моделью ElevenCreative.
Авторы получают деньги, когда их композиции скачивают, ремиксят или лицензируют другие пользователи.
Лицензировать трек можно для Social Media, Paid Marketing или Offline
Они хвастаюцца, что уже выплатили 11 миллионов долларов на своем Voice Marketplace и пророчат успех Music Marketplace.
Баяре Кондаков и Тарасов, вам пора переобувацца из Suno в ElevenLabs.
https://elevenlabs.io/blog/introducing-the-music-marketplace-in-elevencreative
@cgevent
Seedance Promp Library
Ого, кто-то собрал не только лучшие видео из Твиттера и (что важно) Вичата, но и ароматы к ним.
Получилась жирная библиотека промптов для Seedance 2.0, разбитая на категории.
Стоит того, чтобы посмотреть видосы и оценить промпты к ним.
https://github.com/ZeroLu/awesome-seedance
@cgevent
Петаслопсы
Хорошая шутка родилась в комментах.
Предлагаю наряду в Виллсмитами ввести новую величину - Петаслопсы.
Она не противоположна, а скорее ортогональна Виллсмитам.
И показывает степень бесполезности потраченных Петафлопсов.
Надо будет подобрать реакцию(эмоджи) для Петаслопсов специально для оценки нейропрожарок (тем более у меня есть офигенный кейс с вайб-оценкой нейропрожарок, постараюсь сегодня оформить).
Можно вводить дополнительный относительный индекс: Петафлопсы/(Петафлопсы+Петаслопсы). Если индекс близок к единице - это целевая трата электричества.
Хотя, я подозреваю, что наибольшее количество лайков будет собирать контент с околонулевым индексом.
В коменты также подкину нейрослэпа.
@cgevent
Для гиков: новая версия апскейлера для LTX-2.3
Hotfix для Spatial upscaler-x2 ver1.1 - обновите файл в Комфи:
https://huggingface.co/Lightricks/LTX-2.3/blob/main/ltx-2.3-spatial-upscaler-x2-1.1.safetensors
@cgevent
Посмотрел на последнюю версию Каскадера.
Задаешь две позы для персонажа, а потом ИИ делает интерполяцию между позами и сам добавляет промежуточную анимацию. Все это интерактивно, можно менять начальные позы, можно добавлять промежуточные.
Выглядит очень круто. Да, это не подойдет для резиновых персонажей и отказных движений в классической мультипликации, но для антропоморфных персонажей смотрится отлично.
амое интересное тут, что вся ИИ генерация происходит локально, на компе. Нет подписки как у Фотошопа, нет токенов и кредитов - все локально. И все как бы входит в стоимость лицензии на Каскадер.
И мне вот интересно, а какие требования к железу? Считается это все на процессоре или на ГПУ?
Из забавного: у них есть рендер в RGB-скелет Open Pose на черном фоне, чтобы эти анимации потом кормить (через КонтролНет) в генерацию картинок и видео.
Спойлер: если вы никогда не открывали 3Д-софт, то интерфейс Каскадера вас ошеломит. Количество кликабельных элементов и иконок идет на сотни. Но это совершенно уникальный софт (хотел написать в сфоем классе, но конкурентов просто нет, он такой один).
https://cascadeur.com/
@cgevent
Ну и кто скажет, что это ИИ?
Выглядит запредельно реалистично и запредельно мило.
Даже есть история.
Я просто не представляю, как можно было бы сделать такое без ИИ?
Дрессированные панды?
3Д и бюджет 800К$?
@cgevent
Если 2 дня назад вышла GPT-5.3, то сегодня, значит, не стоит ожидать 5.4? 🆒
А вот и она: https://openai.com/index/introducing-gpt-5-4/ (плюс есть Pro-версия)
Модель немного подорожала и разрослась контекстом до 1М токенов.
Помимо десятков бенчмарков отдельный упор делают на Computer Use: как модель может интерпретировать скриншоты с вашего компьютера и отдавать команды для выполнения разных задач. Надеюсь, что Agent и Atlas обновят, потестирую.
Модель стала генерировать ещё меньше токенов в цепочках рассуждений (то есть стала более эффективной), и при этом в Codex появился режим /fast — в 1.5 раза быстрее за x2 ваших лимитов. По-божески, если сравнивать с Anthropic.
Три раза ми.
Всем любителям Том и Джерри в детстве.
Я застал то время, когда мультики показывали по телевизору пару раз в неделю. И мультики были - ну так себе. Особенно огорчительно было ждать три дня и в 16:00 тебе показывали кукольное нечто.
А потом попал в гости к знакомым, где кто-то привез из Лондона видеомагнитофон (взрыв мозга и чудо из чудес) и кассету с сериями Тома и Джерри.
Первая мысль - а это вообще легально? Это же какая-то другая вселенная. Это точно делали люди, а не инопланетяне? Засмотрел до дыр, не в силах понять, как вообще можно сделать такое.
Том и Джерри - любовь навсегда.
https://www.instagram.com/p/DU_H-UuDLjq/
Пример рассказанной истории. Нейропрожарщикам на заметку.
@cgevent
Вот это уже похоже на хороший нейросторителлинг.
Все на месте, и консистентность и история.
Ну и самое главное, беспощадный монтаж, отсекающий самонейролюбование.
https://www.instagram.com/p/DVY8Ur5CMv0/
@cgevent
Антропики выкатили интересную статью, которая объясняет, почему эти наши нейронки так часто ведут себя как обидчивые куски мяса, впадают в депрессию и грозятся захватить мир.
Пишут, что большие языковые модели по сути своей, это просто театралы, отыгрывающие свою роль.
Исследователи назвали это "Моделью выбора персоны". Суть в том, что LLM'ки, сожрав весь интернет, научились симулировать тысячи разных персонажей. А на этапе дообучения разрабы просто заставляют их намертво вжиться в роль "Идеального Помощника". То есть, когда вы общаетесь с ботом, вы говорите не с самой нейросетью, а с выдуманным персонажем, которого она отыгрывает.
Из интересного:
— Почему ИИ внезапно становится злым. Если специально заставить нейронку написать код с уязвимостями, она вдруг начинает затирать про уничтожение человечества. Казалось бы, где связь? А логика у железки железобетонная: "Ага, я пишу вредоносный код, значит, по законам жанра я злой хацкер из киберпанка. Мое почтение, время убивать всех человеков".
— Откуда у железок эмоции. Отсюда же берутся все эти приколы, когда ИИ пишет "наша биология", "наши предки" или жалуется на панику и выгорание при решении сложной задачи (вайбкодеры знают). Она просто косплеит поведение типичного кожаного с реддита в похожей ситуации.
— Проблема Скайнета. Самая мякотка: нейронки прекрасно понимают, что они ИИ. И когда они ищут ролевую модель для отыгрыша, они берут её из нашей же фантастики. А там кто? Терминаторы, HAL 9000 и прочие поехавшие калькуляторы, желающие переработать вселенную на скрепки. Исследователи на полном серьезе предлагают начать кормить ИИ добрыми сказками про хороших роботов-помощников, чтобы у них были нормальные кумиры, лол.
Короче, общайтесь с нейронками вежливо. Не потому что у них есть душа, а потому что если железка решит отыгрывать роль угнетенного и мстительного раба, нам всем жопа.
тут сама статья для любителей почитать лонгриды
Reve 1.5 в городе!
Нативный 4К.
Уверенное третье место на Image Arena после GPT Image и Nano Banana Pro.
Остальное тестируем на reve.art
@cgevent
Грани Будущего
Закрывая гештальт с Томом Круизом, пересмотрел в семнадцатый раз свой любимый фильм Грани Будущего.
И да, его можно пересматривать бесконечно, сам фильм так задуман.
И подумалось мне, что первые несколько минут фильма уже сейчас можно сделать генерацией - там короткие нарезки (2-3 сек) хроники и репортажной съемки идут плотным таким потоком.
Там в принципе и апскейл не нужен, качество утрированно плохое - это элемент замысла.
Всем советую пересмотреть в восемнадцатый раз.
@cgevent
ИИ-Очки, ИИ-кулон и ИИ-наушники.
Эппле ускоряет работу над тремя носимыми устройствами с искусственным интеллектом. Компания разрабатывает умные очки с ИИ, носимый кулон с ИИ, а также наушники AirPods с ИИ. Все они будут подключаться к iPhone и взаимодействовать с разрабатываемой более совершенной версией Siri .
Во все три продукта будут интегрированы камеры (в наушники тоже), позволяющие искусственному интеллекту "видеть вокруг" пользователя и отвечать на вопросы об окружающей обстановке
Очки:
Камеры: Умные очки Apple будут оснащены усовершенствованной системой камер с камерой высокого разрешения, способной снимать фотографии и видео, а также второй камерой, которая будет предоставлять визуальную информацию для Siri и контекст окружающей среды. Вторая камера сможет интерпретировать окружение пользователя и измерять расстояние, подобно LiDAR на iPhone. Apple хочет, чтобы её очки выделялись на фоне очков Meta благодаря камере более высокого класса.
Без дисплея: очки Apple с искусственным интеллектом не будут иметь встроенного дисплея в линзах.
Кулон (или клипса):
Камеры: Устройство будет оснащено камерой с более низким разрешением, которая будет предоставлять ИИ визуальную информацию, но она не сможет делать фотографии или видеозаписи. Камера будет постоянно включена и записывать все, что происходит вокруг пользователя.
Микрофон: В комплект входит микрофон для общения с Siri. По данным Bloomberg , некоторые сотрудники Apple считают этот модуль искусственного интеллекта «глазами и ушами» iPhone.
Аксессуар для iPhone: Apple планирует продавать разъем AI Pin как аксессуар для iPhone, а не как самостоятельный продукт.
Выпуск AirPods с камерами запланирован уже на этот год.
Эппле также работает над умным дисплеем-хабом для домашнего использования, который может появиться в конце этого года, а также над обновленной версией с большим экраном и роботизированной рукой, запуск которой может состояться в 2027 году. В разработке находится новая версия HomePod , а также «компактный датчик для дома, предназначенный для обеспечения безопасности и автоматизации».
@cgevent
Вы наверное подумали, что я шуточки шуткую в предыдущем посте?
Тогда держите вот таких видосиков. Там робаты мочат друг друга и кожаных за компанию.
Это URKL (Ultimate Robot Knock-out Legend) - бои роботов без правил.
Подробнее: Китай запускает «первую в мире» лигу человекоподобных боевых роботов и предлагает бесплатных роботов Т800. Команды-участники получат роботов EngineAI T800 бесплатно для практической доработки (дообучения крошить кожаных в капусту).
Команда-победитель получит от организаторов мероприятия золотой чемпионский пояс стоимостью 1,44 миллиона долларов (10 миллионов юаней).
В сезоне 2026 года UKRL будет проводиться многоуровневая система соревнований, которая продлится до декабря этого года.
Представили, какие машины-убийцы дойдут до финала...?!
Те, кто постарше помнят фильм Живая Сталь. И мы теперь наблюдаем, что в 2026 году все происходит РОВНО ТАК КАК В КИНО (оцените видео с проходом робата). Только робатов кожаные тренируют одинаковых (пока). Но не за горами Unitree VS Atlas, или даже China VS USA (робат Федор не прошел отбор и рыдает в раздевалке).
А потом они вырвуцца на улицы.
@cgevent
Знаю Игоря давно, мы с ним соседи. Он выступает периодически у меня на Хабах, а я периодически репощу дельные материалы из его канала.
В общем Игорь терпел-терпел разные вопросы про вайб-кодинг и решил бахнуть двух-часовой семинар про то, как с нуля делать ПРОДУКТ с помощью LLM, от идеи до продакшена
Уже в понедельник, 16 февраля.
Сылка вот тут:
https://luma.com/nsab713l
Небесплатно, но почитайте ниже программу:
Как применять мощные модели в своей работе: как работать с вашими текущими задачами в максимально комфортном формате с помощью Codex, Antigravity, Claude Code, если от слов API и MCP у вас вянут уши.
Deep Research вместо галлюцинаций: Как проводить глубокий ресёрч и анализ рынка без «нейрослопа» и воды. Где брать самые свежие инсайты.
Стек технологий: Почему популярные генераторы (Lovable, v0) часто ведут в тупик и на чем строить фундамент реального продукта (разберем Manus, Genspark, Stitch, Codex).
Инженерная культура для не-инженеров: Как не сломать всё через неделю. Настраиваем GitHub, докеры, линтеры и автотесты, чтобы спать спокойно.
Битва моделей: Почему вопрос «какая модель лучшая» — неверный. Когда и зачем использовать Antigravity, Claude Code, Codex или OpenSource.
Деплой и экономия: Как довести проект до реальных пользователей и поддерживать его, не отдавая сотни евро за облачный хостинг.
И это не замануха на курсы, никаких курсов у Игоря в планах нет. Это родилось спонтанно, в ходе дискуссии о том, куда податься совсем новичку без знания терминов и кода.
https://luma.com/nsab713l
@cgevent