cgevent | Unsorted

Telegram-канал cgevent - Метаверсище и ИИще

37760

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn

Subscribe to a channel

Метаверсище и ИИще

Это вам за то, что не молитесь.

Кстати, этот таракан - не рендер, а вполне себе видео нового робата Miro U, которого планируют поставить на заводы, заменять жалких двуруких кожаных.

Ног у него нет, есть платформа на колесах, так что убежать от него можно по лестнице или сугробам.

@cgevent

Читать полностью…

Метаверсище и ИИще

Предлагаю ребрендинг – не АИ слоп, а эко-текст и не бездушная АИ-картинка - а эко-графика

Потому что текст из LLM и генеративные АИ-картинки оставляют намного меньший отпечаток карбона в мире, чем реальные художники и писатели ☕️

Читать полностью…

Метаверсище и ИИще

Ещё немного Диснея/Пиксара.

Только вместо мехатроники чистая генерация.

Это Клинг 2.6 Motion Control.
И это уже хорошо!

Такой нейромокап нам нужен.

Конечно, именно, Эластика двигалась бы по другому, но меня удивляет качество картинки.

Новый нормальный композ однако.

@cgevent

Читать полностью…

Метаверсище и ИИще

Банана Красава.

Вот взяли я цветик-девятицветик, который GPT Image 1.5 мне впаривал за семицветик, и говорю: удали два лепестка!

Апажалста!

Чем не семицветик?!

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

Ролик «Добрый Кола» задумывался как ответ на новогоднюю нейро‑рекламу Coca‑Cola: не пародия и не копия, а та же идея праздника, переосмысленная в российском контексте. Мы передали атмосферу русского Нового года, пушистой зимы, ожидания подарков под ёлкой и присутствия Деда Мороза, которых так не хватает в оригинальном ИИ‑ролике.​

Над проектом работала команда из 4 человек, производство растянулось на 3 недели в свободное от других задач время. Бюджет на нейросети удалось удержать в районе 20 000 рублей за счёт максимально экономного подхода и выверенных промтов.

В процессе работы появилась концепция «макромира» с грузовиками, на которой построена завязка истории и связка с грузовиками. Эта идея задала тон дальнейшей детализации: сцены многократно перерабатывались, пока «локализованная копия» не превратилась в самостоятельный "фильм" с цельной драматургией, а не набор кадров.​

Из интересного:
За основу грузовика взята реально существующая модель кабины Камаза.
В видео была добавлена точная копия моста в Москве, реально существующие локации Суздали и Санкт-Петербурга.

Инструменты:
Нейросети —
weavy.ai, Krita AI Diffusion, Grok, Midjourney, Google AI Studio Pro, Kling O1, Adobe Firefly Video, Veo, Suno, ElevenLabs.
CGI — PS, After Effects, Nuke.

Производство нейро‑ролика стало для команды и техническим, и творческим экспериментом. От раскадровки и поиска визуального языка до подбора «локаций» внутри нейросетей. Ключевой задачей было собрать цельную, живую историю с понятной линией повествования и эмоциональным стержнем там, где зрители привыкли видеть просто красивый, но случайный набор AI‑картинок.

Авторы
Service Ai —
@AIServiceAdmin, @FischeR_ts и @ITS_A_PC
CGPX —
@mc_point

@cgevent

Читать полностью…

Метаверсище и ИИще

GenFlare 2.0: Вы будете смеяцца, но вот вам новый видеогенератор.

На этот раз отличился Baidu (авторы Ernie LLM).

Если вы зайдете на:
https://artificialanalysis.ai/video/leaderboard/image-to-video
то увидите, что в категории Image-2-Video модель Baidu GenFlare 2.0 побивает всех, включая Клинг и Veo.

Самые нетерпеливые могут попытаться прорваться сквозь китайский язык тут:
https://huixiang.baidu.com/

Самое удивительное, что модель, похоже, с низкой социальной ответственностью.

@cgevent

Читать полностью…

Метаверсище и ИИще

OmniPSD: Layered PSD Generation with Diffusion Transformer

Интересная работа, где в авторах Lovart.ai

Это генерация картинок сразу в PSD.

Упор на то, что можно дать картинку на вход и получить слои с текстом, объектами и фоном.

Кода нет, но есть демо на Lovart.ai

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

Автор: Режиссер\Сценарист Максим Слюсарев - /channel/keyframepro

🛠 Цель: Создание комедийного ролика для презентации компании производителей роботов и обязательно с упоминанием кока-колы.

⏱️ Срок: 3 дня.

💡 Откуда взялось. Оказывается реклама кока-колы - это мем в рядах китайских создателей робототехники. Понять тонкую игру китайского юмора мне было не суждено. Но я понял задачу. Совместить роботов, ии и кока-колу. А о чем я еще мог рассказать, как не о наболевшем на съемочной площадке?

🔎 В чём. Sora 2 pro, Kling 2.6

✅ Клиент остался доволен. Показали на каких-то больших выставках в Шанхае. Надеюсь, кто-то там смеялся.

🖥 Особенности генерации. Сора 2 - подарок небес. Клинг 2.6 хороший подмастерье, который можно ставить в монтаж рядом с Сорой и будет выглядеть одинаково. Банана Про, куда уж без неё, еще одно счастье. Но что я заметил, в связи с этими инструментами. Если раньше мне нужны были промт инженеры, которые делали мне нужные статичные и видео генерации, то чем дальше я иду, тем меньше нуждаюсь в команде. ИИ учится делать всё сам и это тенденция.

📌 Итог: Мне тут пишут читатели, которые хотят попасть ко мне в команду, а я им и отвечаю, что идите братцы на режиссерские курсы, потому что без этой профессии скоро будет никуда. Рекламную индустрию ии уже целиком перепахал, на очереди кино.

Всё что спасает киношников, что пока не предвидится массового перехода на 4к и длинные генерации. Судя по тарифам, кратное увеличение длины генерации поднимает цену в геометрической прогрессии, тоже самое произойдёт с увеличением разрешения. Если вы богатый буратино, то это и не страшно, но даже для вас всё так или иначе закончится до того момента, пока не построят необходимое количество дата центров. А это, по слухам, может растянуться на 8-10 лет.

Так что же, киношникам можно пока спать спокойно? Трудно сказать. Когда технология упирается в бутылочное горлышко, то начинается оптимизация. И кто знает, что умельцы с помощью новых моделей напишут себе на подмогу, чтобы справиться с ограничением по вычислительным мощностям.

Я уже разок ошибся в этом году, предсказав более медленное развитие. Так что говорить, что не случится массового 4к, не буду, хоть и сам в этом сомневаюсь.

📝 Технические детали:

• Делал в Higgsfiled: местами они конечно чёртовы капиталистны, но цены у них самые божеские особенно на годовые предложения по банане.

• Генерил я в 1080

• Промпты: Всегда пишу сам. Обленился до того, что теперь пишу на русском, и приходится бить себя по рукам, ведь если хочешь, чтобы персонажи говорили на английском, то и писать надо на английском.

• Голос: Sora 2 и Kling 2.6

• Музыка: Suno (последние деньки без рабства Warner, эх)

• Монтаж и цветкор: в премьере подкрутил

Потрачено примерно 40 тыс рублей.


@cgevent

Читать полностью…

Метаверсище и ИИще

Когда ты просто пытаешь закрыть Блендор и не сохранить проект...

В конце становится ну очень смешно

https://x.com/kensyouen_Y/status/1996511510546510083

@cgevent

Читать полностью…

Метаверсище и ИИще

Gemini 3 Deep Think

Только для подписки Ultra.

Не очень понимаю, почему не сделали 1-2 запроса в день для подписки Pro.

@cgevent

Читать полностью…

Метаверсище и ИИще

Вышел Seedream v4.5

Если вкратце: лучше в тексты, чище детали, ну и точнее редактирование. И фирменное 4К.

Если вдлинце:

1. Material & Detail Preservation. При извлечении объектов или смешивании нескольких изображений модель сохраняет мелкие детали и текстуры, а не усредняет их в кашу.

2. Typography & Design Intelligence. Тексты, дизайн упаковок, плакаты и вот это вот все. Мелкие тексты, выноски, диаграммы. Прокачано.

3. Realistic Character Generation. Качество портретов значительно улучшилось. Черты лица остаются четкими даже в том случае, если объекты занимают небольшую часть кадра. Текстура кожи, освещение и выражение лица выглядят лучше.

4. Multi-Reference Coherence.
До 10 изображений на входе и на выходе структурно согласованный результат. Модель сохраняет согласованность в сложных композициях — идентичность персонажей сохраняется, стилевые элементы естественно сочетаются, пространственные отношения учитываются.

А теперь мой спойлер: это все где-то между Нанабанана и НанабананаПро.

Это если в среднем по больнице. Но у вас наверняка есть области, где именно Сидрим решает ваши задачи лучше других. Поделитесь в коментах.

На Дримине пока нет, но есть уже много где:
https://fal.ai/models/fal-ai/bytedance/seedream/v4.5/edit
https://www.imagine.art/image
https://www.somake.ai/ru/tools/seedream
https://wavespeed.ai/models/bytedance/seedream-v4.5

@cgevent

Читать полностью…

Метаверсище и ИИще

Интересная динамика по месяцам с 2023 до 2025.

Как китайские модели захватывают мир.

Из европейских я знаю Мистраль и теперь Flux. Есть еще LTX из Израиля. И Хиггс из Казахстана, но у них офис в Сан-Франциско.

@cgevent

Читать полностью…

Метаверсище и ИИще

Зимаж.

Предлагаю так называть новый генератор Z-Image от Алибабы, которые приподвзрывает интернетик.

Модель оказалась сильно круче, чем я ожидал, а на фоне очень пессимистических реакций по поводу второго Флюкса, это похоже на глоток свежего опенсорса и флешбеки к временам Stable Diffusion 1.5.

Меня сильно напрягло, что сами алибабцы писали в твитторе, что опенсорсят только Turbo и Edit модели. В Issues на Гитхабе отмалчивались.

Но вот сегодня я разыскал спойлер от Modelscope, где они пишут, что Base модель Зимажа тоже опенсорснут. Может быть даже до конца недели.

Но я считаю, что самым главным признаком того, что Зимаж пойдет в массы, является факт, что на Civitai появилась первая порно-лора (и просто лора) под Зимаж Турбо.

Ostris уже пилит де-дистилят для Турбо, а всякие fp8 позволяют запускать генерации тренинги на совсем уже вялых видеокартах.

Следим и ждем ответочку от Qwen (подозреваю, что весовая категория там будет повыше).

@cgevent

Читать полностью…

Метаверсище и ИИще

Суно фсё?

В потоке отличных новостей встречаются и ложки дегтя.

Warner Music Group прогнул Suno на совместное соглашение, которое попахивает шантажом.
Теперь они вроде как партнеры, но, внимание, в 2026 году Suno должна ИЗБАВИТЬСЯ от существующих моделей и выкатить новые, кастрированные, обученные на лицензионном контенте.

У меня нет слов.

“several changes to the platform, including launching new, more advanced and licensed models, the current models will be deprecated”.

А скачивание песен будет только за деньги:

«В частности, в будущем песни, созданные на бесплатном тарифе, не будут доступны для скачивания, но их можно будет воспроизводить и делиться ими».

По данным компании, пользователи платного тарифа будут иметь ограниченный ежемесячный лимит на скачивание с возможностью оплатить дополнительные скачивания.

Warner Music Group также отмыли через стартап немного денег, заставив Suno купить Songkick, платформу для поиска концертов и живой музыки (зачем?!?!).

В общем я в печали. Бабло побеждает добро.

@cgevent

Читать полностью…

Метаверсище и ИИще

WorldGen: Больше 3Д-миров Создателю 3Д-миров.

Цукерберг насмотрелся на Marble и Genie и бахнул свой генератор 3Д-миров. И какой!

В отличие от остальных, где есть вид из одной камеры, это реально кусок 3Д-мира, размером 50 на 50 метров, который можно взять и присунуть в Юнити или Анриал.
(Для тех кто задумался про интернет-метры, я полагаю, что это единицы измерения в Юнити).

Метачка описывает WorldGen как современную комплексную систему для генерации интерактивных и навигационных 3D-миров на основе одного текстового промпта использующую цепочку 2D- и 3D-технологий, а не одну единственную модель.

«WorldGen основан на сочетании процедурного мышления, генерации 3D-изображений на основе диффузии и декомпозиции сцены с учетом объектов. Результатом являются геометрически согласованные, визуально насыщенные и эффективные с точки зрения рендеринга 3D-миры для игр, симуляций и иммерсивных социальных сред».

И самое главное, это не сплаты как Марбл или не видео, как в Genie - это честные 3Д-меши (тут я недоверчиво ерзаю на стуле), которые можно вгружать куда угодно.


Пайплайн генерации такой:

(1) Planning
1. Procedural blockout generation
2. Navmesh extraction
3. Reference image generation

(2) Reconstruction
1. Image-to-3D base model
2. Navmesh-based scene generation
3. Initial scene texture generation

(3) Decomposition
1. Part extraction with accelerated AutoPartGen for scenes
2. Data curation for scene decomposition

(4) Refinement
1. Image enhancement
2. Mesh refinement model
3. Texturing model

Теперь плохие новости: продукта пока нет. Метачка работает над скоростью генерации (пока очень медленно) и над бОльшими размерами миров.

Можете посмотреть на проходы по таким мирам тут:
https://www.uploadvr.com/meta-worldgen-ai-generates-3d-worlds/

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

Санта спасает Деда Мороза как метафора оттепели.

Решил сделать сиквел своему прошлогоднему ролику про Деда Мороза из СССР - на этот раз история дополняется еще одним персонажем и приобретает более оптимистичный дух. Постарался проработать концепты таким образом, чтобы просто кричали о той или иной идеологии - также есть несколько пасхалок (например у санты турбины от Lockheed Martin)

Первую часть можно посмотреть тут (решил слегка изменить цвета ДМ на синий, чтобы был контраст на фоне Санты)

Главным челленджем было выжать максимум динамики и кинематографичности, чтобы все шоты хорошо клеились друг с другом и не сбавляли темп.
Около 70% ролика анимировано в Минимакс 2.3 и Минимакс 02 (только он поддерижвает кейфреймы) - только лишь они давали такую динамику камеры/частиц и объектов в кадре, клинг и сидэнс в этом плане явно отстают.

Липсинк как всегда был болью и никакой магической пилюли пока нет) - был сделан на модели lipsync v2 pro

Голоса - elevenlabs

По затратам чуть вылез за пределы одной подписки хиггсфилд (90$) - поэтому можно считать около 120$ на все про все - некоторые шоты требовали сумасшедшего кол-ва дублей, чтобы получить что-то стоящее.

Ну и конечно же много монтажа и катов) Без этого никуда, иначе не получилось бы прикрыть большое количество артефактов, при этом не потеряв в динамике

Сделано Алексеем Лотковым и Демидом Гурьяновым

@cgevent

Читать полностью…

Метаверсище и ИИще

Ну, за аниматоров!

Тут вот прям просится выражение "из говна и палок", но палки в данном случае довольно замысловатые:

Time-to-Move (TTM)

Wan 2.2 Video Model

SAM 3 (Meta)

Qwen Image Edit

ComfyUI

Wan Animate

AI Toolkit (LoRA Training)

Есть подробный туториал о том, как это было сделано.

A я вот подумал, что хорошо бы пропустить через это дело большинство страшных кукольных мультфильмов из моего детства.

А то бывало ждёшь целый день, когда по телевизору в 16.00 покажут мультики.
И думаешь: если рисованные - то отлично. Если кукольные - то отстой.

https://youtu.be/pUb58eAZ3pc?si=5eRjIqG_ocn_pfA5

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

Команда: "Нейростанок"
короткометражный ролик "Я все верну"

🛠 Задача: Создать короткометражный ролик с легким сюжетом в реалистичном стиле.
⏱️ Срок: 50-60 часов чистого времени.
👥 Команда: 2 человека. Разделили задачи по направлениям: — Видео, липсинк, звук. — Арт-дирекшн, статика, монтаж.
💡 Идея и Сеттинг:
Выбрали Микки — мы его фанаты), поэтому решили с ним поработать. Хотелось сделать что-то современное и с юмором, отправили его гулять в Москва-Сити. Вписали в сценарий российские бренды, чтобы продемонстрировать потенциал их интеграции в нейро-видео. Сюжет рождался в моменте, как творческий эксперимент.
Главная техническая цель — демонстрация работы бесшовной камерой с сохранением консистентности окружения и персонажа, а также общий тест наших возможностей.

🎬 Стек и Пайплайн:

Персонаж (Микки): Ideogram
/Seedream.

Статика: Nano Banana (первая), Seedream 4

Анимация: Kling 2.1 (Start-End) и Kling 2.5 (Start-End).

Липсинк: Infinity.

Звук: ElevenLabs + Kling v2a (через
Fal.ai).

Пост: Photoshop, Topaz (апскейл до 4К 60fps).

Монтаж: Davinci, AE

🚧 Технические боли и Решения:
Главный вызов — бесшовная камера.

Проблема 1 (Движение): Для склеек нужны были последовательные движения камеры, а генераторы выдавали рандом. Регулировали промптом, точным подбором Start/End кадров и монтажом (выбор лучших шотов).

Проблема 2 (Генераторы): Тестировали Hailuo, Veo 3.1, Seedance — все они меняли конечное разрешение или масштаб объектов, что ломало склейку.
✅ Решение: Полностью перешли на Kling, так как он единственный четко приводит анимацию в указанный End-фрейм.

Проблема 3 (Дорисовки): Если в кадре отсутствовали детали, Kling дорисовывал "что попало". Лечили доработкой стилов в Photoshop под End-фрейм и очень детальным описанием сцены.

Проблема 4 (Птеродактиль): Хотели, чтоб птеродактиль говорил, к сожалению корректно лип на него не лёг ни в одном V2V-инструменте.

🔊 Звук (Инсайт):
Поначалу использовали ElevenLabs, но для SFX (звуковых эффектов) Kling v2a оказался намного круче: он лучше понимает промпт и выдает стерео, в то время как ElevenLabs часто сваливался в моно.

💰 Бюджет:
Суммарно расходы составили $236 (около 23-24 тыс. руб).

Основная часть ($208) ушла на Kling через
Fal.ai (версии 2.1 по $0.45 и 2.5 по $0.35).

Подписка Higgsfield ($49) — для безлимита в Seedream и Banana.

📌 Итог:
Добились результата именно через связку Start-End анимации и ручной доработки промежуточных кадров в Photoshop, когда нейросети не знали нужных объектов или ломали масштаб.
P/S Знаем что присутствуют ляпы и нюансы, но на этом этапе решили остановиться. Надеемся, вайб и идея перевесят технические огрехи.✌🏼
Автор: Нейростанок
Телеграм:
@neurostanok
сайт:
https://нейростанок.рф

@cgevent

Читать полностью…

Метаверсище и ИИще

Оппаньки, Нанабанана так бодро начала в опросе, а потом слила первенство GPT Image 1.5

Хотя если взять настроения из коментов и пошуршать в твитторе на этот счет, то там мнение "Банана рвет GPT Image" как тузикь старую клизьму.

Неожиданно.

Мое мнение такое: GPT Image как будто пытается изо всех сил понравится, поэтому перебарщивает с деталями и с контрастом. Как будто там был RLHF на цыганах. Банана поспокойнее и поуниверсальнее.

Я\МЫ БАНАНА!

Смешное: SD1.5 теперь можно трактовать как SeeDream 1.5.

@cgevent

Читать полностью…

Метаверсище и ИИще

Сингулярный декабрь.

Для админа это выражается в том, новостей становится больше, чем он может переварить. Я же их, новости, пропускаю через свое диванное видение, бОльшую часть разбираю и щупаю, но их становится слишком много. Я уже давно не пощщу что-то типа "вот новая лора для N" или "очередная китайская шняга на базе WAN 2.1".

Вот например, вчерашний пакован новостей:
Kling 2.6 Input Audio
Seedance 1.5
GPT Image 1.5
Hunyuan 3D v3
Flux.2 [max]
Wan 2.6
Trellis.2
SAM audio
Hunyuan World 1.5

О чем-то напишу сегодня, что-то не успею..

Что же будет к концу года?
Инфосингулярность?

@cgevent

Читать полностью…

Метаверсище и ИИще

Комфи на удаленной машине

Спойлер, тут гики, сидящие в Комфи пару лет будут ржать над моими изысками, ибо все как бы очевидно, но моя задача была поглядеть снова на Комфи продуктовым взглядом, взглядом тех, кто прям сейчас думает, а не попробовать ли мне лапшичный бульон снова.

Похоже, что Комфи остается единственным развивающимся вариантом генерации картинок и видео (и не только).
Автоматик умер, Forge остановился в развитии, есть еще Forge Neo, поддерживаемый одним человеком, и потому способный загнуться в любой момент. Есть еще SD.Next.

Но я решил обновить свое же представление о Комфи. Ну и как обычно, новости две, хорошая и плохая.

Сначала о хорошем. Мой ноут имеет 2080 и 8 гиг врам, поэтому я все генеративные штуки запускаю в облаке на immers.cloud. В прошлый раз они оперативно по моей просьбе сделали конфигурацию с H100 и 256 гиг оперативы, поэтому я полез создавать сервер с Комфи. Оказалось, что в списке предустановленных конфигов уже есть сервак с Комфи, поэтому я просто выбрал его и сервак через минуту был готов.

Тут надо оговориться, что мне как пользователю SGI в прошлом немного проще с Линуксом, но чтобы запустить Комфи на удаленной Убунте надо исполнить скрипт "source ./venv/bin/activate" с папке с Комфи. А потом еще прокинуть туннель в Putty. На локальной машине с Виндой все это, конечно, не требуется.

После чего Комфи запустился удаленно с UI на моем ноуте. Я его обновил прям из Комфи Менеджера и полез смотреть, чего наворотили.
А наворотили много чего, но самое главное, поддержку из коробки самых последних моделей (Day 0 support). Приятно, что просто вбиваешь в поиск в темплейтах "z" или "hun" и Комфи выдает тебе готовые воркфлоу Зимажа или Хуньяня. Не надо, как раньше, бегать по интернету с протянутой рукой.

Теперь открываешь воркфлоу, а оно тебе пишет, чего не хватает, и, что очень здорово, говорит откуда скачать и, самое главное, куда положить. Раньше это было просто приключение и чтение реддита часами.
На удаленной машине это немного сложнее, но благо есть кнопка "Copy URL", поэтому вооружившись wget и командной строкой (или WinSCP) можно скачать и разложить недостачу по папкам.
И все сразу заводится! Нет больше возни с кастомными нодами, git clone и неведомыми папками. Это радует.

Так я очень быстро завел Z-Image Turbo и Hunyuan Video 1.5.
Забавно, что Z-Image считает картинку на Н100 менее чем за 2 секунды.
Hunyuan Video тоже завелся с первого раза и даже выдал очень неплохую картинку, мне кажется, эта модель недооценена.

В общем, мне понравилось, что теперь создание сервака с Комфи и запуск его на immers.cloud занимает реально пару минут.

Теперь о плохом.
Installed frontend version 1.25.11 is lower than the recommended version 1.33.13
This error is happening because the ComfyUI frontend is no longer shipped as part of the main repo but as a pip package instead.

Ну то есть Комфи разрабатывается отдельно, а его фронтенд отдельно. Разработчики так наверное прикалываются. Вроде стараются делать все для людей, но получается по старинке.

Лечится:
python3 -m pip install -r /home/ubuntu/ComfyUI/requirements.txt
Но если обновлять Комфи через git pull, фронтенд опять слетает.

Ну и самое главное, вот открыл я Hunyuan Video Template, и там вроде все подписано, но это .. все равно каша. И ты такой жмешь кнопку Run и оно даже работает, но понять схему апскейла, например, в принципе невозможно методом пристального взгляда.

Короче:
Комфи стал ближе к народу, кнопка Run работает с первого раза и есть поддержка всякого свежака.
Комфи по прежнему далек от народа, сделать Plot XY или пристегнуть Лоры без готового темплейта пользователь, привыкший к культуре Автоматика, не сможет.

Продолжаю наблюдать...

Холивары в студию...

@cgevent

Читать полностью…

Метаверсище и ИИще

Рефлексия AI-стартаперов.

Часто пересекаюсь с Димой Беседой на разных мероприятиях, у нас на Кипре их не так много, но и Остров небольшой - все друг друга знают. У него есть свой клуб GROW, я там как-то зажигал с лекциями про ИИ и будущее контента.

Кстати, Кипр - страна победившего Телеграма, здесь все вопросы решаются именно в телеге, а развитая сеть чатов, каналов и групп полностью заменяет традиционный web, я регулярно забываю проверять архаичную почту, а на сайты хожу все реже.

И да, у Димы тоже есть канал - это нескучный дневник опытного действующего предпринимателя. Рефлексия, управление людьми, подходы к маркетингу и разработке продукта в стартапе, факапы, вакансии и развитие международного AI-стартапа в реальном времени без утаивания «неудобных» деталей. Канал легко читается, написано доступным языком без заумных слов.

Основной фокус Димы сейчас - международный венчурный стартап Spiry: AI-продюсер коротких видео для креаторов в Instagram, TikTok и Youtube. В команде сейчас 15 человек, Дима полностью финансирует всю компанию и full-time операционно вовлечен в проект.

К тому же Димон не новый нормальный стартапер, а махровый такой серийный предприниматель.
- Сделал exit с проектом LF.Group - инструменты для игровых комьюнити и продал корпорации Xsolla;
- Со-основатель Overgear - маркетплейса для геймеров, одного из крупнейших провайдеров услуг и валют в виртуальных мирах;
- Со-основатель проекта, связанного со скинами Counter-Strike (NDA), более 5 млн пользователей в месяц

А еще он продавал виртуальных коней члену королевской семьи Дубая))

У Димы в канале много про креаторов и для креаторов.

Примеры интересных постов

/channel/dimabeseda/100 - как максимально эффективно использовать каждую минуту команды, не похоронив стартап большим количеством процессов

/channel/dimabeseda/95 - как понять, что продукт готов к первому запуску, не обманув себя и пользователей

/channel/dimabeseda/86 - метровый плюшевый член как финальный тест на совместимость по ценностям перед наймом

Если вы находитесь в треугольнике с вершинами из ИИ, предпринимательства и креатива, то вам явно есть чего почитать в канале у Димы, люто плюсую.

@cgevent

Читать полностью…

Метаверсище и ИИще

Nano Banana Pro Flash

Выйдет до конца года. При сопоставимом качестве более дешёвая при использовании через API.

@cgevent

Читать полностью…

Метаверсище и ИИще

Никак не могу прийти в себя, после того что Warner Brothers сделали с Suno и Udio.

Очень странный прецедент.

Получается, что на картинках из интернета обучаться можно, что можно спарсить все видосы и натренировать видеогенераторы, про тексты я вообще молчу, а именно музыку(звук) нельзя использовать для обучения.

И что именно музыкальные генераторы надо тренировать на некоем сферически-вакуумном контенте.

Пример Адоба и провала такого подхода к картинкам и видео, говорит нам о том, что ничего хорошего не получается.

Но факт остается фактом - Suno и Udio удалят свои натренированные в 2025 году модели, и выкатят кастрированные версии в 2026 году.

Почему?

Потому что в музыкальной индустрии больше денег, злее юристы и больше крупных олигархов от музыки?

Почему видео можно, а музыку нельзя?

@cgevent

Читать полностью…

Метаверсище и ИИще

Прошло 2.5 года. Tesla Optimus на марше

Если раньше они шли за вами, то теперь они за вами бегут.

Все еще мерещится рендер? Вытеснение отрицательного?

@cgevent

Читать полностью…

Метаверсище и ИИще

Тот самый Whisper Thunder (aka) David оказался новым Runway 4.5.

Судя по тому, что он побивал всех на LM Arena - основной прирост - качество генераций.

Также разрабы пишут, что нехило прокачали физику и понимание отношений между объектами. И что понимание промпта стало лучше.

Все это повод для неистовых тестов.

Но Клинг задал новую планку - редактирование видео. И теперь всем видеогенераторам придется что-то отвечать на это.

А теперь задумайтесь в какое время мы живем! В один день выходят по ДВА анонса новых версий видеогенераторов!

И мы такие водим жалом: а где-тут лучше физика, а где освещение, а вот тут 15 секунд дают, а тут интеграция с бананой..

Фаза "ой смарите чо!" очень быстро перешла в фазу "ну и чо выбрать?!"

На дворе декабрь 2025. И он только начался. И судя по всему в декабре будет еще анонсов примерно как за последние 11 месяцев.

What a time to be alive!

https://runwayml.com/research/introducing-runway-gen-4.5

@cgevent

Читать полностью…

Метаверсище и ИИще

Нейропрожарка

Проект - «Два монаха»

Автор: @aidirected

Идея: Полностью импровизированный проект. Сначала делался просто для теста, без какого либо сценария и идеи, а в моменте сценарий сам рождался.

История: это мини история о внутреннем мире человека, где на шахматной доске мы вечно боремся с самим собой, где встречаются наши собственные ангел и демон, которые сначала кажутся врагами, а после великими союзниками.

Создание: Поскольку я только начинаю интегрировать свой режиссерский опыт в Ai проекты, (до этого работал в классическом продакшене) то всё делалось доступными и относительно простыми способами в higgsfield. Генерация кадров в основе в Nano Banana Pro, наброски локации были в Midjourney. Основную ветвь генерировал в Kling 2.5 и самое сложное это драка, больше всего из всех с этим справился Minimax (и конечно понимаю что со значительными косяками, но в данном случае подошли эти все «не идеальности» подчеркивая где то воздух, а где-то энергию движения).

Сроки: 6-7 дней. Работа в одного. 2 дня заготовки локаций, героев и реквизита (разные пробы и ошибки), 2 дня - генерация рабочей раскадровки и 2-3 дня монтажа и саунда дизайна.


@cgevent

Читать полностью…

Метаверсище и ИИще

🚨Напрасный риск или возможность? 95% ИИ-трансформаций проваливаются

Статистика с полей внедрения ИИ продолжает поражать неподготовленные умы. MIT (Massachusetts Institute of Technology) пишет, что 95% инициатив не взлетают. Benedict Evans тушат огонь бензином добавляют: 50% (половина, Карл!) компаний просто бросает попытки.

Как оказаться среди тех, кто всё-таки доводит дело до результата?
Нужна не технология, а правильный подход: понятная методология, рабочие процессы, адекватная архитектура и люди, которые умеют всем этим управлять. И вот этому как раз почти никто не учит — в основном дают базовую «нейрограмотность» и на этом всё.

А вот ребята из AIM подошли к теме совсем иначе. Опираясь на реальный опыт цифровизации и внедрения ИИ в среднем и крупном бизнесе, они сделали тренинг для лидеров ИИ-трансформации — тех, кто выбирает инструменты, настраивает процессы и приводит команды к конкретной бизнес-ценности, а не к очередному фейлу.
Эта должность, так или иначе, появится во всех компаниях которые не собираются закрываться. Она называется ИИ-бизнес-партнёр (AIBP) — человек, который связывает стратегию, технологии и процессы. Спрос на таких специалистов уже растёт, и дальше будет только ускоряться.

Если резюмировать, что делает AIM, они дают не «курсы про промпты», а реальную практику – концентрат навыков, который нужен лидерам ИИ-трансформации.

Итого:

🎯 Измеримый результат
За 2 оффлайн-дня вы получаете практический набор навыков и инструментов, которые позволяют запускать и проводить ИИ-инициативы так, чтобы они приносили реальную ценность.
После тренинга вы сможете:
Проводить аудит цифровой AI-зрелости компании
Приоритизировать процессы и рассчитывать ROI проектов
Обучать людей и работать со страхами и возражениями
Самостоятельно создавать и внедрять прикладных AI-агентов
Выбирать надежных ИИ-интеграторов и контролировать внедрение
Защищать стратегию и бюджет перед руководством
🔝 Для кого?
Тренинг для тех, кто отвечает за ИИ-инициативы или хочет стать лидером ИИ-трансформации в компании.

🚀 Пост-тренинговая поддержка и инструменты
Мы не бросаем участников после обучения. Вы получаете поддержку, которая обеспечиваются системные изменения:
🤝 Еженедельные Мастермайнды: Онлайн-встречи с экспертами и коллегами для разбора ваших реальных задач.
💼 Помощь с защитой бюджета: Наша команда помогает вам подготовить и защитить план внедрения перед руководством. Это критический шаг для получения системной поддержки!

🗓 Детали
Даты: 9 и 10 декабря 2025 года.
Формат: 2 полных дня ОФФЛАЙН в Москве.

Тренеры: Сэм Якушев, Дмитрий Афонов и Алина Новикова.
👉 Готовы получить компетенции, которые переведут вашу компанию в ряды лидеров?
Запишитесь и получите подробную программу по ссылке: aimedu.ru или @ABD_Roman

#промо

Читать полностью…

Метаверсище и ИИще

Ну и зачем теперь женицца?

@cgevent

Читать полностью…

Метаверсище и ИИще

3Д-зазеркалье

Поглядите, что народ вытворяет со сканированием и гауссиановыми сплатами.
Прикольно, что это не мир за дверью, куда можно пройти с телефоном и камерой, а мир в зазеркалье.
Понятно, что в зазеркалье все расплывается, но на то оно и зазеркалье.
Я впечатлен.

Если не верите и хотите сами пошастать по зазеркалью, то пажалста:
https://superspl.at/view?id=0feb4c5c

@cgevent

Читать полностью…
Subscribe to a channel