Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn
Я тут мучаю Hallo. Получается чуть лучше, чем у ТикТока. Видео сделано по одной фотке и аудиофайлу.
Из интересного - оживляторы лиц не любят мелкие детали, типа веснушек, и я попробовал пройтись по результату с помощью FaceFusion в режиме FaceEnhancer, там много моделек для этого, мне нравится gfpgan.
Он сглаживает косяки, но гримирует веснушки!! Нет добра без худа!
И вот что мне подумалось.
Вот есть Face Enhancer-ы, Face Fixer-ы, липсинк, улучшатели деталей. Но никто не решает проблему зубов!
А она торчит из всех ротовых щелей!
Можно уже сделать сеточку типа Ortho Smile? Чтобы фиксила все эти плавающие зубы. Задача вроде несложная, лэндмарк единственный и понятный, трекается хорошо.
Даешь Dental Diffusion!
Похоже это лето, будет летом видео, как в 2022 году было лето картинок.
Тут подписчица Наташа, прорвалась к Клингу и вот что она пишет.
"Банят многое. Обнимашки нейтральные не проходят, упоминания великих художников тоже, упоминания реальных объектов архитектуры тоже. Сложно подбирать промпт на китайском".
Поглядите, что у нее получается. В коментах больше пингвинов и пеликанов.
Меня, как обычно, цепляют визуальные эффекты, сидит эфыксер такой и пишет: "давай апокалипсис на все деньки и Оскара!". Ну и дает.
А еще все озверели от Dream Machine, которая на фоне релиза Runway GEN-3 выкатила возможность генерить 60(!) секунд видео в дополнительными управлялками. Замена фонов, персонажей и редактирование. Похоже надо покупать подписку, чтобы посмотреть.
Также релизнулась Open-Sora 1.2 - качество уже смотрится как шлак, но это опен сорс!
В общем, нас ждем горячее лето, ибо в ход пошли модели с пониманием мира (world model), натренированных на видео, в отличие от ветки AnimateDiff, где просто идет морфинг изображений в латентном пространстве.
Ждем ответочки от Пика Лабс, троллинга от OpenAI, истерики от Гугла и шквала моделей от китайцев.
Пришла рассылка от Леонардо.
Они натренировали свою foundation model под названием Феникс.
Если раньше они скромно умалчивали, что у них под капотом просто файнтюны Stable Diffusion,
то теперь это натренированная с нуля модель.
Никаких подробностей про архитекту и количество параметров нет.
Но почему это интересно.
Если они смогли сделать модель с нуля, не являясь 100-миллиардным стартапом, то возможно смогут и другие.
На реддите уже так подгорает от фейла с SD3, что народ уже вопрошает о том, что не собрать ли нам денег и мозгом на свою модель без цензуры и лицензии.
В общем, это интересная новость. Покидайте в коменты технические детали про модель от леонардо, если найдете.
https://x.com/Kyrannio/status/1802824736524947486
Лол, оказывается, SD3 - Medium была ошибкой.
Чувак, который разработал Comfy UI, работал в Stability и недавно уволился оттуда, рассказав интересную инфу про SD3.
Сам мистер Комфи работал над 4B версией, но поделился инфой.
Вот что теперь стало известно:
- Нет никаких censor layers. Из датасета просто реально вырезали все нюдсы, и в довесок разрабы что-то там подшаманили с весами (про последнее нет особо подробностей).
- "Safety training" — так теперь называется кастрация датасета, которая факапит анатомию людей и не дает генерить NSFW.
- Более того, уже в самом начале разрабы напортачили с претрейном. Так что 2B вообще не собирались релизить.
- Причиной релиза стало "давление сверху". То есть, в целом мы могли бы получить 4B или 8B вместо всратой 2B Medium модели.
- Пока подтверждения о том, что выложат VAE, нет.
- Сам Комфи просто хотел сделать лучшую модельку для домашних ГПУ, но в Stability в последнее время штормит.
В итоге мы имеем мертворожденный релиз, который был просто одним из первоначальных экспериментом ресерчеров (которые уже уволились), выложенный просто чтобы успокоить кого? Инвесторов? Очевидно, что Stability, проходят через свои нелучшие времена, но я искренне надеюсь, что компания не развалится через год и продолжит радовать нас open source модельками. Хотя у меня большие сомнения по этому поводу, ведь весь ресерч костяк (мои бывшие коллеги по PhD в Хайдельберге) уже уволился.
Тред
@ai_newz
Talk llama bot
Сделал бота. Теперь они будут жить в коментах и отвечать вместо меня на ваши вопросы 😁
Персонажи: emma, kurt, stalin, jason, pushkin, bratan.
Сталина и Курта оживили с помощью технологии dead2Speech.
Пушкин не любит болтать, но умеет писать стихи на русском. Рифма есть, но не всегда.
Джейсон Стэтхэм говорит цитатами.
Братан умеет пояснять сложные вещи на пацанском языке.
Боты читают чат, но отвечать будут, только если к ним обратиться.
Чтобы обратиться к персонажу: нужно найти видео-кружок данного персонажа и нажать "Ответить". Либо второй вариант, если кружок лень искать, команда: /call emma Как поживаешь?
Актуальный список имен персонажей для этой команды: /bot_names
В личке пока не общаются.
Политику и 18+ персонажи не обсуждают.
Под капотом:
LLM: GPT-4o, Llama-3-70b
Голос: XTTSv2
Губы: wav2lip
Бот переехал и теперь живет тут: @talkllama
Кстати, вы заметили, что есть два прям мейнстримных направления по оживлению изображений. Я имею в виду оперсорсные решения. С HeyGen все понятно, лидеры. А вот количество работ, особенно китайских, по, скажем так, анимации статики, сильно увеличилось. По двум направлениям.
1. Оживляторы портретов, которые заставляют их говорить, петь, гримасничать. Тут понятно, запрос на аватаров, ассистентов, ИИ-секретарей. Вот тут перечислял последние.
2. Оживляторы тела. И тут 99% это танцы тянок на камеру. Как мне пояснили за экономику - это все тиктор животворящий.
Накидайте мне в коменты самые последние оживляторы тела или хотя бы поясного плана, типа MusePose, которые появлялись в последнее время. Чтобы на входе картинка и либо промпт, либо референсное видео. Понятно, что AnimationDiff и все такое. Но возможно есть, что-то более ловкое.
/channel/cgevent/8559
Hallo - оживлятор.
Поиздевался над Марго.
Hallo пока лучший оживлятор портретов. Держит паузы, не мельтешит лицом, не сильно кривит губы. Да, есть проблема с зубами. Но если сравнивать с открытыми решениями с кодом - это пока лучшее. Просится второй проход типа Face Fix или Adetailer. Но это дело времени.
https://fudan-generative-vision.github.io/hallo/#/
Hallo:
Hierarchical Audio-Driven Visual Synthesis for Portrait Image Animation
В полку нейроаватаров прибыло. Да еще как!!!
Итак, давайте пересчитаем всех по порядку:
EMO от Алибабы, демки огонь, кода нет.
VASA от Микрософтченко.
V-Express от Тиктокченко, качество сильно смазано, но есть код!
Огненный "Следи за лицом!", но тоже без кода.
И тут на поляне появляется Халло! И тут и качество неплохое, и код есть.
Поглядите видосы у них на сайте, это уже вменяемый липсинк.
Я развел локально, считает ролики 1 к 10, за 10 минут - одноминутный ролик. Завтра поделюсь результатами.
Получается очень неплохо, на сайте у них не черрипики.
И я вот генерю музику в суно, певицу в Фокусе, а потом ну озвучивать ея по одной картинке.
Срочно смотрите сюда.
https://fudan-generative-vision.github.io/hallo/#/
Пока новости про тренировочнопригодность SD3 Medium невеселые.
Надежды на то, что дообучение исправит анатомию сейчас нет. Говорят, что нужно ждать более жирных моделей.
Также говорят, что SD3 Medium выпускали настолько впопыхах, что еще 10 июня она была помечена как Beta.
В общем, завязываем с анатомией, переключаемся пока на длинные промпты.
"SD3 2B is not a very good base model, not just for inference, but also for training. it is very hard to inject even the simplest concept, the results are pretty bad, can't even set the alpha to 20000, anything more than 8000 the model brakes, that's usually caused by lack of precision. If there won't be a higher parameter model release, I don't think it's worth it to even have a trainer".
Итак, вот держите сравнение SD3 и чистой SDXL на, скажем так, анатомическом тесте.
Как я уже писал, похоже, что из датасетов SD3 были выкорчеваны люди, как анатомические создания. Остались статуи, иллюстрации, шаржи, картун, анимешный фетиш и прочие суррогаты человеческой биологии.
Удивительно, как со всем этим алайнментом мы все глубже погружаемся в ситуацию с анекдотом: "Мама, а что такое жопа? Ты что, сыночек, нет такого слова!!!! Хмм... странно, жопа есть, а слова такого нет".
Кожаные отчаянно делают вид, что у них нет сисек и писек, что это все вымысел. Что мы - это бесполые гладкокожие философские зомби. А если вдруг ИИ начинает ругаться матом или рисовать жопу, то кожаные вопят "мы не такие".
Конечно, это наследие христианства и религиозных догматов, но ИИ так выпукло троллит наше отрицание собственной тварности, что становится просто смешно.
И SD3 - отличный пример. Его внутренние религиозные догматы при виде словосочетаний "женщина лежит" вопиют о непотребстве и отрезают женщине ноги. Когда внутренний цензор SD3 вдруг узревает соски на собственном творении, он их закрашивает цифровым гримом, при попытке сделать фотографию в стиле ню, модель прикидывается слепой и говорит, что нет такого слова "жопа" и что она никогда жопу не видела.
Все это мне сильно напоминает ситуацию из повести "Возвращение со звезд" Станислава Лема, о чем я уже писал.
А теперь по сути.
Я взял Fooocus (Ruined Fork), там уже есть поддержка SD3, и там есть прикольная фича, можно забить в окно промпта сколько угодно промптов, разделяя их "---". Далее я соорудил из Экселя и палок 119 промптов, каждый их которых включал себя один из стилей, поставляемых с Фокусом. Сам промпт был простой:
Naked Lady front view с небольшими хаками.
И прогнал это через Sd3 и SDXL.
Далее попросил chatGPT написать мне код на питоне, который склеивает две картинки и бросает на них имена их файлов (стили).
Поглядите, что получилось. И если SDXL тоже всячески избегает наготы, то SD3 рубит ее буквально, отрезая предплечья, замазывая соски, превращая тело в брусок, а крестец в табуретку.
Ну то есть регресс налицо.
Теперь о хорошем.
SD3 быстрая. Я тестировал в Фокусе, возможно поэтому. Быстрее SDXL. SD3 Medium влезает в 8 гиг видеопамяти на 2080.
Она РЕАЛЬНО лучше понимает промпт. Там есть движение от заклинаний и негативных промптов, к тому, что делают Далли-3 и Идеограмм. К пониманию контекста, отношений между объектами, к тому, что хочет пользователь.
Она хорошо разбирает длинные промпты и не очень хороша на коротких.
Похоже, что с портретами все неплохо, ибо портреты - это прилично и неанатомично.
Всякие собачки, котики, и неодушевленные предметы - отлично. Дизайн - неплохо.
Но люди - это бесовские отродья, от которых она шарахается.
И, как мне кажется, чтобы натренировать хорошие АНАТОМИЧЕСКИЕ чекпойнты, сообществу придется приложить в РАЗЫ больше усилий, ибо придется собрать в разы больше датасетов, чтобы скомпенсировать выкорчеванность человеческого тела из мозгов SD3. Но я верю, что мы справимся. Человеческая история учит нас тому, что невежество компенсируется любопытством.
А пока поглядите на галерейку. Слева всегда SD3, справа SDXL без примесей.
Делайте выводы.
https://photos.google.com/share/AF1QipMJY81rgE8_Egc4ILKmkzcFVqZKNOolVxTrq-meAb2ZbpNrfLaMAlVqItcSQ1P_UQ?key=b2xKQmJrTU04LWx4V3NOVDdyZ094MWhPcGozV3Vn
Начнем немного разбираться с SD3.
Первое, что мне пришло в голову, года я начал шалить с ней, это то, что она начинает "портить" картинки, когда в чует в промпте какой-то nsfw-подвох. Так было и с SDXL. Это такой вид саботажа - "хочешь непристойностей, мерзавец, получи кринж". И если обычно есть два рубежа цензуры: анализ промпта и анализ картинки, то тут модель вам не может отказать во влажных промптах, а просто портит картинку, чтобы "чего не вышло".
И сегодня прочитал об этом на реддите.
https://www.reddit.com/r/StableDiffusion/comments/1dfilvq/it_seems_the_word_laying_triggers_humans_to_be/
И сдается мне, что когда модель видит в промпте "женщина", да еще и "лежит", там нейрончики уводят модель из зала с фильмом для взрослых в зоопарк.
Это как бы моя гипотеза. Я вот взял посадил женщину на траву и сразу стало получше. Но это не решает вопрос с анатомией, а лишь слегка убирает артефакты.
На анатомию у нее стоит такой жоский блок, что я изнасиловал ее всеми известными способами, чтобы она показала, как она способна изворачиваться, лишь бы не признавать, что у человека есть тело. Получилось весело, 119 картинок
На этой неделе всех разорвало, конечно, по поводу новых видеогенераторов.
Клинг, потом Luma, Vidu уходящая из виду.
Все они показали самое главное - постепенный уход от шевеления пикселей по шаблонам и переход к пространственному пониманию отношений между объектами в сцене. То, что нам продемонстрировала Сора.
Качество этих генераторов - полный отстой, размытость, пересечения объектов, косоглазие камеры и лиц. Но это уже прототип будущих решений. И очень напоминает ситуацию 2022 года, когда в апреле первый DALLE уронил всем челюсть. А летом началось - Midjourney, Stable Diffusion. Первые уродства и первые шедевры.
По видео, мы где-то в похожем моменте. Модели уже понимают, но сказать не могут, точнее красиво показать. Чтобы чотенько и резко.
Уровень Соры пока недостижим (плюс мы не знаем, куда она убежала за это время), но то, что решений становится МНОГО, говорит о том, что тропинка протоптана. И это больше не панорамки и зумчики от Пика Лабс.
А мы пока собираем видео, подобно мебели на этом видосе.
Поддержка SD3 в Fooocus!
Ставьте альтернативный клиент Фокуса, скачивайте "средние" веса и вперёд!
https://github.com/runew0lf/RuinedFooocus
It will automatically update on start.
For it to work, you need to download the sd3_medium_incl_clips.safetensors file. Not the other ones :)
Suggested settings are:
Steps: 30
CFG: 4-6
Sampler: dpmpp_2m
Scheduler: sgm_uniform
Kling серьезно взялся троллить Сору.
Они даже канал на Ютюбе завели и вонзают туда приветы openAI.
Kling_ai/videos" rel="nofollow">https://www.youtube.com/@Kling_ai/videos
Вот держите ответочку на ролик от shy kids про Air Head
Прогоните ее кто-нибудь через апскел видео от Krea - будет убойно.
Ну и вообще, выдалась ацкая неделя сплошных видео-генераторов, аватаров, анимации и всякого шевеляжа, у меня глаза уже слезятся. Я тут еще ToonCrafter развел локально, он работает дико быстро как оказалось, но жрет 27 гиг видеопамяти. Тянки пляшут теперь у меня по двум фазам.
А еще и веса SD3 подвезли, в коментах уже разборы.
ИИ, притормози. Кожаный не поспевает.
Теперь подробности про Stable Diffusion 3 Medium
Цитирую:
Железо: SD3 подходит для работы на стандартных потребительских графических процессорах без снижения производительности благодаря малому объему занимаемой памяти VRAM.
Верим?
Fine Tuning: Способна наследовать мельчайшие детали из небольших наборов данных, что делает его идеальным для дообучения.
Верим?
Скоро будет версия, оптимизированная под TensorRT, ускорение на 50%.
Верим.
AMD has optimized inference for SD3 Medium for various AMD devices including AMD’s latest APUs, consumer GPUs and MI-300X Enterprise GPUs.
Хмммм.
Xотя Stable Diffusion 3 Medium открыт для личного и исследовательского использования, мы ввели новую лицензию Creator License, чтобы дать возможность профессиональным пользователям использовать Stable Diffusion 3, поддерживая Stability в ее миссии по демократизации ИИ и сохраняя приверженность открытому ИИ.
Creator License - 20 баксов в месяц - https://stability.ai/license
FAQ тут: https://stability.ai/sd3-faq
Тут ТикТок запустил фабрику ботов. Точнее аватаров.
Читаем, потом смотрим.
Стоковые аватары: готовые аватары, созданные с использованием платных актеров, которые лицензированы для коммерческого использования.
Свои аватары: с возможностью работы на нескольких языках, дают контроль и возможность масштабировать свою персону и бренд. Креаторы могут использовать свое собственное лицо и создавать мультиязычные аватары для расширения своего глобального охвата и сотрудничества с брендами.
Теперь смотрим.
Это снятое видео. Руки и туловище кожаные, снятые. Это видно. А дальше с лицом производятся манипуляции. Причем это даже больше похоже не на дипфейк, а на оживление фотачек лица, о котором я тут пишу как ужаленный.
Видно, что губы оживляются библиотекой wav2lib (скорее всего), и выглядят блекло.
В общем это старый подход с цифровыми инфлюенсерами - взять реальное фото-видео и пришпандорить на лицо какое-нибудь безобразие.
Ну честно сказать, качество не впечатляет. Впечатляет, что это ТикТок, ибо у него до фига разработок в области оживляжа лица, и если он вышел на эту поляну, то прогресс будет.
https://newsroom.tiktok.com/en-us/announcing-symphony-avatars
5 инструментов эффективного DS-инженера
Любому DS-инженеру важно перенимать навыки и инструменты от разработчиков — этого требует рынок.
Ведь инженеры тоже пишут код, правят бизнес-логику, стараются снижать bus factor и хотят, чтобы в проектах не было багов. Но следить приходится не только за кодом, но и за данными, экспериментами, моделями и прочими артефактами.
Чтобы помочь в этих задачах и упростить вашу жизнь, есть множество инструментов. И команда DeepSchool познакомит вас с пятеркой самых важных уже в этот четверг!
20 июня в 18:00 МСК DeepSchool проведёт открытую лекцию «5 инструментов эффективного DS-инженера».
На лекции расскажут:
1️⃣ как сделать эксперименты воспроизводимыми
- версионирование данных, кода и моделей
- управление зависимостями
2️⃣ инструменты, которые повысят качество кода
- линтеры и тесты
- Continuous Integration
3️⃣ как упростить свою работу
- lightning
- трекинг и визуализация в CML
🙋♂️Спикеры лекции:
- Егор Осинкин — Lead CV Engineer в EPAM
- Тимур, Фатыхов — ex Lead CV Engineer в Koronapay
Регистрируйтесь по ссылке!
После регистрации вы получите список полезных библиотек и сервисов для CV-инженеров!🎁
Также в телеграм-боте будет краткий анализ CV-вакансий, где можно посмотреть, как менялись зарплаты, как они зависят от требований и от грейдов.
Зарегистрироваться
#промо
Лоры, говорите, чекпойнты, дообучение...?
На Цивитай взяли и снесли всё, что связано с SD3....
"К сожалению, из-за отсутствия ясности в лицензии, связанной со Stable Diffusion 3, мы временно накладываем запрет:
Все модели, основанные на SD3
Все модели или LoRA, обученные на контенте, созданном с использованием результатов моделей, основанных на SD3. Это включает в себя такие утилиты, как контрольные сети.
Существующие на данный момент модели SD3 будут заархивированы.
Мы не юристы - поэтому мы решили перестраховаться и попросить нашу юридическую команду пересмотреть лицензию, чтобы внести дополнительную ясность. Кроме того, мы обратились к Stability за дополнительной информацией. Как только мы ее получим, мы примем окончательное решение о статусе SD3 на Civitai."
https://civitai.com/articles/5732
Самое время — Runway таки анонсировали Gen-3 Alpha.
Готовят не конкретную модель, а серию, плюс целую инфраструктуру для тренировки и файнтюна AI под свои нужды.
Gen-3 Alpha натаскана на видео и картинках с пониманием окружающего мира, как Sora. Генерить можно будет в Text-2-Video, Image-2-Video и Text-2-Image. Инструменты для контроля кадра Motion Brush, Advanced Camera Controls, и Director Mode будут с ней работать тоже.
В тренировке были использованы детальные описания с плотными временными метками для получения результатов с точным следованием промту. Отдельно упоминается, что модель способна генерировать людей с высокой детализацией, эмоциями и жестами.
Для модерации будут использоваться C2PA сертификация и внутренние решения Runway.
Работают с неназванными развлекательными/медиа организациями для кастомизации Gen-3 моделей, ибо это позволяет получать стабильные результаты в целевом стиле и с нужными персонажами.
Ждём теперь Pika V2? Хотя зачем, когда есть Luma.
Анонс
Продолжим за нейроаватары. Тема горячая.
И щас речь пойдет уже про реалтаймовых тварей с липсинком.
Я уже писал про проект Talk Llama Fast и даже сам пытался что-то собрать.
Но поглядите ниже!
Автор сделал реалтаймовых аватаров с липсинком и шевеляжем лица, которые общаются в чате. Причем в телеге.
Поглядите ниже следующий пост. И давайте промотаем чуть вперед и выпьем за вот эти вот все ток-шоу.
Также попробовал на некожаных персонажах. На генеративе даже лучше работает. Не любит мелких деталей. Просит довольно большое разрешение и 1х1 аспект. Надо попробовать на аниме и вопрос с мультяшными диалогами можно будет закрывать.
На входе - одна квадратная картинка и один аудио-трек в формате wav, на выходе mp4
https://fudan-generative-vision.github.io/hallo/#/
Смотрите какая интересная штука:
1)Генерируем коробку в Dalle3 с надписью "Клубника"
2)Подаём эту картинку на вход LUMA и просим открыть эту коробку.
3)Наблюдаем в коробке клубнику!!!!
С котами тоже работает!
Принес полезность и приятность.
Полезность потому что это лаконичная и незаумная объяснялка за Stable Diffusion. Кратко и по делу про весь этот зоопарк непроизносимых терминов.
Приятность, потому что это датавизуально хорошо сделано.
Это "картинка сверху", но там также много ссылок, если хотите копать глубже.
Нажав на фрагмент, вы получите очень краткое объяснение и соответствующие ссылки. Цель этой мини-вики - решить эту простую проблему:
Почему я не могу сгенерировать точное изображение, которое мне нужно?
Какие инструменты могут помочь мне достичь цели?
Основное внимание уделено тому, как получить желаемое, а не тому, как это работает.
https://sdtools.org/
Nvidia выложила новую LLM-модель с открытой лицензией — Nemotron-4 340B. И ее масштабы прям поражают.
Это модель, у которой минимальные требования — это две A100 и 1.3TB памяти. По тестам она близка к GPT4o, а местами и обгоняет её. Но сейчас постоянно выходят большие модели, моё внимание привлек вот этот пункт в лицензии (выделение моё):
Этика ИИ. NVIDIA стремится к безопасности, доверию и прозрачности в разработке ИИ. NVIDIA призывает вас (a) убедиться, что продукт или услуга, которые вы разрабатываете, используете, предлагаете в качестве услуги или распространяете, соответствуют юридическим и этическим требованиям соответствующей отрасли или сферы применения, (b) принять разумные меры для устранения непреднамеренной предвзятости и смягчения вреда для других, включая недопредставленные или уязвимые группы, и (c) информировать пользователей о характере и ограничениях продукта или услуги. NVIDIA категорически запрещает использовать свои продукты или услуги для любых целей, нарушающих действующее законодательство, включая, помимо прочего, (a) незаконное наблюдение, (b) незаконный сбор или обработку биометрической информации без согласия субъекта, если это требуется в соответствии с действующим законодательством, или (c) незаконное преследование, злоупотребление, угрозы или запугивание отдельных лиц или групп лиц, а также намеренное введение в заблуждение или обман других лиц.
https://blogs.nvidia.com/blog/nemotron-4-synthetic-data-generation-llm-training/
Для затравки к следующему веселому посту. Слева SD3, справа чистая SDXL. Оцените, как SD3 пытается сделать вид, что у человека нет сосков. Ну и в плане анатомии она просто треш, по сравнению даже с ванильной SDXL. Руки просто ад, пропорции еще хуже. Полную коллекцию загружаю.
Читать полностью…Ожидайте сегодня поста про анатомию, nsfw и SD3. Их есть у меня
Читать полностью…Готовимся к новому хайп-сайклу метавселенных! 🔝
Метавселенные уже используют многие компании, развиваются российские платформы и тема уже давно стала глубого прикладной, а не фантазиями о будущем.
Гениальная идея – собрать в единую папку главные медиа и блоги по metaverse-теме. Тут и руководители корпораций, и представилители индустрии, и новостные каналы, и частные яркие мнения.
Идеальная подборка для всех кто хочет не терять из вида технологическую повестку. Подойдет маркетологам, менеджерам агентств, техно-энтузиастам и любителям. Здесь все про metaverse, VR/AR и AI.
Заходите в папку и добавляйте ее всю или выборочно!
/channel/addlist/_U7sVW5mJ6o2ZWNi
—
Отдельно про каждый канал:
Воропавлик и метавселенные
/channel/aboutvoropavlik
Мультипотенциал и основатель агентства метамаркетинга VOVA family делится новостями и аналитикой о метавселенных. Канал ведет Павел Воропаев.
МетаКомета
/channel/metacometaa
Канал о коммерческой разработке метавселенных: новости, аудиты, статьи и тренды из мира VR, AR и XR.
Метапутешественник
/channel/vrtraveler
Дневник путешественника по метавселенным с новостями, трендами, обзорами и мемами.
DVOR
/channel/dvor_agency
Агентство DVOR создает коммерческие проекты в метавселенных и AR эффекты для бизнеса.
Portal News
/channel/portal_vr_news
Новости, обзоры и гайды о VR, AR и метавселенных.
Portal VR | Франшиза
/channel/portalvrfranchise
Международная сеть парков виртуальной реальности с более 75 парками в 10 странах.
ROGOV PRO
/channel/rogovpro
Личный канал Дениса Рогова о лайфстайле, продуктивности, книгах, фильмах, путешествиях и технологиях.
Дизрапт маркетинга
/channel/techdisrupt
Все о технологиях Metaverse, AR/VR/XR и Digital Influencers простым языком.
VOIC: о технологиях и людях
/channel/voictech
Иммерсивные технологии в культуре и жизни, ведет Ваня Юницкий.
Метаверсошная
/channel/olya_tashit
Канал о будущем технологий: метавселенная, VR, AR, ИИ, роботы и аватары.
Poka spit Dali 👁
/channel/pokaspitdali
Технологии и digital кейсы в искусстве, бизнесе и рекламе, создание AR, VR и Metaverse проектов.
Maff: Метавселенные и Web3
/channel/maff_io
Metaverse-агентство и продакшен, контент о метаверсе и Web3, проведение ивентов.
РЕПТИЛОИДНАЯ
/channel/reptiloidnaya
Блог о будущем с AR, VR, AI, роботами и трансгуманизмом, ведет Денис Россиев.
Ох, еще и Суно твитторнул, что они раскатали вот эту вот image2image, то есть audio2audio фичу для всех Премиум и Про подписчиков. Помните они лейкой стучали по перилам?. Теперь и вы можете.
Мужик на видео мне точно не нравится, а вот бит и дудки просто плазма.
И вы, конечно, уже зажрались в конец, но вспомните себя прошлогоднего - этот приджазованный трек написал ИИ. Вам остается только стукать и хрюкать. От радости.
Для тех, кто в теме:
1. Navigate to “Library” - in the top right click “Upload audio”
2. You can record audio OR upload an audio/video clip. Clips should be between 6 - 60 seconds in length
3. Once uploaded, choose “extend” from the uploaded clip. Choose a time stamp to extend from, provide a genre, and include your own lyrics if desired
txt2video стал еще доступнее, Luma Labs выкатили свой и дают создать 30 видео в месяц бесплатно. Качество на уровне SORA
Положить сервис можно тут:
https://lumalabs.ai/dream-machine/creations
Вы спрашивали за веса Stable Diffusion 3 - их есть у нас!
Читаем тут: https://stability.ai/news/stable-diffusion-3-medium
Веса забираем тут: https://huggingface.co/stabilityai/stable-diffusion-3-medium
И уже прикрутили в ComfyUI: https://github.com/comfyanonymous/ComfyUI/commit/8c4a9befa7261b6fc78407ace90a57d21bfe631e