Номер заявления в РКН: 5876565498 Реклама и сотрудничество: @coldmay Тренды в культуре и технологиях (в первую очередь AI); рекомендации фильмов, сериалов, книг, музыки. Наблюдения за реальностью. Автор: Даниил Трабун (@dtrbn) AI-евангелист, креативны
Сегодня слушаем Underworld на Boiler Room. Легенды.
Британские деды — от Хью Лори до Роберта Дельнайи (и, конечно, пожилых сэров на видео) ощущаются иногда буквально как родственники.
Магазины Befree перешли на музыку, сгенерированную AI.
Я зашел в магазин и услышал песню, в которой было слово prompt. Артист по-английски уверял, что я могу сделать отличный трек, достаточно собрать хорошую инструкцию. Я не поверил, но стал вслушиваться.
Следующая песня уже была просто про любовь, вечеринку, поцелуи и луну. Следующая была про радость, дружбу и пляж. Следующая — про вечер, романтику и ужин. Я понял — это Suno (или аналог). Весь плейлист сгенерирован.
Это очень странное ощущение, когда ты стоишь среди фаст-фешна, футболок с принтами на пару выходов, масс-маркета, копирующего тренды высокой моды, и слушаешь виртуальных артистов, которые поют дженерик-тексты, идеальную жвачку для уха. Как образцовый миллениал, я почувствовал себя в «Матрице».
А еще я задумался про всех реальных живых неизвестных артистов, чья музыка играла раньше в кафе и магазинах. Исчезнет ли эта возможность зарабатывать теперь, когда плейлист на 100 песен можно сгенерировать за пару часов и не платить никаких лицензионных отчислений кожаным мешкам?
Мне стало интересно, знают ли о виртуальном саундтреке продавцы — небольшой диалог можете послушать на видео.
Какая милота — этот детский AI-гаджет. Называется Dex, это камера для изучения языка для детей от 3-х до 8-и лет.
Тамагочи + лупа. Простая функциональность на старте, чтобы проверить гипотезу. Точное попадание в аудиторию (чуть более взрослым Dex не нужен, есть смартфон). Мобильный апп у родителей.
Та редкая попытка в AI-гаджеты, которой хочется поделиться.
Главные AI-хайпожоры по части видео и фото последней недели — Higgsfield и Nano Banana.
1. Higgsfield добавили модель Hailuo 02 от шанхайской Minimax — и показали, что можно делать с ее помощью. Они старательно бьют в аудиторию рекламщиков со своим дерзким маркетингом, нарочито смелыми названиями фичей — и интегрируя сторонние модели, которые позволяют решать релевантные задачи. Примеры, как всегда огонь. Интересно, как многие сервисы постепенно становятся комбайнами, в которых интегрировано сразу несколько моделей: вот и Runway только что добавили к себе Veo 3.
2. Nano Banana — по почти на сто процентов подтвержденным слухам модель Google для генерации изображений. Говорят, что 20 августа ее анонсируют на релизе Google Pixel 10. Nano Banana отлично работает с совмещением изображений, уделывая Flux Context Pro. Тестить тут на LMArena. Примеры тоже добавил.
Уверен, если случится конец света, я буду до последнего думать, что это маркетинг какого-то нового хоррора.
(На фото форс новости про кроликов-мутантов с мордами-щупальцами)
Помните был такой «думскроллинг»? Бесконечное потребление контента, когда тонешь в бескнечном тревожном новостном потоке?
Так вот, новое слово «думпромптинг» — и связано оно, как вы поняли с нейросетями. Вместо бесконечного потребления — бесконечная иллюзия созидания и диалога. Красная дофаминовая кнопка, которая выдает ответ AI и немного удовольствия, но одновременно тревогу, потому что ответ неидеален.
А у вас такое случалось?
♥️ Еще одно слово года, связанное с ИИ
Принес вам немного ревайвала 90-х — от Tricky до The Prodigy — два брата из Швеции Сэмми и Джонни Беннеты, которые выступают как группа Deki Alem.
Как же мне нравится их дебютный альбом Forget in Mass, который вчера вышел.
OpenAI раскатил ПОДРОБНЫЙ гайд по промтам для GPT-5 — Cookbook уже готов вам предложить лучшие варианты.
Там можно найти как готовые промты, так и инструкции по улучшению запроса, который приведёт в самому лучшему результату.
Пользуемся и заставляем GPT-5 работать на максимуме возможностей 😏
Главный маркетинг AI-компаний сегодня — нагнать страху или временно сломать свою модельку, чтобы медиа взорвались разоблачениями и сенсационными сообщениями.
Примеры выше — и, конечно, ждем релиз ChatGPT-5 сегодня вечером. Прямая трансляция стартует в 20:00 по Москве.
Два ярких впечатления последних недель:
🎬 «Одно целое» — боди-хоррор про созависимые отношения. По трейлеру кажется, что все понятно и мы посмотрим что-то в виде «Субстанции» про пару. Но на деле выясняется, что кино — чистое синефильское развлечение: это сразу все жанры хоррора вместе, приправленные романтической комедией. Если «Субстанция» была сатирой, то «Одно целое» отправляет меня жанрово во времена студенчества, но в самом хорошем смысле. Чистое и незамутненное развлечение для кинозала. Кстати, уже доступен в стримингах.
📺 «Первородный грех Такопи» — давно аниме так меня не выжимало. Инопланетянин с планеты счастья прилетает на Землю к девочке, у которой мама работает в эскорте, в школе избивают, жизнь, короче, вообще не сахар. Он решает все починить, но кончается попытка суицидом девочки. В моменте понимаешь — это будет совсем другое аниме. Рейтинги каждой серии зашкаливают. А еще рисовка — будто что-то из глубокого детства, при чем именно западной анимации.
GPT тупеет, когда её заставляют общаться как человек
The Information выпустил лонгрид о состоянии дел в OpenAI накануне выхода GPT-5 и за последний год.
Завтра её будут пересказывать все телеграм каналы, так что давайте их опередим.
https://www.theinformation.com/articles/inside-openais-rocky-path-gpt-5
Самое интересное: модель-учитель о3 была невероятно умной и показывала высокий уровень понимания самых разных областей. А потом из неё сделали чат-бот, и он отупел: видимо, когда модель заставляют вести себя как человек, она теряет в когнитивных свойствах. Я тоже.
Из других интересных деталей: ещё в июне из-за технических сложностей ни одна внутренняя модель не была достаточно хороша, чтобы назвать её GPT-5. А изначально GPT-5 вообще должна была стать Orion, но она не оправдала вложенных в неё надежд; в итоге её выложили как 4.5 и сейчас потихоньку отключают.
Тезисный пересказ с моими комментариями (курсивом).
- o3 показал удивительный буст в решении сложных задач (бенчмарк ARC). Но когда эту модель адаптировали под чат-версию, этот прирост исчез.
- Новая GPT-5 модель значительно лучше справляется с созданием приложений, которые хорошо выглядят. (Я уже пробовал GPT-5 на арене, и она действительно выдаёт более симпатичный результат)
- GPT-5 лучше справляется с агентскими задачами из многих действий, пример — определять, когда чат поддержки должен вернуть покупателю средства.
- Разница не будет настолько большой, как между GPT-3 и GPT-4 (мне кажется, это не правда. Вы вообще помните, какой плохой была GPT-4 на релизе?)
- Orion это 4.5, и он не оправдал надежд. Скорее всего из-за качества претрейна, но также и потому, что те улучшения, которые повышали качество моделей поменьше, не сработали на огромной.
- Зато сработал другой подход, делать более длинные цепочки размышлений — так появились ризонеры.
- Как и o1, модель o3 основывалась на GPT-4o. Однако «родительская модель» (учитель) для o3 достигала куда больших высот в понимании научных и других концептов. Частично — потому что для неё использовалось куда больше чипов Nvidia. А частично — потому что ей дали возможность искать в вебе и по репозиториям с кодом.
- Ну и кусок про reinforcement learning (немного путанный, The Information точно правильно всё понял?): родительские модели просили сгенерировать тысячи ответов на сложные вопросы по биологии, медицине и инженерии, и затем обучали на тех ответах, которые совпали с теми, что дали мясные эксперты.
- Наконец, то, ради чего была написана статья: когда модель-учитель конвертировали в чат-версию модели («модель-ученик»), она не показала себя сильно лучше, чем o1. (Опять же, по моим ощущениям это не так, o3 гораздо лучше показывает себя в реальных задачах. Но вероятно речь про конкретные математические или кодовые применения).
- Одно из подозрений — что способ, которым модель понимает сложные концепты, достаточно далёк от того, как общаются люди (ну… да, но разве мы понимаем вещи в общении? Странный пассаж тоже).
- Тем не менее, звонкая цитата: чат-бот версия o3 значительно тупее обычной, потому что вынуждена говорить на человеческом языке, а не своём собственном.
- Этому косвенно свидетельствует белиберда, которую модель генерирует в процессе «думания».
- Сразу — гипотеза от меня: что, если размышляющие модели настолько лучше не потому, что они долго думают, а потому, что могут на время отойти от формата чат-бота, который их тупит?
- Наконец, o-нейминг окончательно запутал пользователей, поэтому Альтман сказал возвращаться к привычной нумерации.
- Однако ещё даже в июне из-за технических трудностей ни одна из разрабатываемых моделей не была достаточно хороша, чтобы назваться GPT-5.
- У OpenAI есть ещё один туз в рукаве: универсальный верификатор — инструмент, который автоматизирует процесс проверки, что модель нагенерировала на RL-этапе качественных ответов (и снова звучит как будто The Information чего-то недопоняли. Это же ровно то, что сделал DeepSeek, какой ещё туз в рукаве).
[чуть не влез по длине, финал первым комментом].
В Adobe Photoshop завезли новую AI-фичу Harmonize. Очень просто — объект подтюнивают под главную картинку, добавляют где нужно тень, ставят свет.
Попробовал на нескольких абсолютно рандомных примерах. Для быстрых задач совсем неплохо.
AI создает иллюзию творчества, но на самом деле мы просто продолжаем потреблять.
Наткнулся на интересную статью про то, что создание контента в нейросетях совсем не всегда творческий акт.
Нажать на кнопку ≠ творческий акт
Например, сгенерировать свое фото или кадр из фильма в стиле Гибли; или сделать кавер на песню в Suno 4.5; или реплицировать видео в соцсети Pika — всё это только похоже на творческий процесс, но по сути: нажал кнопку, получил удовлетворительный результат, поделился с друзьями.
Важно: мы сейчас не говорим про нейросети как инструмент артиста. Даже когда художник создает мем в Veo 3 — историю про бабушку, у которой живет бегемот, он делает гораздо больше нажатия одной кнопки — придумывает сценарий, стиль, генерирует планы.
По три классных песни с главных музыкальных релизов прошлой недели.
Два ленивых релиза от музыкальных задротов, Tyler The Creator и Скриптонита, музыкально очень разные, но ощущенчески пересекаются.
И один, и другой релиз — это не что-то большое, концептуальное и чартовое (?). Тайлер записал весь альбом в туре, выпустил через 9 месяцев после Chromakopia, назвал его (в отличие от прошлых) неконцептуальным, Скриптонит просто дропнул треки, записанные за несколько прошлых лет, а чтобы показать, как ему глубоко все равно на коммерческую составляющую — даже выложил бесплатно в телеграм-канал.
Но именно благодаря этой неважности, тут есть те самые жемчужины, карьерные би сайды, такие треки, которые нравятся самим музыкантам, а что там мы подумаем — не так уж и важно.
Я выбрал по три любимых трека с каждого релиза, чтобы рассказать про них возможно так же лениво, но не значит, что без любви.
❤️ Gruppa Skryptonite, «04:00 p.m.»
1️⃣ в стакане
Невероятное начало альбома, которое одновременно напоминает музыкально Jai Paul и Washed Out, а вокалом местами Autre Ne Veut. Очень летне.
2️⃣ до рассвета (feat. Izzamuzzic)
Музыкально мне напоминает почему-то Moderat, а с точки зрения вокала и текста это один из самых интересных треков на альбоме.
3️⃣ Снова люди пойдут
Песня вышла еще прошлым летом и уже тогда я думал, насколько настроение, текст, ну и вокал, идеально подошли бы Роме Mujuice, что не делает песню хуже. «До утра плясать снова люди пойдут» — «Утром, которым мы умрём».
❤️ Tyler The Creator, «DON'T TAP THE GLASS»
1️⃣ Sugar On My Tongue
Вообще весь альбом написан так, будто это буквально трибьют The Neptunes и Фарреллу. Яркий пример — самая сексуальная песня альбома про сахар на языке (не тот, что у Talking Heads). А вообще, почти весь альбом ощущается, как би сайд к Igor.
2️⃣ Stop Playing With Me
Настоящий бэнгер с простым, но заразительным музыкальным видео, в котором Тайлер одет в кого-то между Эдди Мерфи из 80-х и кем-то из Beastie Boys, а поддерживают его LeBron James и Clipse (тоже классный альбом только-только вышел). Музыка тут — минималистичная злая грязная электроника в духе Yeezus, да и текст, в целом, метит в эру Ye.
3️⃣ I'll Take Care of You (feat. Yebba)
Такие треки я привык слышать на последних релизах Gorillaz — пэтчворк из кучи семплов и коллабораторов, просто развлечение артиста — не задумывалось и не станет хитом, но в эти синтезаторные и семпловые слои классно проваливаться в хороших наушниках.
➡️ Включите уведомления, чтобы не пропускать полезные советы по AI, тренды, странные штуки, рекомендации сериалов, фильмов, книг и музыки.
➡️ Если пост оказался вам полезен, буду благодарен шеру. @danieltrbn
А вот и трейлер нового сай-фай сериала от Винса Гиллигана:
https://youtu.be/cR41iZx07O8
Простые промпты на этот вечер, использующие память ChatGPT о вас.
Читать полностью…Моя жена Саша сказала на выходных: «Мое хобби размышлять, раздумывать над различными вещами».
И мы начали разгонять:
А что если в уже не таком далеком будущем, с приходом разумного ИИ, большинство людей разучится думать. Они будут подключаться к стримерам мыслей, наблюдать за теми, кто еще думает, донатить, чтобы те подумали что-то конкретное.
что скажешь про эту структуру рассказа:
рассказ в стиле dark future и сериала black mirror. о мире, в котором люди постепенно разучились думать и теперь подключаются к тем немногим, кто обладает этим навыком, чтобы просто понаблюдать за процессом думанья. это чем-то напоминает соцсети сегодня. у этого феномена и таких людей есть свое название.
главная героиня работает на такой работе, она дает возможность за определенную плату подключиться другим людям к ее мозгу, чтобы они могли наблюдать, как она думает и размышляет. героиня размышляет о том, что она как проститутка только про мысли. по запросу и оплате пользователя она может подумать о чем-то конкретном (эти мысли никогда не сексуального характера, за такое моментальный бан, это к другим специалистам), а еще бренды платят ей за то, что она бесшовно интегрирует их в свои мысли.
таких людей становится все меньше: индустрия развлечений, упрощение и потребления, и созидания, изменение системы образования и отсутствие необходимости делать сложную работу (большая часть работы это контроль роботов и аи-ботов по инструкции и остантся она только потому что государства имеют такие регуляции. необходимости в этом давно нет), а также интеграция чипов с возможностью включения развлечений напрямую в мозг, привело к тому, что думающих людей стало и будет становиться все меньше.
мы видим героиню на одной из таких сессий. она проходит онлайн. сегодня ей попался интеллектуал. он больше не может или не хочет думать, но просит подумать о конкретных темах. героиня думает про бодрийяра и его симуляции и симулякры, думает о том, какой была жизнь до прихода общего искусственного интеллекта, думает об эпохе с 2000 по 2050 годы. нечасто ей приятно думать, но сегодня темы ей близки, и неглупы.
наша героиня приходит домой после сессии и думает о том, что будет дальше. случится ли такое, что и ее работа перестанет быть необходимой. если она перестанет иметь необходимость думать, чтобы зарабатывать на жизнь, станет ли ее мыслительный процесс деградировать, а может быть он уже деградирует, имея только одну задачу — изображать мыслительный процесс, а не думать по-настоящему. а вообще было ли думанье в прошлом, или она и люди вокруг сами выдумали себе это, и это просто аномалия мозга.
дома героиня ложится спать. утром она просыпается от новостного алерта. конгломерат государств и корпораций ограничил глубокие мыслительные процессы: они дестабилизируют отдельных индивидуумов, приводят к неожиданным событиям, которые могут ухудшать обстановку в сообществах и семьях. еще один алерт: героине запрещена ее деятельность, но бот по подбору работ готов предложить ей 12 актуальных вакансий.
напиши теперь этот рассказ, согласно данным правкам и моему первоначальному описанию.
Новый тренд в коротких видео — прямо из Китая (и парочка видео из Японии) тиктоки, которые предлагают повторить движения рукой для залипательного эффекта (а еще теннис с пингвином и шторкой комментариев классно).
Это я так бездельничал на выходных. Раньше такого не видел — бренды, забирайте.
Тем временем в российский прокат вышел «Орудия» от создателя «Варвара».
Прошлой ночью в 2:17 все дети из класса миссис Ганди проснулись, встали с постели, спустились вниз, открыли входную дверь, вышли в темноту... и больше не вернулись.
Пора поговорить про провал ChatGPT.
7 августа OpenAI представили новую модель, которую анонсировали буквально как нечто революционное.
Проблемы начались еще на презентации. Графики, подтверждающие лидерство модели, были построены… Ну как если бы это сделала бесплатная версия ChatGPT.
Да и вся презентация целиком ощущалась странно. Преимуществами новой модели называли, к примеру, возможность быстро исправлять сделанные ошибки. Сразу возникал вопрос — а как же не совершать их?
Но главное было сказано между строк: Сэм Альтман и компания рассказали о новом подходе к запуску моделей: ChatGPT теперь сам будет решать, стоит использовать более прогрессивную или простую модель, в зависимости от вашего запроса. Все ради удобства пользователей. Вроде бы ничего необычного, правда, звучит как идеальное решение.
Другая большая радость: GPT-5 раскатили на всех пользователей сразу после презентации. И сразу разочарование — модель ощущалась сильно тупее прошлых. Обьяснили, что все поломалось и починили. А еще пользователям больше не давали выбрать из множества моделей: только ChatGPT-5 и ChatGPT-5 Thinking.
Под шумок еще срезали лимиты по непростым запросам у Team-аккаунтов.
Интернет перевозбудился так сильно, что Альтман вернул возможность выбирать модели.
Что это было? Зачем? Дальше гипотеза:
ChatGPT-5 не задумывался как революция. Революция — это пыль в глаза, приготовленная, чтобы припорошить главное: оптимизацию.
OpenAI тратит миллиарды на ваши (наши) тупые запросы. Кто из нас не искал гегелевскую диалектику в мультфильме «Шрек» с помощью модели o3 (Никто? Совсем никто?) OpenAI решили, что это слишком тяжко для их серверов и, что машина разберется лучше.
OpenAI публично признавала, что компания работает в убыток, тратя миллиарды на вычисления (потери — до $5млрд при прогнозном доходе $3.7млрд в 2024; ожидаемый доход в 2025 — $20млрд). Главная цель — снизить нагрузку на серверы за счет автоматизированного выбора модели и новых алгоритмов маршрутизации запросов.
Примерно каждый пользователь ChatGPT раз в неделю:
Привет, ChatGPT. Как стать богатым? За ночь. Не работая. Ноль инвестиций. Без рисков. Дай мне 50 идей.Читать полностью…
Иногда я просто сохраняю странные картинки. Пусть будут здесь под тегом #несмешныемемы
Читать полностью…Начинается через 5 минут. Так много про GPT-5 сказано, что ощущение, как со старыми презентациями айфонов.
Прямая трансляция
В комментариях делимся впечатлениями — я там.
Что может Runway Aleph, с моими примерами.
Я взял наш новый эпизод подкаста «Тонкости» и поменял одну сцену.
Коротко, что такое Aleph — новая нейросетевая видеомодель от Runway, предназначенная для редактирования, трансформации и генерации видео на основе текста или изображений.
Позволяет изменять объекты, стиль, локацию, время суток, ракурсы, атмосферу и внешний вид людей прямо в отснятом материале, при этом сохраняя детали и целостность сцены.
Нет, это пока не Photoshop для видео. Нет, пока больше 5 секунд не сгенерировать. Но! 80% простых запросов сгенерированы успешно (оставил и те, где особенно видны артефакты).
Попробовал:
— смену локации и погоды
— смену ракурса камеры и мощный зумаут
— добавление объектов
Наткнулся на эту схему от BoF, которую как будто важно перевести. Применимо в небольших вариациях ко всем креативным индустриям.
График показывает, как алгоритмическая культура дофамина — охота за мгновенным вниманием и вознаграждением в соцсетях — заменила быструю моду, которая в свою очередь ранее заменила медленную.
Бренды больше не продают предметы — они стимулируют дофаминовый импульс. Продукт-как-контент превращается в мгновенный фрагмент культурного капитала, который живёт ровно один момент — несколько секунд между скроллингом. Главное — не крафт и мастерство, а сценарий (даже не сценарий, а вайб — быстрое ощущение, понятная и простая эмоция), в который вовлекается аудитория.
Алгоритм сглаживает различия, подбирая то, что гарантированно триггерит маленький момент счастья. Поэтому мы видим взрыв односложных кор-стилей: это шаблоны, пригодные для бесконечного копирования.
Из этого формируются тренд и антитренд. Тренд — отсутствие стратегии, быстрое реагирование, работа не со сторителлингом бренда, а с вайбом, который пересекается, но не обязан быть в ДНК. Антитренд — отказ от дофаминового марафона и попытка работы с крафтом, медленной культурой, олд-мани стилем и прочее, прочее.
Побеждают те, у кого есть ресурс на поддержку и того, и другого направлений.
🖥 Заметка на полях.
Утром за кофе поймал инсайт: Настоящий прорыв в устроствах и ИИ придет не через экраны устройств, а дойдет до масс через уши. Чаты уперлись в стену контекста, нейролинки фантастика еще лет на 10, а клавиатура устарела как интерфейс, а вот звук с нами уже давно.
⚡️Сигналы
— Пару дней назад Meta купила PlayAI — первую сделку в новой голосовой линейке
— ElevenLabs после $180 млн раунда оценили в $3,3 млрд, тройной рост за год
TechCrunch
— 22 % последней когорты YC строят продукты вокруг голоса
Andreessen Horowitz
— 66% поколения Z используют голосовые технологии
⁉️ Почему всё совпало именно сейчас
— Cкорость ответа: Стриминговая передача данных дают первую аудио-байт за 220 мс!
— Приватность уже придумала Apple: Сначала обрабатывают на устройстве, потом шифруют запросы и отправляют в облако, стирает логи
— Персонализация: Алиса от Яндекса уже различает членов семьи по голосу и меняет тон общения
— Дешёвый инференс для ИИ: стоимость запросов упала в 280 раз за два года
— Готовое железо: H2-чип в AirPods и Snapdragon Sensing Hub дают always-on распознавание при микроваттах мощности
— Деньги: Ррынок voice-ассистентов растет с $7,3 млрд до $33,7 млрд к 2030 г.
✨ Куда все идет
Представьте ассистента на работе. Он слушает, распознает голоса участников, получает задания, собирает факты и параллельно создает задачи и напоминания. Мы в руках не вертим телефон и не стучим по клавишам, поток мысли не прерывается. Я верю, что именно такие аудио-агенты станут мостом к настоящим hands-free интерфейсам.
Мы уже говорим с колонками, скоро колонки заговорят с нами — предложат идею, пошутят, подскажут решение, пока я ещё думаю. И вот тогда четвертая стена рухнет окончательно: мир станет аудиорежимом по умолчанию, а тишина новым офлайном.
Это повысит производительность, но не заменит клавиатуру полностью — миллениалы будут печатать ещё долго. 😊
#ии #наблюдение #тренды
@wayofvalue
📹 NotebookLM научился генерировать видео (!) презентации в один клик — нейронка превращает любые PDF в наглядные видеообзоры с графиками, цитатами, слайдами и озвучкой.
Можно задать главные темы ролика, цели обучения, ЦА и даже кастомные запросы по типу «я знаю Х, фокусируйся на Y». Дают 3 видео в сутки и пока только на английском, но скоро добавят другие языки.
Самое приятное — можно пользоваться бесплатно! Пробуем тут.
@notboring_tech
Вот она, настоящая фешн-блогерка. jpmorrigan?r=c50pn&utm_medium=ios&utm_source=profile">JP Morrigan каждый день одевается, вдохновляясь новой птицей.
Искать тренды в соцсетях ❌
Искать тренды в гнездах ✔️
Runway показали Aleph, типа Flux Kontext для видео
Разрабы в Runway решили сделать это лето максимально насыщенным на жирные дропы. Сперва Act Two, теперь они представили свою новую контекстуальную модель Aleph. Выкатывать будут волнами совсем скоро, первыми получат доступ CPP и подписчики плана Enterprise.
Что можно делать с Aleph:
🟠Генерировать новые углы камеры
Закидываете своё видео, пишете простейший промпт в духе "Generate a close-up shot of the subject", получаете результат;
🟠Сгенерировать следующий шот
На основе Вашего видео генерирует контекстуально подходящее продолжение, достаточно просто спросить "Generate a next shot";
🟠Менять визуал встроенным Style Transfer
Кидаете желаемый референс и просите Aleph применить этот стиль или эстетику к Вашему видео;
🟠Сменить локацию, окружение, время суток и время года
Aleph попытается перерисовать Ваше видео, сохранив все важные изначальные объекты и движение;
🟠Добавить, удалить и заменить объекты
Сменить тачку на карету с лошадьми, поменять цвет объекта на определённый, удалить отражения на стекле, добавить дополнительных персонажей — всё это делается по простейшим промптам;
🟠Переносить движения с видео на статичное изображение
Короче свой Motion Transfer. Всё что нужно — видео, с которого Вы хотите перенести движение и картинка, на которую это движение применить;
🟠Менять внешность персонажам
Омолодить или состарить персонажей теперь не проблема или вообще сменить лицо на другого актёра;
🟠Управлять освещением (Relight)
Aleph попытается поменять естественным образом освещение по всей сцене, изменяя тени, отражения и цветовую температуру в соответствии с Вашим запросом;
🟠Сделать из любого видео Green Screen-футаж
Да, можно взять видео, которое НЕ было снято на зелёном экране и навалить это через Aleph.
Наглядно на все примеры можно посмотреть на странице анонса. Важно понимать, что это всё — витрина, плюс для примеров были использованы реально снятые видео. Поэтому, насколько хорошо оно будет работать не только со снятыми, но и со сгенерированными видосами, узнаем когда сможем прикоснуться.
😳 BLACKTRACED
🎨 Нейронка для дизайнеров Lovart вышла в открытый доступ для всех — она генерирует макеты, иллюстрации, интерьеры, постеры, UI и даже видео-рекламу с прицелом на креативность.
Рабочее пространство — холст слева и чат справа. Можно описать задачу и подгрузить файлы, а ИИ-агент в роли арт-директора найдёт нужные референсы, нарисует концепты и выдаст результат как в Figma или Photoshop.
Бесплатных кредитов хватит примерно на 10 проектов — тут.
@notboring_tech