cgevent | Неотсортированное

Telegram-канал cgevent - Метаверсище и ИИще

37805

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn

Подписаться на канал

Метаверсище и ИИще

MeshGen: minimal integration of LLaMa-Mesh in Blender

Я, пожалуй, пойду поставлю LLaMa-Mesh, ибо генерация вертексов и фейсов выглядит здесь радикально по-другому.

Вместо обтягивания непонятно как полученного облака точек замыленными рандомныи сетками - здесь обтягивание вертексов, которые ИЗНАЧАЛЬНО уже на месте.
Ибо учили на мешах, как на текстовых данных с отношениями, а не просто как на облаках точек.

Подозреваю, что результат будет не айс (первая версия, малый датасет), но сам подход мне отчаянно нравится.

Кто со мной?: https://github.com/huggingface/meshgen

@cgevent

Читать полностью…

Метаверсище и ИИще

Веселых картинок вам с утра.

С кодом на процессинге.

@cgevent

Читать полностью…

Метаверсище и ИИще

ИИ меня не заменит. Он будет меня уважать 🤘

Паника была: мол, с появлением ChatGPT, Python-библиотек и прочих чудес науки и техники аналитик превратится в оператора, который просто нажимает кнопочку — и вуаля, отчет по KPI готов. Помните, так и про пилотов говорили? «Да он просто сайдстик разок двинет, и самолет полетит. Сам. За что пилоту тааааакие деньги?»

Прикол в том, что в аналитике это сработало ровно наоборот (как, впрочем, и в авиации): в авангард вышли человеческие специалисты, которые, после того как ИИ обработает массив данных, построит прогноз и визуализирует результаты, задают правильные вопросы, понимают контекст и делают креативные выводы. Именно за это тааааакие деньги.

И этому можно научиться. Например, на самой комплексной программе «Аналитик PRO» онлайн-школы аналитики Changellenge >> Education.

Что будет на программе?

Python, SQL, Excel, BI-системы и их друзья: 11 ключевых навыков для работы с данными с отработкой на примерах.
Реальные кейсы: 75% курса — это практика. Вы будете решать задачи от компаний уровня Google и VK, чтобы в резюме были реальные, а не выдуманные проекты.
Аналитическое и структурное мышление: научитесь задавать правильные вопросы и находить решения там, где другие (и ИИ) видят только цифры.
Soft skills, которые на те же 75% отвечают за успех в карьере (и которых не предвидится у ИИ);
Лайфхаки экспертов из Яндекса, VK, Сбера, BCG и Росатома;
Консультации с HR-специалистами, подготовка к собеседованиям, в том числе к кейс-интервью.

83% студентов получают офферы во время или в течение трех месяцев после обучения. Работают с поддержкой ИИ, а не вопреки, и делают шикарные карьеры, за 2-3 года поднимаясь до сеньоров с зарплатами от 250 000 рублей и выше.

В Changellenge >> Education проходит черная пятница со скидками до 50% до 30 ноября. При покупке «Аналитик PRO» вы в подарок получите 2 мини-курса (по ChatGPT и «Как получить оффер в зарубежную компанию»). А по моему промокоду МЕТАВЕРСИЩЕ вы можете получить дополнительную скидку 5000 руб.
Оставьте заявку, чтобы успеть забронировать место со скидкой >> https://u.to/gnAJIQ

Реклама. ООО «Высшая школа аналитики и стратегии». ИНН 7716917009. erid: 2VtzqukH255

Читать полностью…

Метаверсище и ИИще

Shutterstock/edify-3d

Я немного пощупал новый генератор 3Д от Нвидия.


Кода нет и вряд ли будет.

Есть демо:
https://build.nvidia.com/shutterstock/edify-3d

Но.

НЕЛЬЗЯ загрузить свою картинку, или нейродед совсем тупой. Только их примеры.
Можно код страницы поковырять наверное.

Присунул текстом "желтый сладкий перец".
Получил красный, с зеленцой на жопке.

Почувствуйте разницу, так сказать, между демо и тестами.

Сетку делает квадами. Не скажу, что осмысленно, но и не каша. Частит.

По замыслу прям хорошо:

1. Делает несколько снимков: Использует две "ИИ-камеры" (диффузионная модель + ControlNet) для съемки цвета и глубины.
2. Строит 3D-форму: Модель реконструкции преобразует эти виды в детальную 3D-сетку с чистой геометрией
3. Накладывает 4K-текстуры(!) и реалистичные материалы с помощью PBR

Все делается где-то за 2 минуты (долго, как по мне, для облака).

Если честно, ожидал от Нвидия большего.

У них огромный 3Д-сток под боком (шаттерсток), могли бы сделать гибридный подход - тащить по тегам со стока что-то похожее, потом с помощью 3Д-контролНетов и магии генерить нужное.

@cgevent

Читать полностью…

Метаверсище и ИИще

AI Video Composer
Лицехваты 🤗 упоролись и сделали управляемый текстом видеоредактор.

Так как под капотом большинства видео-тулзов все равно лежит ffmpeg в том или ином виде, слоняры решили не заморачиваться, и прикрутили к нему qwen2.5-coder. Теперь можно делать уйму вещей с видео, аудио, картинками, для которых раньше надо было лезть либо в видеоредактор, либо на стаковерфлоу.

Прикрутить виспер и будет голосовой фотошоп из bladerunner.
Ваистену, text2video который мы заслужили!

демо
х

@derplearning

Читать полностью…

Метаверсище и ИИще

При генерации картинок обычно можно выбрать стиль, как пресет.
Ну например в Фокусе.

Вроде простая штука, но вот только сейчас она появилась в интерфейсах генерации текстов.

Антропик сделал менюшку с четырьмя стилями: стандартный, сжатый, объяснятельный, формальный.

Понятно, что это простая фича над кастомными промптами. Но странно, почему этого раньше не было.
Наверно потому что ЛЛМ больше меряются метриками, чем исполняют в продукт

Примечательно, что можно дать свой текст и сказать: срисуй стиль. Этакий IP adapter.

Интересно поразмышлять, какие жирные инструменты есть для контроля картинки, и какие аскетичные - для контроля текстов.

Картинку мы видим целиком.

А текст или видео - считываем последовательно..

@cgevent

Читать полностью…

Метаверсище и ИИще

Если вы в Комфи, то ControlNets for Stable Diffusion 3.5 Large с примерами и промптами уже подробно расписаны вот тут:
https://blog.comfy.org/sd3-5-large-controlnet/

Го тестировать.

@cgevent

Читать полностью…

Метаверсище и ИИще

Вот недавно писал про Самурай и думал, что все эти тулзы остаются демками в твитторе или репами на гитхабе.
Один Адобченко впиливает потихоньку нейрофишки в свои продукты.

А тут вот вышел ДаВинчи Резолв 19 и там обнаружился нехилый такой апдейт нейротрекера Magic Mask.

Работает быстрее и точнее.

https://www.blackmagicdesign.com/products/davinciresolve/whatsnew

@cgevent

Читать полностью…

Метаверсище и ИИще

Runway Frames

Вы будете смеяться, но у нас новый Image Generator!

И он реально интересен по многим причинам.

Сегодня ночью постил про то, что Luma бахнула свой генератор картинок Luma Photon.

А теперь, не прошло и пары дней с запуска эпического outpaint\extend от Runway, они(рунвей) взяли и бахнули в ответ свой генератор картинок Runway Frames!

Перед прочтением сразу загляните сюда, красота там:
https://runwayml.com/research/introducing-frames

Почему интересно?

1. Судя по их черрипикам, очень хорошая работа со стилями. Прям Midjourney стайл на стероидах. У них даже есть аналог sref - world с номерами.

2. Вот этот вот журнал-коллаж стиль меня прям удивил. Флюкс из коробки буксует на стилях, а тут прям жир. Но судя по демкам Frames очень далеко до Flux в плане качества, деталей и понимания промпта. Не забываем, что основное использование будет в генерации видео, где стиль важен.

3. Также ситуация интересна тем, что когда-то Эмад Мостак технично спер код Stable Diffusion у Runway и эта мутная история долго обсуждалась на реддитах. Поэтому вдвойне интересно поглядеть, что наворотили Runway сейчас.

4. Есть подозрение, что это базовая модель, увешанная Лорами на стили, как елка. Если поглядеть на всю галерею целиком, то это напоминает ранний Цивитай со стилевыми лорами.

5. Я не нашел ничего про параметры модели. Нашел только, что Gen-3 Alpha and Frames - это разные модели изнутри.
Gen-3 Alpha and Frames are two entirely separate models.

А теперь поглядим немного сверху (для чего мы тут собираемся, не новости ж читать).

У Luma свой генератор картинок Photon
У Runway свой генератор картинок Frames
У Kling свой генератор картинок Kolors
У Адобченко Firefly единое название для видео и картинок (модели разные).
В феврале нам показывали, что Sora умеет в генерацию картинок.

Обратно (из картиночных в видео-генераторы) процесс идет не так бодро.
Адобченко имеет хорошие решения.
Stable Video Diffusion не взлетел, а потом и вовсе приподстух.
Midjourney уже год обещают video model, но похоже переобуваются в 3Д облеты внутри картинки.
Flux тизерит всех с момента выхода вот такой ссылкой
https://blackforestlabs.ai/up-next/
У FreePik вроде как видеогенерация, но похоже это на сарай из апи и палок от чужих решений.
Гугл и Метачку в расчет не берем - показывают пару видосов, а потом как обычно "когда-нибудь в 2025 году".

В общем у нас прям гонка генераторов, причем они начинают конкурировать на соседних полянах. Дело идет к универсальным моделям и очень жесткой конкуренции.

И это прекрасно.

@cgevent

Читать полностью…

Метаверсище и ИИще

Anthropic показали универсальный способ общения LLM с внешним миром

MCP (Model Context Protocol) - открытый протокол, позволяющий любой LLM получать доступ к инструментам и информации. В качестве демо Claude попросили создать веб-страницу, залить её на GitHub, создать issue и PR, что он успешно и сделал (показано на видео).

Вдохновлялись LSP - протоколом, который позволил написать ядро интеграции языка с IDE один раз и использовать её повсюду, чем изменил рынок редакторов кода, дав маленьким проектам конкурировать с большими IDE.

MCP работает по простой клиент-серверной архитектуре - приложения на основе LLM (клиенты) могут запрашивать информацию у серверов, а также пользоваться предоставленными серверами инструментами. Ещё серверы могут задавать ряд промптов. Сделать сервер довольно просто - показанный в видео сервер для GitHub написали меньше чем за час.

Клиент пока что только один - Claude Desktop, а серверы нужно разворачивать своими руками локально. Потом обещают поддержку сторонних серверов - то есть в каком-то Notion будет кнопка "привязать Claude/ChatGPT/Gemini", через которую LLM будет даваться доступ к вашим данным.

Выглядит это куда интереснее, чем то как пытаются сделать интеграции OpenAI и Google в ChatGPT и Gemini. Во-первых, MCP более гибкий - авторы приложений могут встраивать туда MCP-серверы. Во-вторых, открытость протокола позволит более маленьким провайдерам, вроде Mistral или DeepSeek, использовать куда больше тулов, чем если бы они пытались сделать это сами. Ну и, конечно же, это приближает эру агентов.

Взлетит или не взлетит - пока ещё непонятно, но выглядит многообещающе. В качестве примеров для разработчиков Anthropic сделали 9 MCP-серверов - Slack, Google Maps, GitHub и ещё несколько. Несколько компаний уже принялись делать и сторонних клиентов - к примеру, авторы Zed и Codeium.

Примеры интеграций
Туториал по протоколу

@ai_newz

Читать полностью…

Метаверсище и ИИще

Похоже Minimax превращается в этакий генеративный Хаб.

Мы привыкли, что это прежде всего очень крутой видео-генератор.
Но в закромах у этого стартапа, во-первых, очень много денег, а во-вторых, есть очень много параллельных решений, о которых я лично и не догадывался.
Сейчас они все это упаковали в единый сайт, и, самое главное, сделали API ко всему хозяйству.
Кроме собственно Минимакса у них, оказывается есть:

Генератор Музыки Music-01!
https://www.minimaxi.com/en/news/music-01
Не Суно, конечно, но попытка защитана.

TTS Speech-01 - генератор голоса из текста:
https://www.minimaxi.com/en/news/speech-01
С эмоциональным, как пишут, интеллектом.
Speech-01 can handle up to 10 million characters in a single output!

Своя LLM - ABAB. Версия 7 в бете, а в 6.5 был триллион параметров и 200к контекст.
https://www.minimaxi.com/en/news/abab7-preview-release
https://www.minimaxi.com/en/news/abab65-series

Более того, у них уже есть упакованные продукты:

свой chatGPT:
https://www.hailuo.ai/
Я проверил, прекрасно пишет промпты для картинок.
https://www.hailuo.ai/?type=chat&chatID=317440964656717828

Внимание, у них свой ИИ-дэйтинг!
https://www.talkie-ai.com/
Looking for romance? (тут многие стартапы занервничали)

А еще у них есть Talkie Advanced Creation Center платформа для создания ИИ-ботов.
"Здесь вы можете не только управлять и создавать свои собственные интеллектуальные Talkies, но и выбирать различные модели ответов, настраивать и тестировать эффекты разговора ваших интеллектуальных агентов в реальном времени. В то же время, центр создания также предоставит различные плагины, такие как рисование, пение и т. д., чтобы поддержать более богатое и разнообразное создание интеллектуальных персонажей."

В общем Minimax - это не только ценный Video Gen, но и целый монстр, со своим выводком продуктов.
Для китайского рынка в первую очередь.

Весь фарш тут:

https://www.minimaxi.com/en

@cgevent

Читать полностью…

Метаверсище и ИИще

Самурай! Это просто плазма.

Пока все молятся на SAM2 от Метачки, опенсорсныe ребята взяли код и запили SAMURAI.

Для тех, кто в теме - поглядите видео и прикиньте количество времени на ротоскоп.
Причем он держит перекрытия другими людьми, дым, резкие движения.

Мне в субботу лень переводить непереводимые термины, просто скину все фичи сюда, а вы поглядите в репозиторий на гитхабе.

SAMURAI vs. MetaAI's SAM 2!

Traditional visual object tracking struggles in crowded, fast-moving, or self-occluded scenes, as does SAM2.

Meet SAMURAI: a completely open-source adaptation of the Segment Anything Model for zero-shot visual tracking!

Here's why it's a game-changer:

🚫 No need for retraining or finetuning
🎯 Boosts success rate and precision
🤖 Motion-aware memory selection
💪 Zero-shot performance on diverse datasets

But that's not all:

🔬 Refines mask selection
🔮 Predicts object motion effectively
📈 Gains: 7.1% AUC on LaSOT, 3.5% AO on GOT-10k
🏆 Competes with fully supervised methods without extra training

https://github.com/yangchris11/samurai

@cgevent

Читать полностью…

Метаверсище и ИИще

Video Outpainting в Runway Gen-3 Alpha Turbo.

Вот это уже интересно по многим причинам.

Переделать лежачее видео в стоячее.

Отъехать камерой назад и вернуться обратно в кадр.

Сделать несколько outpaint отъездов и получить суперзум обратно.

Сделать несколько outpaint отъездов и поелозить панорамой по кадру.

Перекадрироваться.

Выпить за маттэ пейнтеров.

Новые композиции кадра с разными промптами на расширение кадра.

Самое интересное - как я понял при дорисовке кадра снаружи(outpaint) можно использовать не только промпт, но и reference image(s?)!!

Я подумал про то, насколько далеко до inpainting (принцип тот же) и в воздухе отчётливо запахло нейрокомпозом.

А соединив это с успехами Segment Anything мы можем получить этакий Omnigen, но только для видео.

И вот уже сидят композеры в своих темных комнатах и орут в мониторы "замени фон на лес, а персонажу перерисуй коня на верблюда и пол поменяй по дороге, на противоположный".

И все это для видео.

Куда катится мир?

@cgevent

Читать полностью…

Метаверсище и ИИще

Значит так, у нас ЕЩЕ ОДИН ВИДЕОГЕНЕРАТОР, опенсорсный притом.
LTXV is ONLY a 2-billion-parameter DiT-based video generation model capable of generating high-quality videos in real-time. It produces 24 FPS videos at a 768x512 resolution faster than they can be watched.

Cходу нативная поддержка Comfy, text2videi, image2video и вроде как video2video.

Может притормозим?

Весь фарш тут:
https://blog.comfy.org/ltxv-day-1-comfyui/

@cgevent

Читать полностью…

Метаверсище и ИИще

И еще немного утечек от OpenAI.

Есть слух, что через неделю-другую будут новости про НовоСору.

А пока посмотрите новое видео из текущей Соры.
И что тут бросается в глаза?
Лицо.
По сравнению с последними видосами от Соры, где лица все ухудшались и ухудшались (точнее задвигались на дальние планы, где генеративные лица всегда выглядят плохо ибо теряют отметку "лица"), здесь просто огонь.
И тут явно порылся image2Video, которым Сора никогда особо не флексила.
Текстуры, проработка лица, консистентность - тут все явно на костылях, выходящих за рамки простого text2video (моя гипотеза).

В общем подбросим дофамин ожиданиями скорого релиза или хотя бы демо новой Соры.

А пока у них тихий апдейт качества ответов chatGPT-4o (да, 4о, а не о1).

Цитирую: "Творческие способности модели к написанию текстов повысились - они стали более естественными, увлекательными и адаптированными для повышения релевантности и читабельности. Она также лучше работает с загруженными файлами, обеспечивая более глубокое понимание и более тщательные ответы."
https://x.com/OpenAI/status/1859296125947347164

@cgevent

Читать полностью…

Метаверсище и ИИще

Хмм. Как насчет бесплатных генераций в Flux Pro?

Пока смотрел цены чаты, занесло в чат Мистраля.

Тот, который Ле Чат.
https://chat.mistral.ai/chat

Смотрю, внизу кнопка генерации картинок.
Сначала он отказался, но потом я его уговорил на котиков.
- Шозамодель, ле бро?
- Я не знать модель, говорит.

Ладно лезу в новости и немного фигею.

В Бесплатный Ле Чат завезли вот это вот все:

Canvas

Internet Search

Advanced Document and Image Analysis: With Pixtral Large, Le Chat can now process and summarize complex PDFs, extracting insights from graphs, tables, equations, and more.

Task Agents for Automation

И, внимание, Image Generation with Flux Pro!


Проверил. Работает. Давай, говорю, картинку of le chat.
Как истинный француз, рисует котика.

Я не нашел ничего про лимиты. Совсем. Поделитесь плиз.

Минусы.
Только 1024х768. Всегда. Нет квадратных и других аспектов.
Нет ничего, кроме промпта.

Но тем не менее - это Flux Pro. Забесплатно.

В чем подвох?

Подробнее про новый ЛеЧат тут:
https://venturebeat.com/ai/mistral-unleashes-pixtral-large-and-upgrades-le-chat-into-full-on-chatgpt-competitor/

@cgevent

Читать полностью…

Метаверсище и ИИще

Подведем итоги голосования.

Я, честно сказать, не ожидал такой прыти от Клода.

Ну и сам опрос - он, наверное, не про метрики или сравнения качества, а про масс адопшен.
Вспомните, сколько на рынке топчется chatGPT, а сколько Клод.
Миграция пользовательской базы вещь небыстрая, но все равно Клод прям удивил.
Поэтому давайте сделаем еще один опрос, где появляется экономическая метрика: за кого люди голосуют деньгами.
Сорри, за два опроса в день, но хочется проверить все гипотезы.

@cgevent

Читать полностью…

Метаверсище и ИИще

В этом смысле Llama-Mesh от интерна из Нвидия мне нравится гораздо больше.
По замыслу, о котором я писал вот тут:
/channel/cgevent/10216

И скоро будет демо на ХаггингФейсе

@cgevent

Читать полностью…

Метаверсище и ИИще

По поводу AI Video Composer из предыдущего поста.

Нет, это не инструмент для генерации видео или картинок, а инструмент для создания композиций\видосов\коллажей, когда вы приходите с существующими видосами\картинками и всем что жрет ffmpeg, чтобы создать новое видео (используя именно ffmpeg).
И да, is it an ffmpeg command-line prompt tool да основе Qwen2.5-Coder-32B

По идее он иногда может глючить и не попадать в жеский синтаксис ffmpeg

Проверяем тут:

https://huggingface.co/spaces/huggingface-projects/ai-video-composer

Ну и я бы назвал его Content Composer...

@cgevent

Читать полностью…

Метаверсище и ИИще

Я уже давно получил письмо счастья про ComfyUI Desktop, previously known as V1

Но я жду версию для Линукса.
А вчера они бахнули ComfyUI Desktop для всех и в опен-сорс.

Пока только версии для Win и Mac, что возмутительно.

Судя по реддиту, считает ЧУТЬ медленнее, памяти жрет ЧУТЬ больше, но грузится мгновенно.

Ну и - It’s in beta and is still not stable enough to completely replace your previous setup. However we are rapidly iterating and you can expect new builds every day.

https://blog.comfy.org/open-sourcing-v1-desktop/

Читать полностью…

Метаверсище и ИИще

Немного мутная история с утекшей Сорой.

Умельцы, якобы имевшие ранний доступ по API к SORA соорудили на HuggingFace демоспейс.
Который тут же прилег.

https://huggingface.co/spaces/PR-Puppets/PR-Puppet-Sora
Но в твитторе уже бегают ролики от тех, кому вроде как повезло успеть что-то сгенерить.
По 10 секунд в 1080p.

Источник: https://techcrunch.com/2024/11/26/artists-appears-to-have-leaked-access-to-openais-sora/

Пособирал таких утечек для вас. Без гарантий того, что это реальная Сора.

Может это такой изощренный маркетинг накануне апдейтов про Сору?

@cgevent

Читать полностью…

Метаверсище и ИИще

ControlNets for Stable Diffusion 3.5 Large

Конкуренция в действии. Пока на видеополяне хлещутся Luma и Runway, выпуская генераторы картинок, на поляне изображений хлещутся Flux и SD3.5.
Флюкс недавно бахнул свои Tools - набор контролНетов.
И, конечно, ответочка не заставила себя сегодня ждать.

Stable Diffusion 3.5 Large with three ControlNets: Blur, Canny, and Depth.

В отличие от Flux, который продырявил веса Dev и Schnell беспощадным дистиллятом, тюнинг Stable Diffusion 3.5 является более, скажем так, традиционной задачей. Без сюрпризов. Поэтому это отличная новость. Возможно, благодаря контролю картинки, SD3.5 сможет приподдогнать Флюкс на ряде задач.

Плюс заявлена поддержка ComfyUI с первого дня.

Также обещают дополнительные контролНеты и версию для Stable Diffusion 3.5 Medium (2B)

@cgevent

Читать полностью…

Метаверсище и ИИще

Про новый генератор музыки от Нвидия.

Фугатто (отличный нейминг между фугами Баха и легатто со стакаттами) был натренирован вот так: full version uses 2.5 billion parameters and was trained on a bank of Nviidia DGX systems packing 32 H100 Tensor Core GPUs

Дури там много, но вот про датасеты в прессе тишина - запретная тема.

Тишина так же и про сроки, доступность, апи.

Нвидии придется, вероятно, сходить в суд, по стопам Удио и Суно.

Но они ловко отстраиваются от жесткой генерации музыки, называя свое решение "avocado chair" для картинок. С отсылкой к DALL·E 2 и апрелю 2022.

Это типа генератор звуков (и музыки в том числе). Саунд-машина, как они говорят.

Попробовать нельзя, послушать нормально тоже, в общем выступление в духе Гугла.

Но вот что меня зацепило:
"Он может даже изменить звучание голоса, изменив акцент или придав ему другой оттенок, например сердитый или спокойный. Есть способы редактировать и музыку: Fugatto может выделить вокал в песне, добавить инструменты и даже изменить мелодию, заменив фортепиано на оперного певца."

Если так, что стоит подождать подробностей.

А пока читаем тут(слушать там особо нечего):
https://blogs.nvidia.com/blog/fugatto-gen-ai-sound-model/

@cgevent

Читать полностью…

Метаверсище и ИИще

У Luma Labs очень креативный апдейт.

Консистентные персонажи, ремих входного контента, брейнсторм-помогатор, движение камеры, extend.

А теперь внимание!

Там теперь внутри свой генератор картинок Luma Photon!

И все эти image to video там теперь завязаны на нем.

На демках выглядит очень сладенько, но сдается мне с анатомией и фотореализьмом там будет несладко. На черрипиках в основном стилизация и отвага.

@cgevent

Читать полностью…

Метаверсище и ИИще

В общем нашумевший LTXV видеогенератор, который обещает считать быстрее реалтайма (на H100) явно нуждается в более вдумчивых тестах. Это text2video, если кто-то добился нестатического image2video - кидайте в комментарии.

А то, как в анекдоте про машинистку - я печатаю со скоростью 15 000 знаков в минуту. Правда получается какая-то фигня.

@cgevent

Читать полностью…

Метаверсище и ИИще

Очень классный тред о том почему в очень многих областях Клод уже сильно лучше человека-терапевта. А именно, в области эмоциональной четкости и чуткости.

Это уже (меньше чем за сутки) привело к созданию как минимум десятка стартапов про ИИ-терапевтов. Несмотря на то, что их будут сотни и почти все умрут в течении года, здесь очень скоро появится продукт с сотнями миллионов MAU и миллиардной капитализацией.

И дело не только в масштабе рынка (программа минимум: автоматизировать все интеллектуальные сервисные профессии), а в том, что мир станет светлее, добрее и приятнее, когда большинство людей будет иметь эффективный и глубоко личный инструмент различения и работы со своим эмоциями.

Читать полностью…

Метаверсище и ИИще

Если и делать нейрорекламу Кока Колы, то только такую.

Согласитесь, смотрится куда круче нейрорекламы от самой Coca Cola.

Читать полностью…

Метаверсище и ИИще

LTXV выглядит нарядно на их же демках, но подписчики уже раскрыли тему.
С анатомией - также как везде. Никак.

Но зато шустрая.

@cgevent

Читать полностью…

Метаверсище и ИИще

Стоит ли инвестировать во внедрение ИИ? Для тех, кто в теме и читает ленту, вопрос звучит как риторический. Но для бизнеса это до сих пор неочевидно. Риски, непредсказуемость результатов, непонятные затраты.

27 ноября команды Школы управления СКОЛКОВО, Яндекса и Райффайзен Банка попытаются найти ответ на этот вопрос. В рамках открытой дискуссии директор программ по цифровой трансформации Школы Николай Верховский и Head of AI & CRM products Райффайзен Банка Илья Щиров обсудят:

– какие результаты от внедрения ИИ ожидают компании и почему реальность часто не соответствует этим ожиданиям;
– в чем заключается реальная ценность технологий для бизнеса;
– как обеспечить безопасность данных при использовании ИИ.

Также приглашенные эксперты разберут реальные кейсы внедрения ИИ и расскажут о вызовах, с которыми им пришлось столкнуться в процессе реализации трансформационных проектов.

📅 Среда, 27 ноября, 18:30
📍 офис Яндекса

Подробности и регистрация по ссылке.

Реклама: НОУ ДПО МОСКОВСКАЯ ШКОЛА УПРАВЛЕНИЯ «СКОЛКОВО», ИНН 5032180980 erid 2SDnjbvk9WB

Читать полностью…

Метаверсище и ИИще

Прошло 6 месяцев и в коде для приложения chatGPT наконецто заметили кусочки кода для Live Camera.

Помните, как на демо все общались с телефоном, как будет у него есть не только уши (voice mode), но и глаза(лайв-камера).

Код обнаружен в v1.2024.317 и там есть:
—Live camera functionality
—Real-time processing
—Voice mode integration
—Visual recognition capabilities

Когда и кому раскатают в первую очередь?

<string name="video_nux_beta_label">Beta</string>
<string name="video_nux_description">Tap the camera icon to let ChatGPT view and chat about your surroundings.</string>
<string name="video_nux_title">Live camera</string>
<string name="video_warning">Don't use for live navigation or decisions that may impact your health or safety.</string></code?

https://x.com/AndroidAuth

@cgevent

Читать полностью…
Подписаться на канал