Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn
Hugging Face подрубили в Hugging.chat фичу Tools, которая расширяет функционал опенсорсных языковых моделей, позволяя им парсить документы, генерировать картинки, итд.
На старте пока работает только с Command + R, но список будет расширяться.
Из доступных сейчас инструментов:
* Web Search — поиск по интернету
* URL Fetcher — получение текста из страницы
* Document Parser — чат по PDF
* Image Generation — генерация картинки
* Image Editing — редактирование картинки
* Calculator — калькулятор
Если хотите, чтобы ваш инструмент был опубликован среди других, чирканите тут.
Дальше для Tools планируется: их использование AI-агентами; подтягивание ранее сгенерированных/загруженных файлов; люди смогут подрубать собственные модели на ZeroGPU как инструменты для себя или AI-агентов; и т.д.
Интересно они смогут это как-то подружить с Use this мodel, чтобы гонять расширенный функционал локально?
Попробовать
Анонс
Rodin (Родэн) GEN-1: тестируем.
Я поиграл с ним, присунул им своего низкополигонального перца (в надежде, что он воспримет это как подсказку). Но нет, моделька, конечно, не айс. Но замысел он угадал.
Их основной посыл - уточняющий цикл генерации, вы можете менять параметры и возвращаться к уже имеющейся модели. Но будете платить кредиты, то есть деньги.
Сетка получилась плотная, ни о каком лоу поли речи не идет, но хотя бы не каша из треугольников. И потом он честно попытался сделать текстуру и материал. И еще у них забавный режим Toon для просмотра.
Скачал модель в obj, потратил на всепровсе 5 кредитов.
Очень ждем модель OpenClay600M, пока вся генерация идет на старой модели Rodin Gen-1.
https://hyperhuman.deemos.com/rodiс
Парень провёл абсолютно гениальный эксперимент — «Обратный тест Тьюринга».
Он создал на Unity купе, где собрал известных исторических личностей под управлением разных ИИ. Задача безумная — нейросети знают, что среди них есть человек и им нужно его вычислить. Задача чувака — правдоподобно отыграть ИИ-Чингисхана, чтобы не покупать билет.
Специально для вас сделали перевод на русский язык.
@exploitex
Поставьте 72.5 реакции и я наконец-то напишу про AGI. Ибо откладываю уже три месяца. А наболело.
Читать полностью…Тут вот все опять цитируют МакКинзи, который теперь строчит аналитические прогнозы про ИИ.
Я поднял свой пост двухлетней давности, где они на серьезных щах ванговали, что рынок Метаверса достигнет в 2030 году размера в ПЯТИ ТРИЛЛИОНОВ долларов. Ну то есть берем хайповый термин, которому так и не придумали определения и ну ванговать в угоду рынку.
Почитайте, пост едкий, но хороший: /channel/cgevent/3709
Это я к чему? А к тому, что пора уже выпить за всех этих онолитегов, которые по старым лекалам вангуют на рынке, не очень понимая предмет, и не очень понимая, что данные теперь гораздо лучше трактуются ИИ, чем кожаными агрегаторами данных.
Почитайте следующий пост о том, что даже без какой-либо описательной или отраслевой информации LLM превосходит финансовых аналитиков в своей способности предсказывать изменения прибыли. А уж если ИИ подкормить спецификой, то за кожаных вангователей точно можно выписвать не чокаясь.
⬇️⬇️⬇️⬇️⬇️⬇️
Немного AnimateDiff + DaVinci Resolve + Udio в умелых руках.
Вот что получается, когда за дело берутся взрослые мальчики, которые умеют и в моушен дизайн и в ComfyUI, которые умеют и рисовать, и раскатывать репозитарии с Гитхаба.
Хотите больше работ и немного подробностей, как делаются такие штуки, шуруйте в твиттор автора, там очень интересные технические эксперименты.
А полное видео на 4 минуты находится тут, осторожно, залипательно...
Udio смотрится очень уместно - получается полный генератив от начала до конца.
Также Suno.ai пилят четвертую версию, в которую пойдет фишка из предыдущего поста.
А пока они открывают доступ к версии 3.5 для подписок Pro и Premier.
v3.5 - это обновленная версия v3 со следующими улучшениями:
- Максимальная длина клипа - 4 минуты! Целый трек, без нужды склеивать.
- Максимальное продолжение имеющегося трека на 2 минуты
- Значительно улучшена структура песни
- Сохранение в формате .wav.
Обещают открыть версию 3.5 для бесплатных пользователей уже на следующей неделе.
https://twitter.com/suno_ai_/status/1794145852723777559
Чутье меня не подвело.
Помните, что я писал, что вся эта вирусная лабуда про пересаживание голов - фейк?
Читаем ниже.
Видео, впервые опубликованное в прошлый вторник, набрало миллионы просмотров, более 24 000 комментариев на Facebook и страйки на TikTok за жуткие изображения отрубленных голов. На сайте BrainBridge размещено несколько вакансий, в том числе одна для "руководителя группы нейронаук" и другая для "советника по связям с правительством". И даже New York Post написала, что BrainBridge - это "стартап в области биомедицинской инженерии" и что "компания" планирует провести операцию в течение восьми лет.
Так вот, компания BrainBridge - это фейк. Она нигде не зарегистрирована. Видео снял Хашем Аль-Гаили, йеменский научный популяризатор, который в 2022 году сделал вирусное видео под названием "ЭктоЛайф" об искусственных матках, заставившее журналистов ломать голову над тем, реально ли это.
Так что расходимся. Пофантазировали в коментах, и хватит.
В статье любопытные мысли о том, что это прогрев аудитории и попытка понять, можно ли на эту тему привлечь инвестиции.
https://www.technologyreview.com/2024/05/23/1092848/that-viral-video-showing-a-head-transplant-is-a-fake-but-it-might-be-real-someday/
Шутки кончились.
Роботы-псы уже на вооружении у Китая 🇨🇳
Это уже не пес с огнеметом просто приколу. Это уже не прототип и не эксперимент.
Это видео (вроде как) с учений китайской армии, которые проходят прямо сейчас.
Возникает много вопросов:
- Что за оружие установлено на пса.
- Пес управляется дистанционно, или, наконец, получил автономность и все помнит.
- И, самое главное, СКОЛЬКО у них этих псов.
Кажется, уже совсем скоро кожаные узнают ответы. И ответы им не понравятся.
🔴 @reptiloidnaya × #киберпанк #роботы
На HuggingFace появилась фича Use this model для запуска LLM и Text-2-Image моделей у себя локально через желаемый софт.
В настройках хаггинг аккаунта заходим в раздел Local Apps and Hardware. Можно здесь задать своё железо, но на фильтрацию AI-приложений похоже это не влияет. Я с ноута, где стоит двухгиговая 1050 запустил ламу 3 в Jan, всё ок.
Ставим галочки на софте, который вы используете для того, чтобы гонять модели локально. Для работы с текстом поддерживаются llama.cpp, LM Studio, Jan, Backyard AI. С картинками пока только Draw Things и, скоро, DiffusionBee, но они обе только на мак.
Нажимаем Browse Compatible Models —> выбираем приглянувшуюся нейронку —> кликаем Use this model в правом верхнем углу —> выбираем в каком софте запустить, и через диплинк в нём откроется окно для загрузки модели. Можно и просто исследуя хаггинг открыть понравившуюся нейронку нажав Use this model.
Доступны, в основном, квантизированные GGUF версии, которые можно скачать либо целиком, либо они состоят из нескольких частей и для работы понадобится скачать их все как архив из множества кусков (они обычно подписаны part_N). Чтобы понять какую модель грузить, можно глянуть страницу с описанием на хаггинге, если там про это есть. В противном случае качайте, то что как вам кажется нормально запуститься в памяти вашей видюхи. Как только модель загружена — можно генерить.
Если вы пилите своё приложение для запуска локальных моделей, то нажав Suggest a new local app вы можете предложить добавить его в список.
Krea.ai таки анонсировали типа-видео-модель. И что самое главное, нормальный UI к нему.
Недавно писал, что Креа запустили фишку с забавным видео-эффектом, когда можно делать морфинг картинок (не в пиксельном, а в латентном пространстве), причем с ключевыми кадрами.
Вчера они разродились Krea Video Open Beta.
Выглядит нарядно. Но если приглядеться, то это, скорее всего, не модель для генерации видео, обученная на видео. Похоже на очень причесанный AnimateDiff, то есть анимацию с помощью Stable Diffusion. Волосы кипят в полный рост.
Как и в случае с морфингом - отличная фишка для эффектов, переходов и абстрактного арта. Но прям для видео или анимации с рассказыванием историй - вряд ли. Хотя... поглядите тут
Но и самое главное. У них, в отличие от других ацких видеогенераторов, есть таймлайн(!) и кифреймы. То есть они упарываются в UI/UX и управляемость. Я уже много раз писал, что в музыкальные и видео-генераторы прямо просится таймлайн. Это вам не тексты с картинкам, где нет дополнительного измерения - времени. И это время(тайминг) хочется редактировать. Монтаж и эффекты в общем.
И Креа тут молодцы.
Вот держите твитторный пост с туториалом, как наруливать видео в Креа:
https://x.com/krea_ai/status/1793570374036357368
Кожаный дипфейк.
Тут интернетик приподвспучивается новостью про пересадку голов.
Видосик разлетелся, журналюги взвыли.
Там еще самая сладкая фича - пересадка лица! Кожаный дипфейк во плоти.
Смотрите здесь полное видео:
https://youtu.be/szXbuUlUhQ4 (осторожно, тошнит)
А Кожаные дипфейки у них прям на сайте:
https://brainbridge.tech/
Но, камон! Клюква жеж. Они там собираются сливать всю кровь из башки и пришивать непришиваемое. Ну и на сайте столько маркеров того, что это булшит, что я даже сначала писать не хотел. Однако меня закидали ссылками, вот отбиваюсь.
В общем как хорор-муви - хорошо заходит.
Как технология - фейк.
Почитайте лучше вот тут, почему это невозможно:
https://www.theguardian.com/science/brain-flapping/2017/nov/17/no-there-hasnt-been-a-human-head-transplant-and-may-never-be-sergio-canavero
Бесплатный аналог Wonder Dynamics? Часть 2
Основной функционал
1. Автоматический композинг 3D персонажей:
• Интеграция 3D моделей в предзагруженные видеоролики (пока только по запросу от креаторов).
2. Генерация альфа-масок и масок и карт глубины, сегментации:
• Создание альфа-масок для точного выделения объектов.
• Генерация масок глубины для реалистичного совмещения с фоном.
• Получение сегментационных масок
3. Создание cleanplates:
• Автоматическая генерация чистых кадров без 3D персонажей для улучшенного композинга.
4. Автоматическая анимация персонажей:
• Захват движений актеров и генерация анимаций, которые готовы к использованию в таких редакторах, как Maya, Blender, Unreal Engine и Unity.
• Передача движений и мимики на персонажей.
5. Стилизация персонажей (СКОРО):
• Возможность изменения внешнего вида персонажей для создания уникальных образов благодаря диффузионным моделям.
• Использование нейросетевых технологий для трансформации персонажей и слоев видеороликов.
Работает прямо в телеграмме.
Почему нет десктопной версии chatGPT для Windows?
Есть версия, что выход версии для Виндовс отложен из-за вчерашнего анонса Copilot Plus AI от Микрософта и что интеграция gpt4-o будет встроена в новую Windows 11 на этих новых машинках, о которых я писал вчера. И там она будет юзать тот самый нейрочип NPU.
А что будет для Windows 10 и "обычных" PC - пока непонятно.
А ведь это все пойдет/пошло в датасеты для обучения Соры и других: ⬇️⬇️⬇️⬇️
Читать полностью…Еще один 3Д-генератор. Теперь я знаю, на чем их тестировать.
Вот держите такое чудо:
https://craftsman3d.github.io/
Вот на этом видео:
https://www.youtube.com/watch?v=WhEs4tS4mGo
все выглядит нарядно, там даже инпайнтинг в виде скульптинга в каком-то виде присутствует.
И там есть демо:
https://huggingface.co/spaces/wyysf/CraftsMan
Я конечно, опять вонзил туда своего перца.
Первой модели (CRM) он сломал мозги и получилось гнилое яблоко.
Вторая модель(ImageDream) с промптом (которыq породил Rodin кстати) сделала сильно покусанный перец.
Дальше я не стал тестировать, далеко им до Родэна...
Продолжаем за 3Д.
Rodin Gen-1 атакует меня письмами.
Тизерят новую модель, а пока предлагают поиграть с их демо вот тут:
https://huggingface.co/spaces/DEEMOSTECH/Rodin
Но я пошел к ним на сайт, там гораздо больше опций и задал им перцу, результаты ниже.
ИИ-авторские
А тем временем сделаю вот такой некороткий наброс.
Тут общественность худо бедно разобралаcь со Скарлет Ёхансон и голосом Sky, который удалили из chatGPT. Если вкратце, то это была не Скарлет, а неизвестная никому (пока) актриса озвучания. Когда ее отобрали, то НЕ просили быть похожей на Ёхансон и не упоминали фильм Her как референс. Просто записали, как есть. А получилось (немного) похоже на Скарлет.
Тут бы поставить точку, но остается вопрос - а схренали Сэм звонил Скарлет тогда накануне презентации (ну ок, может предлагал сотрудничество на будущее).
Дальше встает очень интересный вопрос, а если ваш голос похож на голос Лепса или Джанифер Лопес, то вам получается надо помалкивать, ибо если вдруг озвучите что-нибудь популярное, что вам прилетит от Лепса\Лопес. Тут рождается идея для стартапа - токенизация голоса, цифровая метка на ваш тембр, которую вы храните в блокчейне, хотя я думаю WorldCoin - это подхватит.
Кстати, кожаные двойники встречаются в природе примерно 1 на 100 000. То есть лица, которые условные пограничники на таможне будут путать друг с другом. ИИ в этом случае различает лица лучше, больше параметров считывает.
Но я веду вот к чему. Если вы Ёхансон или Лепс, то у вас есть агент или агентство, с которым у вас контракт. У них есть права на ваш голос, пестни, и всякую дичь, которую вы исторгаете из себя.
Но ИИ учится не только на ЛепсоЛопесах, он учится на всех кожаных. И в роли агентства для вас родимых выступают фейсбучеги, реддиты, артстейшены, твитторы. Куда вы, гогоча, вгружаете свои неумные мысли и гениальные картинки. Просто заводя аккаунты, вы нажали кнопку "Согласен". С тем, что все ваши авторские комментарии теперь во власти соц-сетей и всяких агрегаторов USG (user generated content).
Да, контракт можно разорвать, просто удалив аккаунт. Но вы готовы платить такую цену?
Если нет, то привыкайте, что теперь у вас у всех есть свои агенты, которые владеют авторскими правами на контент, который вы производите. И владеют полностью, с потрохами. И продают эти потроха и ваши авторские права Гуглу, ОпенАИ и всем кто даст хорошие деньги.
Так что вы теперь все Ёхансоны в каком-то смысле. Только судиться не с кем.
Прикольненко. GPT-4 оказалась лучше профессиональных аналитиков и гораздо лучше предсказывают будущие доходы и делать финансовый анализ даже без файнтюнинга какого-то специального, просто с chain-of-thought.
Вот что пишут:
Даже без какой-либо описательной или отраслевой информации LLM превосходит финансовых аналитиков в своей способности предсказывать изменения прибыли. LLM демонстрирует относительное преимущество над человеческими аналитиками в ситуациях, когда аналитики обычно испытывают трудности. Более того, мы обнаружили, что точность предсказания LLM находится на одном уровне с эффективностью узко обученной современной ML-модели. LLM генерирует полезные описательные сведения о будущих показателях компании. Наконец, наши торговые стратегии, основанные на прогнозах GPT, дают более высокий коэффициент Шарпа и альфа, чем стратегии, основанные на других моделях. В совокупности наши результаты позволяют предположить, что LLM могут играть центральную роль в принятии решений.
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4835311
📰 OpenAI объявили, что начали обучение новой версии GPT, скорее всего, речь идет про GPT-5.
В посте говорится, что сегодня совет директоров OpenAI сформировал Комитет по Безопасности, возглавляемый Бретом Тейлором, Адамом Д’Анджело, Николь Селигманом и Самом Альтманом. И это связано с обучением и выпуском следующей версии GPT, цитирую: OpenAI недавно начала обучение своей следующей передовой модели, и мы ожидаем, что полученные системы выведут нас на новый уровень возможностей на нашем пути к AGI. Скорее всего, речь идет именно про GPT-5.
Анализируя актуальный релиз GPT-4o, можно сделать вывод, что кроме еще более дорого претрейна из коробки стоит ожидать:
— более качественный Aligning (понимание и следование намерениям пользователя) с уклоном не только в точность, но и в безопасность
— Еще больший упор в мультимодальность. Тут фантазирую, но вероятно, что будет еще более глубокий fuse визуальных, текстовых и аудио токенов.
читать 👉 OpenAI Board Forms Safety and Security Committee
Из набросков в 3Д.
В коментах вопрошали, а можно ли из чертежей или набросков делать 3Д.
Держите довольно ловкий плагин для Блендора. Позволяет делать процедурные города и улицы. Внутри довольно много ассетов. И нет, это не ИИ. Это олдскульный процедурный генератор.
Много видео и туторов вот тут:
https://blendermarket.com/products/icity
Суно честно спер фишку генерации музыки из внешних звуков из musicfy.lol
В принципе это напрашивалось уже давно - audio-2-audio - это как image2image.
Подробнее про musicfy.lol с полным видео почитайте тут.
Ну и это, наконец, путь к новым аранжировкам старых песен.
Интересно, у них будет какая-то цензура на входное аудио. Сейчас, когда в тексте указываешь имена конкретных исполнителей, тебя сразу шлют в сад.
А если присунуть на аудио-вход конкретного исполнителя? Подозреваю, что там будет шазамоподобная цензура, иначе будет очень много вопросов.
Впрочем, умельцы быстро сварганят препроцессинг - берем майкла джексона, пропускаем через фильтры, раскладываем на дорожки и вонзаем в Суно.
Что будем сувать в Suno, композиторы?
Виртуальная примерочная наоборот.
Гугл бахнул прототип инверсной примерочной - одна и та же одежда виртуально примеряется на разных людях. Люди, судя по всему, не кожаные, а диффузионные. Всех цветов, а главное - размеров.
Выглядит занятно - выбираешь сначала шмот, потом цвет и размер себя родимого, и ну примерять.
https://www.wired.com/story/google-ai-shopping-clothes-fit-different-bodies/
Кстати, у Гугла уже есть и "прямая примерочная":
https://www.wired.com/story/google-generative-ai-clothes-shopping/
И таких примерочных уже много, недавно обсуждали VTON.
Но с инверсией забавно и диверсити на месте.
Матрица все ближе. Нео и агент Смит пока играют в настольный футбол.
Идея хорошая. Прокачивать обратную связь и гонять мячик силой мысли полезно для мозга.
Тут вот управление глазами прикручивают к айфону (и уже прикрутили к хуавею).
Но прикиньте прокачанный скилл типа "разблокируй телефон, запусти телегу, открой канал Метаверсище". И все это силой мысли.
Вынимаешь телефон из кармана, и сразу читаешь этот пост. Без тыкания грязными пальцами в экран.
Листаешь также, силой мысли.
Одна засада, надо потратить много усилий на тренировку таких навыков
У меня был такой приборчик, с манжеткой на ладонь. Довольно сильно приходилось пыхтеть, чтобы сдвинуть мячик с места. Также была примочка к айфону.
Покрал видео на компьютере, там довольно интересный научпоп про телекинез и про то, как промты ЛЛМ связаны с телепатией.
https://www.computerra.ru/297102/smogut-li-mozgovye-chipy-odarit-lyudej-telekinezom/
Нехилый конфликт между Krea и AnimateDiff.
Похоже я был прав в предыдущем посте, и генерация видео в Krea - это AnimateDiff.
Я поресерчил и оказалось, что в сообществе AnimateDiff часть людей убеждены, что Krea сперли (ну как сперли, скачали открытый код и веса) наработки AnimateDiff и юзают их, для ацкого зарабатывания денег. И в твитторах прям пригорает.
Ниже, я приведу цитаты и ссылку на хороший пост, освещающий историю создания AnimateDiff - там очень много шикарных работ.
Вопрос о воровстве сильно открыт. Как правило, надо смотреть на лицензию всего того добра, которое выкладывается на GitHub. Я не разбирался с кодом AnimateDiff и вопросом о том, легально ли Креа используют код AnimateDiff. Но меня в свое время очень смущал маркетинг Леонардо АИ, являвшегося по сути нашлепкой над Stable Diffusion. Которые запустили в сеть дикий трафик типа "новая модель Леонардо - убийца Midjourney", хотя модель там была Stable Diffusion 1.5. А возможность юзать модели в Цивитай в Леонардо и вовсе ломала такой маркетинг.
В общем, это наверно старая история противостояния открытого и закрытого кода. И того, как можно зарабатывать на открытом коде.
Ниже цитаты:
"Если вы не заметили, Krea — стартап с закрытым исходным кодом, укравший кучу вещей, над которыми люди здесь работали последние 10 месяцев — это было неизбежно, но все равно меня огорчило. В ответ я написал здесь краткий обзор, документирующий некоторые достижения Animatediff https://x.com/pom_I_moq/status/1788675646069277008.
Спасибо всем, кто поделился этим! Я думаю, что сделать так, чтобы все знали о природе таких компаний, как Krea, — это самое лучшее, что мы можем сделать — не спорить и бороться с ними, а информировать о том, чем они занимаются. Оттуда они примут собственное решение.
Кто-то может сказать, что эти люди, зарабатывающие все деньги на этом, неизбежны и что все, что люди придумывают, в конечном итоге будет аналогичным образом коммерциализировано другими людьми, которые почти ничего не имеют общего с экосистемой.
Прежде всего, это было бы ужасно, потому что, как показали такие компании, как Kaliber и Leonardo, конечная цель этих компаний — использовать преимущества открытого исходного кода для обучения более совершенным закрытым моделям. Со временем их цель состоит в том, чтобы сделать открытый исходный код недоступным для своих моделей."
Помните, я постил отличный ролик Funky Hands с использование AnimateDiff и After Effects.
Так вот вышел Making Of этого ролика. Поглядите, кто в теме.
Если интересны детали, то почитайте тут и тут.
А теперь интересное:
На производство ролика ушло 2.5 дня. И одна 4090. От идеи до рендера.
Если поглядеть на ноды из ComfyUI от автора, то вам сюда.
Автор ролика - Алексей Лотков.
Его инста вот тут:
https://www.instagram.com/aleksejlotkov/
Очень крутая работа. Да еще и в такие сроки. Это ж как надо владеть ComfyUI и After Effects!
Итак, Microsoft Build.
- Team Copilot: офигенная штука, судя по видео, такой типа еще один сотрудник, который может вести заметки на встрече, на вопросы отвечать, задачи сам ставить, генерировать ответы и запрашивать дополнительную информацию. MS прям делает "AI-сотрудников" и я бы даже сказал менеджеров )
- Copilot Studio: Такой Robotic Process Automation на максималках! Платформа для создания кастомных копилотов, которые могут процессы автоматизировать, причем вызывая разные приложения, динамически адаптируясь, обращаясь к человеку, если что-то непонятно или не хватает данных. Ну это прям новый уровень вообще! Настроил авто-обработку документов и сидишь пьешь смузи )
- Phi Silica: Локальная маленькая моделька, заточенная на нейропроцессоры новых ноутов Copilot + PC. И можно по API к ней обращаться. Я думаю, что ноуты эти распространятся лет через 5, но пока просто показываем.
- Phi-3-Vision: Новая визуальная хорошая маленькая моделька от MS (4B параметров). Тоже оптимизированная для локального применения. Ну и еще Small и Medium обновили на 7 и 14B.
- Real-time Intelligence в Fabric: Будет теперь искать аномалии и нотификации присылать в реальном времени, если что необычного с вашими данными происходит
- GitHub Copilot Extensions: Можно интегрировать сторонные тулы и тогда AI сможет данные из них подсасывать
- Azure AI Search: Оптимизировали поиск по большим данным, гибридный поиск (и по векторам, и по тексту), так что теперь все быстрее и лучше, и для LLM.
- Azure AI Studio: создавай GenAI проекты с кучей моделек, мониторингом, безопасностью, оркестрацией агентов, файн-тюнингом и все в удобном интерфейсе. Звучит прям как сильный конкурент Vertex AI наконец-то
- Azure OpenAI Services: добавили GPT-4o (обычно с задержкой в пару месяцев появлялось все), файнтюнинг простой, Assistants API
- Cognition + Microsoft: воу-воу, Devin (тот самый AI-разработчик) будет совместно с MS разрабатываться и доступен в Azure.
Ну это прям дофига всего, И для разработчиков, и для бизнес-пользователей действительно полезно.
Видосы:
https://youtu.be/4k2T5sfGIP4
https://youtu.be/5H6_pCUt-mk
https://youtu.be/JI6IQvSLP9M
Бесплатный аналог Wonder Dynamics?
С утра постил про то, что Автодеск пожрал Wonder Dynamics с потрохами (и не уготована ли ему судьба Softimage).
Как тут подписчики мне подкинули вот такое чудо как iVFX!
С похожим функционалом, причем работает сервис прямо в телеге - кидаешь видос и скачиваешь готовый результат с плейтами, масками, освещением, экспортом в любые 3Д-пакеты и тд. Ограничение - 30 секунд.
Причем там еще нейромокап, который из видео достает скелет и вроде как нейро стайл трансфер.
Я почитал телегу и увидел в ранних постах знакомые видосы. Тут же написал Максу Козлову из AR/VR Lab и угадал, это его рук дело.
Оказалось, что они с командой переобулись в Центр Технологий Метаверса Сбера и пилят там целый выводок продуктов, один из которых iVFX.
Макс меня снабдил видео-тутором и описаловом, которое я пощу ниже, а сам я пойду потестирую разработку. С Вандер Динамикс теперь непонятно что будет...
Бот тут: /channel/iVFX_Bot
Люди: SORA иногда генерирует какой-то неправдоподобный бред
Реальный мир:
Автодеск купил Wonder Dynamics.
У меня один вопрос: почему только сейчас?
Wonder Dynamics - довольно старый проект, по сравнению с другими ИИ стартапами.
Ну и конечно второй вопрос: что теперь будет с WD?
https://techcrunch.com/2024/05/21/autodesk-acquires-ai-powered-vfx-startup-wonder-dynamics/