Я наткнулся на новый тул text2video (только не сгенерированное, а со стоков) – поэтому сегодня вам в ленту достается профессиональное рекламное видео, о том как какать не снимая футболки ☕️
✨ Хорошего дня ✨
Делал тут:
ai.invideo.io
UPD перезалил, пощажу ваши интернеты, 220 Mb даже для каканья перебор
Нравится наблюдать как новые технологии влияют на интерфейсы, вот интересный концепт на базе LLM:
– Если читаете длинный текст и хотите сделать его короче просто сожмите его пальцами и он суммаризируется не потеряв суть;
– Если хотите подробнее разобрать какой-то концепт, просто раздвиньте пальцами как при увеличении фото;
Форвардните, пожалуйста, кто-нибудь Дурову, мне кажется идеально для формата телеграм каналов и как premium фича, спасибо 🦆 я готов все каналы читать в виде пары предложений, даже свой
Автор концепта
Пятничная новость: куча товаров на Амазоне называются “I apologize but I cannot fulfill this request (because it violates OpenAI use Policy)” и подобными. Да, потому что выкладка товаров в магазины у многих уже автоматизирована через GPT. 2024, что ты делаешь, прекрати.
https://www.theverge.com/2024/1/12/24036156/openai-policy-amazon-ai-listings
Норм мы день для запуска на product hunt выбрали, какие-то ноунеймы конкурируют с нами ☕️
Читать полностью…Как раз наткнулся на реддит тред на тему сегодняшнего поста
Полным ходом несемся в SciFi 🦆
Мне кажется дни фото-эротики или фото-моделей постепенно подходят к концу — сделал эти картинки по простому промпту «Interior selfie of a tattooed woman with silver hair and piercings, shot on a low camera quality phone
» в MJ 6 style raw и эти девушки не существуют.
Я думаю, уже в этому году, нас ждет какой-то крупный адалт сервис который поставит такие генерации на поток, без каких-то лимитов на наготу (мелкие сервисы для генерации такого контента я уже видел, пока там нет такого фотореализма).
Причем, владельцы таких сервисов еще не распробовали совмещение генерации картинок с рекомендательными алгоритмами:
Пока что оценки используются для тренировки новых моделей, но в теории, оценки каждого пользователя могут позволить создать следующие генерации конкретно во вкусе пользователя — а это уже просто чистый дофамин-генератор, получать те самые, самые желанные картинки в вашем вкусе, 24/7, взломав чувство прекрасного каждого человека.
Если честно, я рад что застал старый интернет, где нужно было «искать», то что понравится именно тебе или просто знакомиться с другими людьми, что потом перетекало в обмен нюдисами (мне друг рассказывал ☕️) и всякое взрослое — все эти генеративные картинки / AI-секстинг чаты / робкие попытки в txt2video, приведут еще к большему увелечения количества инцелов и изоляции многих анонов по всему миру от реального оффлайн общения с людьми.
Уже давно пора вводить предмет «Этика в интернете и почему общаться вживую все еще клево», и каждый раз когда я вижу новый виток развития генерации текста, видео, картинок, я еще острее вспоминаю про это — но как всегда, многие учебные системы по миру отреагируют лет через ~10-20, когда большое количество людей уже попадет в «генеративную зависимость».
Короче, генеративные ИИ будто и благословение и проклятье одновременно — не могу перестать об этом думать 🤑
Давно не было космоса:
Ловите hi-res фото песчаной бури на Марсе, снимок сделан в 2022 году
Буря была настолько большой, что есть еще второй снимок этой же бури сделанный с орбиты Марса, приложу ссылку для масштаба
Кулибины из Stanford University x DeepMind из говна и палок собрали робота за $32k
Он управляется нейросеткой с ноутбука с GPU 3070TI и способен обучаться сложным задачам всего за 50 демонстраций. «Демонстрацией» тут называется последовательность действий, осуществляемая человеком со специальными контроллерами в руках (см. тут). Авторы тестировали робота на многих задачах, и в целом в более чем 50% случаев у него всё получается после шага обучения «подражанию» людям.
Делает ну буквально всё: готовит, заправляет стиралку, подметает, заправляет подушку в наволочку, протирает мебель... был бы у меня такой робот — я б может и не женился 🍷
Инструкция «собери сам» доступна тут, в основе лежат покупные робо-детали и распечатанные на 3D-принтере компоненты.
Больше демок: тут, тут, тут и тут. Тем, кто досмотрит приложенное видео до конца — бонус с нарезкой людей фейлов бота при готовке.
———————————
Начинаем 2024й год в AI с хороших новостей для сотрудников фастфуда☕️
Новогодний отсчет в Париже – лет через ~20 зумеры 2.0 будут смотреть как мы держали эти экранчики с камерами в руках и будут ржать над нами всеми, я вас уверяю
Читать полностью…Тоже поигрался с Midjourney 6 и мне правда интересно куда такой уровень реализма нас заведет – скандалов будет много
Единственное скажу, что Dalle 3 намного лучше слушает промпты: модель Midjourney нужно долго мучить разными способами чтобы получить что-то нестандартное, людей которые пылесосят лес я получить так и не смог (даже используя дополнительный синтаксис "::" и тп), но я быстро сдался
Все сделано этим промптом:phone photo ____ posted to snapchat in 2019 --style raw --ar 9:16
В последней версии Midjourney их модель перешагнула эффект «зловещей долины» и теперь генерирует фотографии будто снятые на телефон ☕️ (правда, эти фотки еще апскейльнули)
Думаю что в 2024 количество фото-фейков выйдет на новый уровень, так как эти картинки получены очень простыми фразами, вроде:phone photo of a man sitting on a bench with his family at a wedding in New York posted to reddit in 2019 --style raw
Из плюсов – красивых/смешных мемов в 2024 станет еще больше 🍎
Клевый пример научного видео, где Ким Кардашьян и Тейлор Свифт обучают тиктокеров концепту определенного интеграла.
Думаю, этим способом можно будет обучить большую часть население земли чего-нибудь полезном (или не очень), клево же и наконец-то AI-аватары не для скам-рекламы нового дропа крипто-чего-то-там ☕️
Большие языковые модели часто ругают за то что они "галлюцинируют" ответы.
Суть этой проблемы лежит в архитектуре технологии – но люди замечают что модель "галлюцинирует" только в те моменты, когда модель ошибается в фактах и человек это заметил, на самом деле "галлюцинировать" ответы, это все что модель умеет и то, что она делает все время, просто чаще всего ответы модели выписываются логически и выглядят уместными.
Хорошая новость, что проблема галлюцинаций чинится даже с текущей архитектурой – с помощью введения дополнительных промежуточных этапов:
В Stanford нашли рабочий метод как заставить LLM отвечать корректные, реальные факты и на тестах их метод показал ~97% точности в фактчекинге.
Если коротко, они заставляют модель саму себя проверять на соответствие фактам, подавая в модель предыдущие ее же ответы, но уже с новыми промптами. Минусы такого подхода – время ответа становятся медленнее.
Можете тут бесплатно поиграться с их методом поверх англоязычной Wiki:
https://wikichat.genie.stanford.edu/
То есть все что демка ответит, на ~97% действительно содержится в англоязычной Wiki в виде фактов
Если коротко описать как это, когда запускаешь продукты на языках на которых не говоришь:
ВbI НАМ МИСКА РИСÂ. МЫ ВАМ ПИСÀТЬ ИСТÛРИИ 1 0 0 0 0 СИ МВОЛ 🇨🇳
Запустили с командой новый продукт LittleStory:
AI-генератор длинных и (относительно) интересных сказок для детей.
Пользователь регистрируется, добавляет на сайт описание ребенка (характер, возраст) и получает возможность с пары кликов сгенерировать историю и иллюстрации, где сам ребенок — главный герой, а сказка строится вокруг какой-то позитивной темы — здорового питания, хорошего поведения или простым языком рассказывается сложный научный концепт, аля квантовая физика для самых маленьких (сложность языка сказки подстраивается под возвраст).
Из прикольного — можно прописать любимую вселенную для сказки, игровую, книжную или из мультика. Ну и само собой каждая генерация тщательно проверяется на «безопасность темы» для детей.
Все работает на GPT4, поэтому бесплатно дать генерации пока что не можем — но зато мы нагенерировали сотни бесплатных сказок на разные темы, можно почитать и оценить качество.
Уже сейчас есть шесть языков (Английский, Хинди, Русский, Традиционный Китайский, Украинский, Голландский) и скоро доведем до 11+, еще планируем фичи вроде озвучки сказок или копирования голоса родителя для чтения этих самых сказок (небольшое вложение в SciFi от нас ☕️).
Это первый запуск нашей команды на Product Hunt, так что если у вас есть аккаунт, буду рад фидбеку там (комменты не на английском там удаляют 👍):
https://www.producthunt.com/posts/littlestory-io
Сайт проекта:
https://littlestory.io
(если мы ничего не сломали — а мы могли, то сразу откроется правильный язык)
P.S. Когда-нибудь расскажу как мы намучились с другими языками и gpt4 как переводчиком и с промптами размером с девятиэташку
P.P.S. Если вдруг решите поддержать проект и попробовать, то вот промо-код на 10% скидку при первой покупке WELCOME10
Запустился GPT-стор и моя GPT на 6 месте в мире в разделе Dalle, прикольненько
Доступен тут:
https://chat.openai.com/gpts
Самое главное теперь есть поиск по этим самым GPT
В Apple сделали рекламу шлема Vision Pro, в том же стиле что когда-то сделали для iPhone (второе видео), считываю это как довольно сильный посыл со стороны Apple что направление AR-шлема с нами на годы и по их мнению – такое же масштабное.
Я уже какое-то время записываю все домашние праздники в формате видео для шлема (spatial video) и тоже планировал взять его на запуске, но теперь искренне рад, что предзаказы и продажи пока будут доступны только в США, потому что зная Apple, немного стремно покупать устройство первого поколения – они часто глючат или так себе работают, а так будет много обзоров и станет понятно, насколько AR-шлем это революция или 😐-момент.
Лично я, расцениваю это устройство как замену монитору, если вы следите за каналом достаточно давно, то помните что я пытался работать в Quest 2 шлеме почти неделю – и это было тяжело, большое количество рабочих столов вокруг не окупало потеющее лицо, низкое качество пикселей, усталость шеи и глаз и тп, и тд.
Искренне надеюсь, что от шлема все будут в восторге и Apple доставит что обещали – хочется уже перестать покупать Мониторы/ТВ домой
У меня к вам предложение:
Вы игнорируете этот и следующий пост, а я вам раздражающую бегущую строку, которую делал пару часов ради того, чтобы ее закрепить 🤑
Спасибо, знал что мы договоримся!
🕺🕺🕺🕺🕺
Так, запускатели гусей победили – было не слишком сложно, потому что некоторые машины пропадают и исчезают за сотню метров от камеры:
Это компьютерная графика, но полученная на базе реальных видео.
Сначала реальный мир конвертируется в "облако точек", а потом эти точки используют для воссоздания сцены, света и тп. Я не буду грузить вас техническими деталями, все это работает на базе клевой технологии того года "gaussian splatting" и описано детально на странице проекта.
Примечательно, что такая графика выдает 133 кадра в секунду (разрешение 1066×1600) – так что нас еще ждет революция в инди-гейм девелопменте. Пока это все планируют применять для тренировки автопилотов, ждем добавления в Unreal.
Больше примеров тут (с телефона не работает):
https://zju3dv.github.io/street_gaussians/
🕺🕺🕺🕺🕺
Мой любимый формат загадки – в видео ниже:
🏬 – ставьте домики если считаете что это реальное видео
🪿 – ставьте гуся если считаете, что это компьютерная графика
Результаты подведем завтра ☕️
Сначала они пришли за художниками, потом за копирайтерами, теперь роботы пришли за уличными музыкантами 😡 сколько это еще будет продолжаться 😠
Читать полностью…Если вы помните, издание NY Times, в конце того года, подало в суд на OpenAI – якобы, в моделях OpenAI находится множество их статей, поэтому NY Times требуют уничтожить все модели натренированные с применением их данных (а это и GPT 3.5, GPT 4 и все эти тысячи опенсорсных моделей которые натренированы на ответах GPT 4).
Юристы которых я читал, говорят, что NY Times просто добивается лицензирования своего контента, так как это денюжки, а у OpenAI они есть, и что закончится все соглашением сторон – обычное дело в мире юристов.
Но интернету не понравилось как NY Times сформулировала свою угрозу (без уважения 🚶♂️), так как если «в теории» они выиграют, то сильно пострадает мир опенсорса.
Чувак с реддита, с помощью языковой модели, проанализировал в деталях стиль написания статей NY Times и сделал на этой основе открытый датасет для включения в будущие тренировки.
У датасета хорошая лицензия MIT и он по сути учит языковую модель писать статьи в стиле NY Times, но не нарушает копирайты:
https://huggingface.co/datasets/TuringsSolutions/NYTWritingStyleGuide
Стрейзант эффект на уровне датасетов 🍿
Ребят, я хочу пожелать вам счастливого нового года. Сейчас много скопированных поздравлений, которые люди просто отправляют своим знакомым, даже не читая их. Это печально. Я бы хотел написать о том, чего я сильно желаю и что лежит глубоко в сердце. Наши друзья очень важны для нас, и эту дружбу нельзя выразить простым сообщением, скопированным у другого человека. Хочу сказать всем огромное спасибо. Вы лучшая футбольная команда, с которой я когда-либо играл. Всех обнимаю.
Читать полностью…Вместо каких-то общих пред-новогодних слов (кроме пожелания вам безопасности в текущем и новом году, и пожелания чтобы война закончилась, а виновные в ней были наказаны), хотел бы поделиться чем-то полезным – мыслью, которая мне часто помогает решать сложные задачи в работе или личной жизни:
Мысленно перемотайте время на год вперед, в голове у вас теперь декабрь следующего года. Представьте, что теперь ваша жизнь – лучше, чем была когда-либо, полностью благодаря вашим решениям.
Какие шаги вы приняли, чтобы оказаться в этой точке?
Это хороший способ выписать пару главных задач на год (избегайте выписывать больше, меньше достижимых задач – лучше).
Также работает и в построении бизнеса – назначаете мысленный результат (аля х4 продаж в месяц), и расписывайте как к нему пришли.
Использую пару лет как, можете не покупать билет на Энтони Роббинса, я теперь ваш коуч личностного роста 🤑
P.S. Если вы представили, что вы новый Безос, то придется начать с лысения