На наших глазах происходит переворот, в рамках отдельно взятого евросоюза:
1. Эппл разрешили сторонним браузерам и подобным приложениям использовать свои движки. Ждем настоящий Firefox и Chrome.
2. Начиная с iOS 17.4 разрешены альтернативные маркетплейсы приложений. Комиссии за продажу приложений не будет, но будет сбор в пол евро “за технологию”
3. Эппл разрешает сервисам стримминга игр (таким как Xbox Cloud Streaming или Nvidia GeForce Now) пристуствовать в AppStore. Т.е. теперь можно будет из аппстора поставить GeForce Now и удаленно играть в 3d игры прямо с планшета!
Это бомба, теперь заживем.
Классный пост от Антона, про то как он принял участие в соревновании по расшифровке древних свитков уничтоженных Везувием (тот вулкан, что уничтожил Помпеи и соседние города в 79 году).
Антон хоть пока и не выиграл главный приз, но выиграл промежуточный:
/channel/repushko_channel/1953
…пока в августе два студента (один из штатов, второй из Берлина) независимо друг от друга глазками(!) нашли какие-то непонятные рельефы, которые подтвердили изначальную идею: не смотря на то, что чернилы не видны, бумага осталась деформированной в местах написанных букв. В итоге задачей стало пытаться программно научиться определять вот эти деформированные места (иногда глазу и незаметные) и читать буковки. Где-то в этот момент (начало августа) я и ушел в соревнование с головой.
Очень люблю такое – сочетание передовых технологий и исторических материалов, это единственный способ заглянуть в наше, человеческое, прошлое
Плюсы своей офисной двери:
Можно прикинуться выдуманной корпорацией из фильма робокоп и смущать соседей ☕️
Минусы:
Приходится ходить в офис
Специально посмотрел промо-ролик Vision Pro, и видимо если маска не индивидуальная (а обещали такие именно делать при покупке, то есть под лицо юзера), то лицо может провалиться в эту маску – и придется так затягивать свое мини-лицо
Лучше бы рассказали, тянет это на внешний монитор или нет
Если вы пропустили, то нейролав это стартап, который возник из-за телеграм канала который вы сейчас читаете, точнее, после видео по ссылке и еще нескольких подобных, которые я делал исключительно чтобы поразвлекать вас и себя:
https://youtu.be/3RYNThid23g
Потом у меня была почти-что судебная тяжба с приведеньями Братьев Люмьер (их институтом), но наступил 2024, а значит видео в публичном домене, чтобы они там не говорили. Можете смотреть (ну или не смотреть, сюжета там не много, но зато все персонажи – актеры ☕️)
Я наткнулся на новый тул text2video (только не сгенерированное, а со стоков) – поэтому сегодня вам в ленту достается профессиональное рекламное видео, о том как какать не снимая футболки ☕️
✨ Хорошего дня ✨
Делал тут:
ai.invideo.io
UPD перезалил, пощажу ваши интернеты, 220 Mb даже для каканья перебор
Нравится наблюдать как новые технологии влияют на интерфейсы, вот интересный концепт на базе LLM:
– Если читаете длинный текст и хотите сделать его короче просто сожмите его пальцами и он суммаризируется не потеряв суть;
– Если хотите подробнее разобрать какой-то концепт, просто раздвиньте пальцами как при увеличении фото;
Форвардните, пожалуйста, кто-нибудь Дурову, мне кажется идеально для формата телеграм каналов и как premium фича, спасибо 🦆 я готов все каналы читать в виде пары предложений, даже свой
Автор концепта
Пятничная новость: куча товаров на Амазоне называются “I apologize but I cannot fulfill this request (because it violates OpenAI use Policy)” и подобными. Да, потому что выкладка товаров в магазины у многих уже автоматизирована через GPT. 2024, что ты делаешь, прекрати.
https://www.theverge.com/2024/1/12/24036156/openai-policy-amazon-ai-listings
Норм мы день для запуска на product hunt выбрали, какие-то ноунеймы конкурируют с нами ☕️
Читать полностью…Как раз наткнулся на реддит тред на тему сегодняшнего поста
Полным ходом несемся в SciFi 🦆
Мне кажется дни фото-эротики или фото-моделей постепенно подходят к концу — сделал эти картинки по простому промпту «Interior selfie of a tattooed woman with silver hair and piercings, shot on a low camera quality phone
» в MJ 6 style raw и эти девушки не существуют.
Я думаю, уже в этому году, нас ждет какой-то крупный адалт сервис который поставит такие генерации на поток, без каких-то лимитов на наготу (мелкие сервисы для генерации такого контента я уже видел, пока там нет такого фотореализма).
Причем, владельцы таких сервисов еще не распробовали совмещение генерации картинок с рекомендательными алгоритмами:
Пока что оценки используются для тренировки новых моделей, но в теории, оценки каждого пользователя могут позволить создать следующие генерации конкретно во вкусе пользователя — а это уже просто чистый дофамин-генератор, получать те самые, самые желанные картинки в вашем вкусе, 24/7, взломав чувство прекрасного каждого человека.
Если честно, я рад что застал старый интернет, где нужно было «искать», то что понравится именно тебе или просто знакомиться с другими людьми, что потом перетекало в обмен нюдисами (мне друг рассказывал ☕️) и всякое взрослое — все эти генеративные картинки / AI-секстинг чаты / робкие попытки в txt2video, приведут еще к большему увелечения количества инцелов и изоляции многих анонов по всему миру от реального оффлайн общения с людьми.
Уже давно пора вводить предмет «Этика в интернете и почему общаться вживую все еще клево», и каждый раз когда я вижу новый виток развития генерации текста, видео, картинок, я еще острее вспоминаю про это — но как всегда, многие учебные системы по миру отреагируют лет через ~10-20, когда большое количество людей уже попадет в «генеративную зависимость».
Короче, генеративные ИИ будто и благословение и проклятье одновременно — не могу перестать об этом думать 🤑
Давно не было космоса:
Ловите hi-res фото песчаной бури на Марсе, снимок сделан в 2022 году
Буря была настолько большой, что есть еще второй снимок этой же бури сделанный с орбиты Марса, приложу ссылку для масштаба
Кулибины из Stanford University x DeepMind из говна и палок собрали робота за $32k
Он управляется нейросеткой с ноутбука с GPU 3070TI и способен обучаться сложным задачам всего за 50 демонстраций. «Демонстрацией» тут называется последовательность действий, осуществляемая человеком со специальными контроллерами в руках (см. тут). Авторы тестировали робота на многих задачах, и в целом в более чем 50% случаев у него всё получается после шага обучения «подражанию» людям.
Делает ну буквально всё: готовит, заправляет стиралку, подметает, заправляет подушку в наволочку, протирает мебель... был бы у меня такой робот — я б может и не женился 🍷
Инструкция «собери сам» доступна тут, в основе лежат покупные робо-детали и распечатанные на 3D-принтере компоненты.
Больше демок: тут, тут, тут и тут. Тем, кто досмотрит приложенное видео до конца — бонус с нарезкой людей фейлов бота при готовке.
———————————
Начинаем 2024й год в AI с хороших новостей для сотрудников фастфуда☕️
Нашел еще одно интересное применение моей "Image Edit, Copying & Merge GPT" для редактирования картинок:
Я уже больше года живу в текущей квартире, и все это время меня раздражают серые шторы которые достались от прошлых жильцов. Отсутствие ковра меня раздражает еще больше, но лень заняться этими вопросами всегда побеждала – подбирать что-то к чему-то это всегда муторный процесс и нужно лопатить пинтерест и тп, чтобы вдохновиться идеями, а это не самое мое любимое занятие, потому что я лучше поиграю в игры или поработаю.
В итоге, я просто скормил фотографию гостиной – и попросил добавить ковер на пол и поменять шторы.
Dalle 3, как мне кажется, в основном была обучена на "красивеньких картиночках" и модель почти всегда пытается сгенерировать то, что хорошо смотрится эстетически. В итоге, за ~5 минут получил идеи для ковра и штор, в цветовой гамме комнаты.
В текущей версии промпта GPT пытается перенести 21 (!) параметр исходный картинки. Если вы когда-то слышали про "оверинжениринг", то это про меня.
Если есть подписка в ChatPGT, то играться тут:
https://chat.openai.com/g/g-SIE5101qP-image-edit-copying-merge
А еще скоро будет 100k чатов с ней 💐
txt2img фейки успешно завоевывают инстаграм, новая эпоха интернета будет интересной 🔄
Читать полностью…Как смотрят Тома и Джери мальчики:
>Ставят торренты и качают все сезоны
Как смотрят Тома и Джери мужчины:
>Открывают официальный сайт ЦРУ с раскрытыми по закону о прозрачности файлами ноутбука Усамы бен Ладена, скачивают Тома и Джери, смотрят
Серьезно, есть официальный ЦРУ-сайт с файлами с ноутбука найденного в «убежище» лидера Аль-Каиды и там 140 серий Тома и Джери можно скачать без регистрации ☕️ я уже писал про эти данные, но не ожидал, что дают скачать вообще все с двух кликов
Сайт, уже с фильтром по видео:
https://www.cia.gov/library/abbottabad-compound/index_video.html
Классическое правило: «Первое поколение продуктов Apple не очень» во всей красе
Оказывается есть люди с не-элитарными, не-эльфийскими ушами, вы только представьте ☕️
Иногда пишут а как там чего нейролав – решили открыть наши данные по выручке, потому, что нам то без разницы а людям интересно:
https://twitter.com/literallydenis/status/1747318935932882945
В треде:
– Почему запускали новые продукты
– Какие гроухаки были
– 1-2 мема
– Планы и почему мы не планируем больше чем на 3+ месяца как команда (потому что хрен что спланируешь с таким AI темпом)
Клевый пример научного видео, где Ким Кардашьян и Тейлор Свифт обучают тиктокеров концепту определенного интеграла.
Думаю, этим способом можно будет обучить большую часть население земли чего-нибудь полезном (или не очень), клево же и наконец-то AI-аватары не для скам-рекламы нового дропа крипто-чего-то-там ☕️
Большие языковые модели часто ругают за то что они "галлюцинируют" ответы.
Суть этой проблемы лежит в архитектуре технологии – но люди замечают что модель "галлюцинирует" только в те моменты, когда модель ошибается в фактах и человек это заметил, на самом деле "галлюцинировать" ответы, это все что модель умеет и то, что она делает все время, просто чаще всего ответы модели выписываются логически и выглядят уместными.
Хорошая новость, что проблема галлюцинаций чинится даже с текущей архитектурой – с помощью введения дополнительных промежуточных этапов:
В Stanford нашли рабочий метод как заставить LLM отвечать корректные, реальные факты и на тестах их метод показал ~97% точности в фактчекинге.
Если коротко, они заставляют модель саму себя проверять на соответствие фактам, подавая в модель предыдущие ее же ответы, но уже с новыми промптами. Минусы такого подхода – время ответа становятся медленнее.
Можете тут бесплатно поиграться с их методом поверх англоязычной Wiki:
https://wikichat.genie.stanford.edu/
То есть все что демка ответит, на ~97% действительно содержится в англоязычной Wiki в виде фактов
Если коротко описать как это, когда запускаешь продукты на языках на которых не говоришь:
ВbI НАМ МИСКА РИСÂ. МЫ ВАМ ПИСÀТЬ ИСТÛРИИ 1 0 0 0 0 СИ МВОЛ 🇨🇳
Запустили с командой новый продукт LittleStory:
AI-генератор длинных и (относительно) интересных сказок для детей.
Пользователь регистрируется, добавляет на сайт описание ребенка (характер, возраст) и получает возможность с пары кликов сгенерировать историю и иллюстрации, где сам ребенок — главный герой, а сказка строится вокруг какой-то позитивной темы — здорового питания, хорошего поведения или простым языком рассказывается сложный научный концепт, аля квантовая физика для самых маленьких (сложность языка сказки подстраивается под возвраст).
Из прикольного — можно прописать любимую вселенную для сказки, игровую, книжную или из мультика. Ну и само собой каждая генерация тщательно проверяется на «безопасность темы» для детей.
Все работает на GPT4, поэтому бесплатно дать генерации пока что не можем — но зато мы нагенерировали сотни бесплатных сказок на разные темы, можно почитать и оценить качество.
Уже сейчас есть шесть языков (Английский, Хинди, Русский, Традиционный Китайский, Украинский, Голландский) и скоро доведем до 11+, еще планируем фичи вроде озвучки сказок или копирования голоса родителя для чтения этих самых сказок (небольшое вложение в SciFi от нас ☕️).
Это первый запуск нашей команды на Product Hunt, так что если у вас есть аккаунт, буду рад фидбеку там (комменты не на английском там удаляют 👍):
https://www.producthunt.com/posts/littlestory-io
Сайт проекта:
https://littlestory.io
(если мы ничего не сломали — а мы могли, то сразу откроется правильный язык)
P.S. Когда-нибудь расскажу как мы намучились с другими языками и gpt4 как переводчиком и с промптами размером с девятиэташку
P.P.S. Если вдруг решите поддержать проект и попробовать, то вот промо-код на 10% скидку при первой покупке WELCOME10
Запустился GPT-стор и моя GPT на 6 месте в мире в разделе Dalle, прикольненько
Доступен тут:
https://chat.openai.com/gpts
Самое главное теперь есть поиск по этим самым GPT
В Apple сделали рекламу шлема Vision Pro, в том же стиле что когда-то сделали для iPhone (второе видео), считываю это как довольно сильный посыл со стороны Apple что направление AR-шлема с нами на годы и по их мнению – такое же масштабное.
Я уже какое-то время записываю все домашние праздники в формате видео для шлема (spatial video) и тоже планировал взять его на запуске, но теперь искренне рад, что предзаказы и продажи пока будут доступны только в США, потому что зная Apple, немного стремно покупать устройство первого поколения – они часто глючат или так себе работают, а так будет много обзоров и станет понятно, насколько AR-шлем это революция или 😐-момент.
Лично я, расцениваю это устройство как замену монитору, если вы следите за каналом достаточно давно, то помните что я пытался работать в Quest 2 шлеме почти неделю – и это было тяжело, большое количество рабочих столов вокруг не окупало потеющее лицо, низкое качество пикселей, усталость шеи и глаз и тп, и тд.
Искренне надеюсь, что от шлема все будут в восторге и Apple доставит что обещали – хочется уже перестать покупать Мониторы/ТВ домой
У меня к вам предложение:
Вы игнорируете этот и следующий пост, а я вам раздражающую бегущую строку, которую делал пару часов ради того, чтобы ее закрепить 🤑
Спасибо, знал что мы договоримся!
🕺🕺🕺🕺🕺
Так, запускатели гусей победили – было не слишком сложно, потому что некоторые машины пропадают и исчезают за сотню метров от камеры:
Это компьютерная графика, но полученная на базе реальных видео.
Сначала реальный мир конвертируется в "облако точек", а потом эти точки используют для воссоздания сцены, света и тп. Я не буду грузить вас техническими деталями, все это работает на базе клевой технологии того года "gaussian splatting" и описано детально на странице проекта.
Примечательно, что такая графика выдает 133 кадра в секунду (разрешение 1066×1600) – так что нас еще ждет революция в инди-гейм девелопменте. Пока это все планируют применять для тренировки автопилотов, ждем добавления в Unreal.
Больше примеров тут (с телефона не работает):
https://zju3dv.github.io/street_gaussians/
🕺🕺🕺🕺🕺