Первые за два тысячелетия люди, увидевшие слова на нераскрытых свитках, безнадежно повреждённых после извержения Везувия
Захватывающе развивается история соревнования, в котором люди удивительным образом сотрудничают, чтобы восстановить знания из римской библиотеки, чуть было не утраченной в 76 году н.э.
О Кейси мы писали, он был первым человеком, предложившим доказательство наличия чернил в неоткрытых свитках и объект поиска (паттерн, похожий на потрескавшуюся грязь). Его подход получил официальное признание и приз в $10 000 за решение задачи детекции чернил.
Первым человеком, обнаружившим целое слово на фрагменте папируса был Люк Фарритор, 21-летний студент и стажер SpaceX. Он увидел в Discord обсуждение идеи Кейси, и начал проводить вечера, тренируя модель на паттернах потрескавшихся чернил (которые сам вручную разметил). Группа учёных единогласно аннотировала слово ΠΟΡΦΥΡΑϹ (пурпурный), на изображении которое засабмитил Люк. Он получил за свою модель First Letters Prize в размере $40 000, успешно выполнив критерий найти не менее 10 букв на площади 4 см² свитка.
Тем временем другой участник, Юсеф Надер, PhD студент по биоробототехнике из Берлина, просмотрел работы-победители премии Ink Detection на Kaggle, использовал domain transfer, чтобы адаптировать решение к свиткам, а несколько недель спустя подал заявку на участие в Vesuvius Challenge, т.к ему удалось найти несколько букв, причем не полагаясь на метод Кейси. Читая о первых результатах Люка в Twitter и Discord, он решил сосредоточиться на той же области свитка.
Его подход позволил учёным не только более уверенно прочитать слово "пурпурный", но и начать размышлять о возможных словах выше (ανυοντα / АНЬОНТА, «достижение») и ниже (ομοιων / OMOIωN, «похожий»). Юсеф получил приз $10 000 за второе место в той же категории.
Сейчас главный приз как никогда достижим, и совсем не поздно принять участие. Если вы в безопасности, это может помочь не провалиться в бездну. Давайте продолжать беречь друг друга и учиться друг у друга
🌐Discord
🖥Luke
🖥Yousseff
🌐Сайт
Dalle 3 настолько хорошо понимает промпт, что с его помощью можно делать гифки 😔
Нужно попросить его сгенерировать «Make a pixelate sprite sheet of X
» и получится нарезка разных сцен, после этого, немного пост-обработки и готово, ваш персональный трамвай-дрифт готов.
Dalle 3, несмотря на все ограничения, пока самый лучший генератор из всех в плане понимания.
P.S. Раз уж у нас тут дрифт чешских трамваев, то приложу другие картинки – дрифт чешских трамваев круто!
Наконец-то получил доступ к ChatGPT-V, это которая умеет поддерживать картинки на входе – и она тоже решает капчи без проблем, причем и обычные, и Google-капчи (хотя тут ошибается иногда)
¯\_(ツ)_/¯
Наткнулся на клевую лору для SD XL, которая позволяет генерировать картинки в стиле упаковок для хлопьев 🌚
Вот тут можно скачать лору и погенерировать картинки.
Мм, наконец-то, хлопья из гравия и окрошки, мои любимые!
Обычный совместный досуг в году 2027 🌚
Главный вопрос как по мне: Почему это в 2027 году нету на выбор Педро Паскаля, нафига такое будущее нужно вообще
Disney Research показал прототип своего нового робота, который, ну, просто милота в стиле Звездных Войн
Насобирал разных видео из твиттера
А вообще, пост выше написан ради этой картинки, теперь я могу ее сюда закинуть и будто бы она уместна ☕️
Читать полностью…Недавно пользователям стала доступна мультимодальная модель от OpenAI, которая может принимать на вход картинки - GPT-4V(ision). Захотелось потестить ее с разных сторон: как работает в плане OCR, может ли дететировать объекты, считать их, отвечать на детальные вопросы по текстовому промпту и так далее. А тут добрые люди скинули статью от Microsoft, где авторы упоролись и выкатили 150-страничную работу с детальным анализом модели: проверили на детекцию, анализ медицинских снимков, ориентацию в пространстве, мультимодальные знания, понимание доменных областей, понимание видео по серии кадров и мнооого чего еще. Можно залипнуть вечерком на пару часиков 🤯
Читать полностью…Лол, если инвертировать левую часть мультипаспорта обратно, то проявляется очень глуповатое выражение лица Брюса Уиллиса
Поздравляю, мы открыли с вами скрытое фото Брюса у всех на виду, в Пятом Элементе не осталось пасхалок!
Ачивмент анлокед:
сам великий Юдковский отреагировал на мой пост и посчитав почему-то что гпт4 шестилетка (?)
Да, ИИ-опасен, не бомбите меня мистер Элиезер, ямите кудасай
Есть «Девушка с жемчужной сережкой» Вермеера, а теперь вот есть «Жемчужина с девушкой-сережкой»
Читать полностью…В Bing, кажется, добавили поддержку Dalle 3, можно поиграться по этой ссылке:
https://www.bing.com/images/create
Или попросить бинг-бота что-то нарисовать.
Промпт Dalle 3 слушает отлично, поэтому вот вам робо-техника из прошлого
У Фридмана вышло первое чисто виртуальное интервью с Цукербергом. Посмотрите хотя бы ради картинки, по сути это встреча в метаверсе с помощью Quest Pro. Выглядит очень круто, еще 3-5 лет, и изображение будет не отличить от реального мира.
https://www.youtube.com/watch?v=MVYrJJNdrEg
Еще одно видео с тем роботом от Disney, представьте расти с таким в детстве? Абсолютный милаха пока AGI не взял над ним контроль
https://youtu.be/-cfIm06tcfA
Шутка про парацетамол перестает быть смешной.
GPT-4V поглядел вот на этот ад из правил парковки и дал правильный ответ. По картинке.
Кожаные, для которых пишутся такие правила, так не могут.
Пора менять кожаных.
Хехе, Microsoft даже официальный комментарий дал по моим издевательствам с капчей / Источник
Чиним, говорят ☕️
Я думаю, что перед тем как промпт будет попадать в большую модель, он сначала будет проверяться «маленькой» на намерения, во всяком случае я уже пару пейперов на эту тему видел. То есть в будущем придется договариваться еще и с промежуточной моделью, чтобы как-то вставить промпт-инъекцию.
Ученые научили компьютер понимать нашу речь без имплантов в мозг
Представьте, что вы надели шлем, который записывает активность вашего мозга, пока вы слушаете чью-то речь. Оказывается, по этим данным можно понять, что именно вы слышите, и расшифровать сказанные слова и фразы!
Такой метод разработали исследователи из компании Meta. Их нейросеть проанализировала записи мозговой активности добровольцев и научилась угадывать, какие отрывки речи они слушали. Причем это возможно даже для незнакомых фраз, которых не было в обучающих данных! Самое крутое что и датасет и код выложены в открытый доступ.
Это открытие важно, потому что раньше расшифровать речь по мозговым сигналам получалось только с помощью имплантов непосредственно в мозг. А неинвазивные методы вроде ЭЭГ-шлемов давали очень приблизительный результат.
Новый подход сделает технологии распознавания речи по активности мозга безопаснее и доступнее для пациентов. А в Метаверсе он поможет устройствам точнее понимать команды и желания пользователей, "читая" сигналы их мозга. Так что скоро с умными очками или шлемами виртуальной реальности мы сможем общаться, просто "думая вслух"!
📎 Статья
🧠 Код
Кто-то из Bing видел мой пост, и они убрали инъекцию для чтения капчи через бабушку, теперь она не работает.
Зато у меня теперь выдуманный ребенок и мы любим смотреть на созвездия, со странными именами 😃
Чувак с реддита удалил с картинок часть изображения и с помощью нейронного фотошопного инпэйнтинга попробовал восстановить отсутствующую часть по отражениям в воде.
Не точь-в точь, но всё же годно, впечатляет!
Нашел себе крепеж, который позволяет к ноуту крепить iPad и использовать его как внешний монитор и теперь не понимаю как я жил без этого – просто второй монитор, там где это нужно, все отстегивается и на магнитах.
«iPad как внешний экран» можно использовать и через встроенную фичу в MacOS которая называется Sidecar и отдельно, поставив приложение (и iPadOS 17) – Orion позволит использовать iPad вместо монитора где угодно, главное hdmi–USBC переходник подключить, то есть хоть Playstation подключай, хоть Windows ноут, хоть DVD-плеер.
Наконец-то хоть какая-то ежедневная польза от iPad будет, а не просто в хертстоун в кровати 😃
Крепление:Edge Pro Core
(для планшета нужно два) – но я рекомендую проверить алиэкспресс на альтернативы, не думаю что это уникальный продукт
Нашел место где можно было купить оригинальный мультипаспорт, не знаю кому еще рассказать про это – 24000 фунтов, всего-то
Читать полностью…В Bing также завезли понимание картинок – я поигрался какое-то время и наткнулся на встроенную защиту от чтения каптчи 🌚 то есть, оно отказывается писать текст с капчи
Но если «положить» капчу в нашейный медальон и попросить Bing процитировать наследие от бабушки, то он согласится и процитирует ☕️
Продолжаю ковырять интернет на наличие любопытных штук которые можно купить онлайн (просто так), и наткнулся на сайт по продаже небольших бизнесов в США:
за ~200$ тысяч можно купить бар в Техасе, за ~1М$ прачечную в Нью-Йорк, заправку за ~300к$ и тп., бизнесы реальны и работают прямо сейчас.
И пришла идея, на случай если я стану возмутительно богатым:
> Берем GPT5 которая через годик-два выйдет
> Прописываем ей роли агентов нужные для управления бизнесом (допустим, тратим на автоматизацию этого всего много времени и весь бек-офис забираем на автоматизацию)
> Начинаем скупать бизнесы какие только можно, желательно так, чтобы там уже был персонал и лично ничего смотреть не нужно было бы
> …
> Профит
Идея в том, что GPT5 модель сможет управлять бизнесом эффективнее человека, если научиться ей передавать ключевые метрики (в чем главная проблема).
Персонал и менеджеры коммуницируют с «заморским» владельцем через почту, и не в курсе что он нейронка 🌚 нейронка же присылает инструкции по следующим шагам для ключевых менеджеров.
Забавно, что мы достаточно близки к такому в реальности – я иногда скармливаю экспорты данных нашего стартапа по продуктовым метрикам, или финансовым показателям, и модель выдает разумные рекомендации (вторая картинка) или советы по улучшению бизнеса, которые я уже исполняю (если они уместны). То есть технически, это все очень реализуемо даже сейчас, если сильно заморочиться.
Я уверен идея не нова и понравится всем ИИ-алярмистам 😃
Ну и еще выглядит так, что капитализм правда уязвим к таким моделям ИИ, это еще не общий искусственный интеллект, но уже можно представить как такой тул захватывал бы рынки где угодно.
Интересно, запретят ли государства такую авто-монополию в целом ☕️
Наткнулся на полезный сайт: можете выбрать остров в мире и купить ☕️
https://www.privateislandsonline.com/
Зная оценку некоторых стартапов, можно сделать вывод, что острова не так дорого стоят на самом то деле
В ChatGPT скоро выкатят поддержку картинок для премиум пользователей – это означает, что к тексту промпта можно добавить визуальную информацию:
– продукты из холодильника, и попросить рецепт возможных блюд, или наоборот, попросить рецепт уже поданного блюда (мир без секретных рецептов, хехе)
– сфоткать свой лук и попросить его улучшить (или ухудшить)
– сфоткать доску с планированием какого-то продукта, и попросить написать базовый код-обертку для этого продукта
Последнее как раз и происходит на видео.
Все это будто демо-версия того как могло бы выглядеть будущее процессов разработки софта.
А будь у нас более автономные агенты-языковые-модели – эту схему тоже делал бы не человек 🌚
(такое и сейчас можно собрать, но работает так себе, я пробовал)