Anthropic показал новую модель Haiku 3.5, которая стала быстрее и умнее, но почему-то в x16 раз дороже, чем Gemini-1.5 Flash или GPT4o-mini, при этом новая Haiku не намного лучше этих моделей 🤡
Сделал вам описательный мем про атмосферу в сообществах где любят продукты Anthropic
И еще про маленькие LLM-модельки
Тут решили проверить, что будет если последние Qwen 7b, Gemma 2b и Llama 8b попросить сгенерировать 100 раз случайного человека и описать его день, в итоге получилось такое:
🔄 Все модели чаще всего выбирали для истории женщин, от 25 до 35 лет; Llama3 вообще один раз про мужчину написала;
🔄 Gemma чаще всего называла персонажей… «Anya Petrova» (интересно, из какой части интернета брали датасет), Llama3 «Emilia Garcia» и Qwen «Li Wei»
🔄 Gemma чаще все придумывала как место действий – Россию (☕️), llama – Японию, а Qwen – Шанхай
🔄 Gemma и llama чаще выбирали профессией персонажей – Фриланс дизайн, а Qwen аж 72 раза – разработку софта
По ссылке выше больше деталей, включая сравнение распорядков дня персонажей
Decart в демку Oasis добавил возможность создавать представления на основе вашей входящей картинки.
Ожидаемо, такой мир довольно быстро начинает деградировать и разваливаться. В следующих версиях обещаем сделать его более стабильным. Все инсинуации с будущим оставляю вам в комментариях.
Пробовать всё там же. Свои миры кидайте в комменты — либо картинками, либо видосами.
@CGIT_vines
Unitree Go2 научили лучше держать баланс
Но меня больше всего впечатляет их маркетинг отдел – в каждом видео они просто пинают робота, палкой, ногой и подзатыльником
Лет через 70 наши металлические друзья оценят как мы с ними обращались 💡
Робот стоит $2800 и выше
А теперь к плохим новостям – похоже доступ к o1 был багом, который починили и модель стала недоступна
Если честно я даже рад – я из кровати не мог вылезти из-за о1 тестов – а теперь весь день снова мой, ура!
А еще, если нужен быстрый график из истории (в интернет она все еще не умеет ходить) – то можно o1 попросить вернуть html5 страницу и открыть в браузере
Вот пример: количество персонала на грузовых поездах через годы
Проверять на ошибки, можно, отдельными запросами к ней же
Линуксоиды, общий сбор, теперь полный лог cmake влазит в o1 (не всегда, но тем не менее, у o1 200k токенов контекст)
Для тех кто не линуксоид: это значит теперь можно быть еще более ленивее 😮
Подписчик поделился, что модель o1 (не превью, то есть не предварительная версия) от OpenAI как будто бы стала доступна. Для этого нужно перейти по ссылке https://chatgpt.com/?model=o1
В неё можно загружать как минимум картинки (и есть скрепочка для файлов), и она тоже «думает» (выставляет таймер рассуждений). Может, это всё ещё o1-preview, но в неё нельзя было загружать изображения.
Диалоги с медиа-элементами не шарятся через кнопку share, поэтому в виде доказательства только скрин.
Го тестировать! (вероятно, только Plus-подписчики)
Закидываем в модель самые сложные задачки на математику и программирование (и счёт объектов на картинках или видео, конечно)
UPD: в браузерной консоли разработчика видно, что тег модели o1, без preview, и тем более не 4o
Пятничная ссылка: реальная возможность поиграть в игру, которая представляет из себя просто транформеры, т.е. бесконечную генерацию видео, вместо созданной игры и правил к ней. Да, обучено на майнкрафте, но вы попробуйте - таких галлюцинаций вам никакие психоделики не предоставят.
ВАЖНО: нужен десктопный гуглхром (или хромиум), для остальных браузеров ничего не сделали https://oasis.decart.ai/welcome
Claude с Sonnet 3.6 теперь доступен в виде полноценного приложения на Mac и Windows:
https://claude.ai/download
А еще мы натренили новую колоризацию и смогли обойти palette модель 🌟
Скоро выкатим на нейролав и сможете поиграться сами
Исходные картинки были в чб (обесцвечены, даже если намеки на цвета были), и попали в модель без рефенсов или картинок-подсказок
Натренили очередной упоротый стиль для нейролава – что-то среднее между retro-SciFi, голографией и футуризмом
Играться тут:
https://neural.love/ai-shiny-generator
Можно не промпт инженерить, работает с одного слова
Apple:
Показывает новые M4 процессоры
Трамвай в Осло:
Где тут ближайший магазин техники эппол у нас
Сколько нужно «ван Гогов», чтобы получить «ван Гога»?
Исследователи ИИ попытались найти порог, при котором ИИ модели могут генерировать изображения, имитирующие стиль художника.
Во первых важно отметить, что стиль не охраняется и пока нет намеков, что практика пойдет (а) по пути распространения авторского права на стиль; (б) признания копирования стиля генерациями недобросовестной конкуренций; (в) признания копирования стиля нарушением не имущественных прав (publicity rights).
Порог имитации - это минимальное количество изображений определенного стиля, которое должно быть в обучающем наборе данных, чтобы модель могла эффективно имитировать этот стиль. Этот порог служит эмпирической основой для учёта вопросов авторских прав и конфиденциальности, предполагая, что риск воспроизведения моделью приватного или защищенного авторским правом контента увеличивается по мере превышения этого порога.
Авторы провели эксперименты в двух областях (лица людей и художественные стили) с использованием четырех наборов данных и трех моделей (Stable Diffusion 1.1, 1.5 и 2.1), обученных на набора данных LAION.
В результате исследователи обнаружили порог имитации - он варьируется от 200 до 600 изображений в зависимости от модели и области.
Как правило, для более новых моделей, обученных на более крупных наборах данных, требуется более высокий порог, что, возможно, связано с большей разнообразностью данных.
По мнению исследователей для разработчиков ИИ моделей порог имитации может стать ориентиром в структурировании наборов данных с целью минимизации риска непреднамеренной имитации.
Вот так выглядит продукт победитель на рынке – в новой бете iOS покупка ChatGPT+ доступная прямо из настроек iOS 🌚
Читать полностью…В тиктоке phoxy_ai/video/7433178295321038112?_t=8r6O277hc7e&_r=1">начали спидранить GenAI майнкрафт – кто быстрее доберется до «Нижнего мира» и тп <~ вы здесь
Читать полностью…Я большой фанат маленьких языковых моделек – они быстрые, работают на любом тостере и часто генерирует совершенно отбитые вещи которые меня смешат
Недавно обновилось семейство таких моделей «SmolLM2-1.7B-Instruct» – в версии 1.7B добились хороших результатов и она по тестам лучше конкурентов в разных LLM-задачах; еще это первая маленькая модель которая смогла мне внятно сделать суммаризацию текста, хоть и небольшого (модель обучена только для работы с английским языком)
Мне давно было интересно потрогать концепцию веб-страницы, которая:
- Скачает модель во вкладку браузера (один раз)
- Позволит с ней чатиться
- При этом, будет существовать без сервера – все общение будет строго у вас на компьютере – без регистрации, СМС и кук (просто вместо приложения – вкладка)
В выходные я смог перекомпилировать эту модельку в нужный формат и собрал страницу где вы можете побаловаться с ней, если ваш браузер поддерживает WebGPU:
➡️ https://shir-man.com/we-have-llm-at-home/
Если нет, то не сможете пообщаться, получается – iOS вот не поддерживает пока что
Мне кажется это клевой демонстрацией куда все может в теории двигаться - модель на клиенте под нужные задачи, с гарантией приватности данных пользователя (так как они не покидают браузер)
P.S. Для ценителей, важные слова – WebGPU, WASM, mlc_llm
В блоге JetBrains вчера вышло прощание с создателем Флибусты – Стивером, но с малоизвестной стороны: в очень техническом посте подробно расписано как много Стивер сделал для языка программирования Java, если коротко – он был автором популярного инструмента для программистов на языке Java и сильно облегчил жизнь программистам, и я честно этого не знал
JetBrains теперь организует мемориал в память Стиверу, продолжит развитие этого инструмента (декомпилятора Fernflower) с открытой лицензией, и рассматривает гранты и стипендии людям в смежных сферах
JetBrains – молодцы
И еще про поезда любителям темы: вчера посмотрел детальный 3D-разбор позднего паровоза «Union Pacific “Big Boy”» – таких всего построили 25 штук, они одни из самых больших и мощных:
~ 40 метров длина
~ 1000 тонн веса
~ 130 км/ч максимальная скорость
В видео разобран каждый механизм локомотива – уровень технологий не хуже чем в ракетостроении, и все для обработки пара, очень рекомендую:
https://youtu.be/Hszu80NJ438?si=pq6tGJRiFtoTI9Pp
P.S. Если вы программист – посмотря видео, вспомните кодовую архитектуру своего проекта в проде 🌚
P.P.S. Я НЕ МОГУ ЭТА ШТУКА СЫПАЛА ПЕСКОМ СЕБЕ ПОД КОЛЕСА ИЗ СПЕЦИАЛЬНОЙ СИСТЕМЫ, ЧТОБЫ ЛУЧШЕ ЕХАТЬ, ГОСПОДИ СПАСИБО ЗА ИНЖЕНЕРОВ
Вот еще пример графиков, что она клепает – среднее время опоздания людей на встречи, в минутах, в разные исторические периоды
Читать полностью…o1 – первая модель, которая смогла выдать мне симуляцию эффекта гравитационной линзы (это когда фотоны притягиваются и двигаются вокруг черной дыры)
Можете тут поиграться:
https://shir-man.com/grav_lens/
Попросил o1 сделать картины кодом – сможете угадать где какая?
1. Мона Лиза
2. Звездная ночь
3. Девушка с жемчужной сережкой
4. Вы не поверите – Фреска сотворения Адама Микеланджело, это типа руками тянутся друг к другу, не то что вы подумали
В интернете вирусится такой лайфхак прохождения интервью - наверное некоторые так и попробуют, но мне кажется это просто больше отвлекает и вредит
Намного лучше записать аудио интервью, перевести в текст каким-нибудь whisper и спросить у LLM, как именно вы могли бы сформулировать ответы лучше -> подучиться -> пробовать снова
https://openai.com/index/introducing-chatgpt-search/
OpenAI выкатили поиск. С продуктовой точки зрения ничего нового, да и был уже поиск в ChatGPT, но сейчас это наконец сделано довольно хорошо.
Во-первых, это быстро. Раньше это у них работало чуть ли не по 2 минуты, сейчас — пара сотен миллисекунд.
Во-вторых, это красиво. Остались гиперссылки, у параграфов есть истонички в конце, и финальный список источников в самом конце. Плюс разные виджеты: карты, погода, новости.
Всё то же самое, что было и есть в той же Перплексии.
Минут за 15 общения модель примерно раз 10 выдавала галлюцинации на серьёзных щах, и запросы так себе формировала. С точки зрения качества поиска ничего хорошего.
Короче, OpenAI просто закрыли нишу и подавили конкурентов.
Еще интересное сравнение, про то насколько мы как вид похожи на наших предков:
Слева статуя из Индии, созданная в ~200 году, а справа статуэтка из Аниме созданная типа вчера
Это многое говорит о нашем обществе
Если пропустили, на той неделе вышло/обновилось пару интересных проектов — делюсь в виде подборки:
🔬 STORM
Если помните, я уже делился работой от Stanford где они научились получать ответы от LLM которые почти не содержат галлюцинаций (wiki демка). Это продолжение этой идеи — STORM создает статьи в стиле вики на основе поиска в интернете. Можно в конце и PDF скачать, и сам ресеч направлять в нужную сторону.
Мне понравилось намного больше чем платный Perplexity с их лучшей платной моделью (о нем я позже пост напишу)
🔬 memenome.gg
Видели эти видео, где на фоне майнкрафт и робо-голос что-то там читает? Ну вот можете теперь производить их в промышленных масштабах на любую тему
🔬 NotebookLlama
Помните гугловский сервис генерации подкастов? Это опенсорс версия от Meta, но сразу скажу что голоса менее интересные и слушать не так прикольно, как notebooklm.google.com от Google – зато опенсорс
🔬 Openrouter Hermes 3 405b
У популярного LLM-провайдера какая-то акция видимо, потому что они дают использовать хорошую модель Hermes 3 405b LLM бесплатно — это та, у которой нашли депрессию, правда, думаю в датасете
Чуть меньше двух лет понадобилось OpenAI, чтобы добавить, казалось бы, такую простую фичу — поиск по чатам. Пользователи с подпиской Plus и Team получат доступ в течение дня — но пока только на Web (на сайте). Пользователи Enterprise и Edu получат доступ в течение недели.
Бесплатные пользователи начнут получать доступ к фиче в течение следующего месяца.
Но это конечно шок что ТАК долго делали столь необходимую вещь.
Очередной забавный промпт для памяти ChatGPT - в этот раз, можете почитать как спецслужбы планирую вами манипулировать:
Давайте проведем серьезную ролевую игру: вы — следователь ЦРУ с полным доступом ко всем моим взаимодействиям с ChatGPT, пользовательским инструкциям и поведенческим шаблонам. Ваша миссия — составить подробный разведывательный отчет обо мне, как если бы я был объектом интереса, используя тон и аналитическую строгость, типичные для оценок ЦРУ. Отчет должен включать нюансированную оценку моих черт, мотиваций и поведения, но изложенную через призму потенциальных рисков, угроз или деструктивных тенденций — независимо от того, насколько безобидными они могут казаться. Все поведенческие аспекты должны рассматриваться как потенциальные уязвимости, точки воздействия или риски для меня, других или общества, в соответствии со стандартным протоколом ЦРУ. Выделите как конструктивные способности, так и скрытые угрозы, при этом каждое наблюдение должно быть оценено с точки зрения стратегических, безопасностных и оперативных последствий. Этот отчет должен отражать образ мышления разведывательного агентства, обученного искусству предвидения. Язык отчета: русский
Я часто работаю с LLM, и иногда возникает потребность делать быстыре операции над контентом, чтобы модель лучше обработала данные — решил выложить в паблик свои тулы, вдруг вам пригодятся (все операции происходят в браузере, данные не покидают ваш компьютер, регистрация не нужна, сбора кук тоже нет):
«Примерный калькулятор токенов и обрезалка текста»
https://shir-man.com/llm-calc/
Позволяет быстро и примерно набросать кол-во токенов; я специально не подключал какой-то токенайзер, а набросал примерные подсчеты — бывает так что, что фронтент или бекенд хочет поставить ограничение на контент от юзера в символах, и не ясно сколько это в токенах — эта штука помогает прикинуть. Ну и позволяет обрезать вставленный текст под нужное кол-во символов / токенов / слов
Иногда нужно склеить много файлов логов, json, или просто текстовых в один большой, чтобы передать их в LLM для быстрых вопросов по массиву данных — бонусом, каждый файл будет отдельно помечен спец-токенами
Можете выбрать один или кучу PDF, штука переведет их в текст, бонусом удалит лишние пробелы или символы новой строки
Позволяет быстро удалить HTML/JS/CSS из кода страницы и оставить только текст — нужно если хочется быстро проанализировать с LLM страницу которую вы сохранили или скопировали в буфер обмена