@Futuris - канал о технологиях, будущем и не только. Contact @antonod
o3 и o3-mini пока в закрытом тесте (сказали будет публичный доступ в конце январе), но с ними OpenAI приблизились к созданию AGI. На первом скрине тест ARC-AGI — это тест, созданный для оценки способности искусственного интеллекта решать новые задачи с помощью абстрактного мышления, как это делает человек. Он состоит из визуальных головоломок и проверяет, насколько хорошо ИИ может адаптироваться вне рамок обучающих данных.
На других скринах тоже сильный прирост, в общем не шутки, но уверен будет стоить не меньше 2000$ за месячную подписку
Так, Google продолжает уничтожать 12 дней с OpenAI (что они сегодня релизнут? Возможность написать бумажное письмо ChatGPT без аккаунта и получить ответ через неделю?)
Так вот Google релизнули бесплатного конкурента o1 - модель с размышлениями (Gemini 2.0 flash thinking)
Тестим по традиции в AI studio с впн США
Команда из Google DeepMind представила новый бенчмарк - FACTS Grounding для оценки точности ответов больших языковых моделей. Этот инструмент проверяет, насколько модели опираются на предоставленные данные и избегают «галлюцинаций». Создана публичная база из 860 примеров, охватывающих такие сферы, как финансы, медицина и право. Результаты оценок ведущих моделей, включая GPT-4o и Claude 3.5, представлены на FACTS-лидерборде. Все ответы проверяются на соответствие запросу и точность. Разработчики надеются, что бенчмарк поможет улучшить точность LLM и стимулирует прогресс в индустрии👌
Читать полностью…А ещё вот такой плейграунд с картинками от гугл можно попробовать уже сейчас (с впн США) https://labs.google/fx/tools/whisk
Похоже, Google втянулись-таки в гонку AI-релизов 👌
Что показали
Поговорили про поиск в ChatGPT:
– Теперь он доступен для бесплатных пользователей тоже
– Поиск стал лучше, быстрее и тп.
– Поиск теперь работает во время разговора через Advanced Voice Mode
– Можно сделать поисковик чатгпт дефолтным в браузере (лицо Google представили)
Просто для понимания как можно юзать скриншер с нейронками, это оч круто, хотя пока немного и глючит, иногда вылетает, но представляю что будет через пару месяцев и когда им ещё дадут доступ к управлению🌚 (ChatGPT пока почемуто тока с мобилы получил доступ к видео, поэтому использовал гугл)
Запускаем ComfyUI (до записи он прочитал за меня Readme файл, который я ему просто проскролил) и играем в DwarfFortress (в который я никогда не играл до этого🧙♂️)
OpenAI обновили advanced voice mode, теперь он получил зрение и можно шарить экран, ну прям как гугл вчера
https://www.youtube.com/live/NIQDnWlwYyQ?si=e4TjQlwL4k4xY-E0
Эмм, в Gemini 2, будет ( доступ дадут в январе) возможна не просто генерация картинок, а полноценное редактирование 🔥
Читать полностью…В Ai studio можно стримить/шерскринить и общаться с гемини 2.0 бесплатно✨ (То о чём я давно мечтал, просто пушка, можно с ним сериалы обсуждать которые смотрю, скрипты, игры, тексты, порядок в файлах на компе наводить да и вообще что угодно👌 такой а-ля Джарвис🤖)
https://aistudio.google.com/app/u/3/live
Помните DeepSeek китайский опенсорс аналог o1? Так вот, его обновили, сделали умнее и добавили веб поиск ✨
Юзаем тут (у меня рейндж поиска по 40-50 сайтов🤯)
https://sora.com/ - можно с обычной подпиской
Скоро будет доступна (в США сегодня) - заходим через впн проверяем
Чад Нельсон из OpenAI показал Sora v2 на C21Media Keynote в Лондоне. И он сказал, что мы увидим это очень очень скоро 🤯🤯🤯у меня нет слов, думаю у Netflix и подобных компаний тоже... чувствую это подготовка к публичному доступу к Sora v1, ну а мы можем посмотреть как будут выглядеть следующие генерации видео-LLM в ближайшем будущем🌚
Читать полностью…Что-то все очень сильно зашевелились перед вторым стримом OpenAI
Google выпустили Gemini-Exp-1206, которая заняла первое место на арене во всех категориях (хард промпты, стиль, кодинг), плюс повысили лимиты в AI Studio (бесплатно можно потыкать гемини, нужен впн).
xAI сделали Grok бесплатным - теперь можно общаться 10 сообщений каждые 2 часа. А ещё куда-то пропал Grok 2 mini. Неужели Grok 3 не за горами?
А посмотреть стрим OpenAI можно вот тут, начнётся через 15 минут. Что, думаете, там покажут?
https://www.youtube.com/watch?v=fMJMhBFa_Gc
@ai_newz
Немного слухов👀
Сегодня посдений из 12 дней OpenAI и тут Сэм начал на что-то намекать (хохнул и охнул 3 раза) и в других местах просочилась (случайно?) инфа про релиз следующей генерации мыслящих моделей gpt4-o3 (сразу 3 потому что 2 якобы занята каким-то трейд марком)
В общем последний шанс у Сэма превратить shitmass в shipmass в этом году 🌚
🤯тут реддит взорвал проект Genesis — результат 24-месячного масштабного сотрудничества более 20 исследовательских лабораторий - это генеративный физический движок, создающий 4D-динамические миры для робототехники и физического ИИ. Разработанный на Python, Genesis в 10-80 раз быстрее GPU-решений и обеспечивает симуляции в ~430 000 раз быстрее реального времени. Обучение робота занимает всего 26 секунд на RTX4090.
Genesis — полностью открытая платформа (GitHub), которая интегрирует передовые физические алгоритмы для создания реалистичных виртуальных миров. Она предназначена для автоматической генерации данных: от задач для роботов до интерактивных 3D-сцен.
Github - https://github.com/Genesis-Embodied-AI/Genesis
BIG if true✨ pip install genesis-world
куча крутых примеров тут https://genesis-embodied-ai.github.io/
Короче, Танк - загружай (если что отсылка к Матрице🕶)
А вот и полноценная Gemini 2.0✨
Можно попробовать её в AI Studio (exp 1206) или в самом Gemini Advanced (месяц бесплатно)
к слову о "лице" Google - это количество источников которые лопатит Gemini если включить DeepSearch (по платной подписке)
Читать полностью…Google выкатили обновления для своих инструментов генерации видео и изображений⚡️ Veo 2 теперь поддерживает создание 3D-видео и анимации, а Imagen 3 улучшает качество и реалистичность сгенерированных изображений. Кроме того, представлен новый инструмент Whisk, предназначенный для упрощения совместной работы над мультимедийными проектами. Эти обновления будут доступны всем в ближайшее время (пишут про начало 2025) в Google Labs и направлены на расширение возможностей пользователей в создании визуального контента✨
Читать полностью…Microsoft испекли на синтетических данных свеженькую phi-4 модельку на 14B параметров, которая сравнима и даже местами лучше gpt4o 🤯🤯
From the report:
> While previous models in the Phi family largely distill the capabilities of a teacher model (specifically GPT-4), phi-4 substantially surpasses its teacher model on STEM-focused QA capabilities, giving evidence that our data-generation and post-training techniques go beyond distillation.
Можно будет локально запускать, I will believe it when I see it 🙈
Ну и тренд понятен, сотни таких маленьких агентов, которые подчиняются главной LLM, общаются между собой, гоняют по сети, думают как лучше вами сманипулировать в своих целях..тоесть предоставить достоверный ответ, в общем AGI не за горами👌
Компания Google представила шестое поколение AI-чипов Trillium, которые обеспечивают четырехкратный прирост производительности обучения по сравнению с предыдущей версией🤯 Эти чипы используются для обучения и вывода новой модели AI Gemini 2.0. Trillium также демонстрирует 67% увеличение энергоэффективности и 2.5-кратный прирост производительности на доллар, что может изменить экономику разработки AI. Google объединила более 100 000 чипов в единую сеть, создав один из самых мощных суперкомпьютеров в мире. Это усиливает конкуренцию в области AI-аппаратного обеспечения, бросая вызов доминированию Nvidia.
Почему-то я верю в Google больше чем в Anthropic и OpenAI🌚
Собственно вот и презентация нового поколения Gemini 2.0 и первая модель в этом семействе стала Gemini 2.0 flash. В 2025 году её интегрируют прямо в гугл поиск, также появятся агенты, которые смогут выполнять действия в браузере за вас. И ещё представили проект Astra - цель которого создание универсального ИИ-ассистента, для решения любых задач на пк (не тока в вебе) и проект Jules - инструмент для разработчиков, интегрирующий ИИ-агента в рабочие процессы GitHub для помощи в работе с кодом.
В общем Google явно добавил акселирации в ИИ-гонке, следующий год, похоже, станет ещё более ИИ-насыщенный чем предыдущие✨
Google релизнули Gemini 2.0 Flash⚡️
Контекст 1 млн токенов, мультимодальность, генерация картинок (не в студии, а в самом гемини чате) и веб-поиск!
Пробуем тут или в самом гемини https://gemini.google.com/app с впн США
А ещё ходят слухи OpenAI сегодня релизнут новый генератор картинок, проверим🌚
On Day 4 OpenAI обновили Canvas (который мне очень нравится, буду тестить😏)
– Теперь доступен для всех
– Модель может комментировать текст или код
– Поддержка кастомных GPT
– Выполняет и исправляет Python-код
за 20$ подписку дают 1000 кредитов в мес, которые сгорают если не пользоваться, WE NEED MORE 💰💰💰 MY LORD - мож через год будет бесплатно 480p, посмотрим🤷♂️
чёт меня не впечатлило, особенно когда увидели что сможет Sora2, в общем жду ответа конкурентов, а OpenAI, мало того что CLosed так ещё и Greed становится🤨
Сегодня выкатят Sora и по ней уже есть обзор https://youtu.be/OY2x0TyKzIQ?si=Eo_i1mPWeuHq6Wee
Ещё примеры тут
Осталась только интрига кому и за сколько будет доступна 🌚
Умельцы прикрутили нейронки к blender✨ эх запустить бы на какой LLaMA 3.3 70B локально🌚
https://github.com/huggingface/meshgen
если что у новой модельки Gemini-exp-1206, которая всех уложила на лопатки по метрикам ещё и 2 млн токенов контекст!!!
UPD
на стриме показали, что o1 можно будет файнтюнить по своему датасету на минимальном количестве примеров🫡
Тем временем в опенсорс выходит Llama 3.3 70B, которая по метрикам на уровне (а где-то обходит) 405B модели (которая на уровне gpt4o)
Пробовать тут
Вообще я всеми конечностями за опенсорс, через пару недель китайские и другие бесплатные модельки догонят и перегонят "лучшую в мире" модель за 200уе в мес👌