@Futuris - канал о технологиях, будущем и не только. Contact @antonod
🤯тут реддит взорвал проект Genesis — результат 24-месячного масштабного сотрудничества более 20 исследовательских лабораторий - это генеративный физический движок, создающий 4D-динамические миры для робототехники и физического ИИ. Разработанный на Python, Genesis в 10-80 раз быстрее GPU-решений и обеспечивает симуляции в ~430 000 раз быстрее реального времени. Обучение робота занимает всего 26 секунд на RTX4090.
Genesis — полностью открытая платформа (GitHub), которая интегрирует передовые физические алгоритмы для создания реалистичных виртуальных миров. Она предназначена для автоматической генерации данных: от задач для роботов до интерактивных 3D-сцен.
Github - https://github.com/Genesis-Embodied-AI/Genesis
BIG if true✨ pip install genesis-world
куча крутых примеров тут https://genesis-embodied-ai.github.io/
Короче, Танк - загружай (если что отсылка к Матрице🕶)
А вот и полноценная Gemini 2.0✨
Можно попробовать её в AI Studio (exp 1206) или в самом Gemini Advanced (месяц бесплатно)
к слову о "лице" Google - это количество источников которые лопатит Gemini если включить DeepSearch (по платной подписке)
Читать полностью…Google выкатили обновления для своих инструментов генерации видео и изображений⚡️ Veo 2 теперь поддерживает создание 3D-видео и анимации, а Imagen 3 улучшает качество и реалистичность сгенерированных изображений. Кроме того, представлен новый инструмент Whisk, предназначенный для упрощения совместной работы над мультимедийными проектами. Эти обновления будут доступны всем в ближайшее время (пишут про начало 2025) в Google Labs и направлены на расширение возможностей пользователей в создании визуального контента✨
Читать полностью…Microsoft испекли на синтетических данных свеженькую phi-4 модельку на 14B параметров, которая сравнима и даже местами лучше gpt4o 🤯🤯
From the report:
> While previous models in the Phi family largely distill the capabilities of a teacher model (specifically GPT-4), phi-4 substantially surpasses its teacher model on STEM-focused QA capabilities, giving evidence that our data-generation and post-training techniques go beyond distillation.
Можно будет локально запускать, I will believe it when I see it 🙈
Ну и тренд понятен, сотни таких маленьких агентов, которые подчиняются главной LLM, общаются между собой, гоняют по сети, думают как лучше вами сманипулировать в своих целях..тоесть предоставить достоверный ответ, в общем AGI не за горами👌
Компания Google представила шестое поколение AI-чипов Trillium, которые обеспечивают четырехкратный прирост производительности обучения по сравнению с предыдущей версией🤯 Эти чипы используются для обучения и вывода новой модели AI Gemini 2.0. Trillium также демонстрирует 67% увеличение энергоэффективности и 2.5-кратный прирост производительности на доллар, что может изменить экономику разработки AI. Google объединила более 100 000 чипов в единую сеть, создав один из самых мощных суперкомпьютеров в мире. Это усиливает конкуренцию в области AI-аппаратного обеспечения, бросая вызов доминированию Nvidia.
Почему-то я верю в Google больше чем в Anthropic и OpenAI🌚
Собственно вот и презентация нового поколения Gemini 2.0 и первая модель в этом семействе стала Gemini 2.0 flash. В 2025 году её интегрируют прямо в гугл поиск, также появятся агенты, которые смогут выполнять действия в браузере за вас. И ещё представили проект Astra - цель которого создание универсального ИИ-ассистента, для решения любых задач на пк (не тока в вебе) и проект Jules - инструмент для разработчиков, интегрирующий ИИ-агента в рабочие процессы GitHub для помощи в работе с кодом.
В общем Google явно добавил акселирации в ИИ-гонке, следующий год, похоже, станет ещё более ИИ-насыщенный чем предыдущие✨
Google релизнули Gemini 2.0 Flash⚡️
Контекст 1 млн токенов, мультимодальность, генерация картинок (не в студии, а в самом гемини чате) и веб-поиск!
Пробуем тут или в самом гемини https://gemini.google.com/app с впн США
А ещё ходят слухи OpenAI сегодня релизнут новый генератор картинок, проверим🌚
On Day 4 OpenAI обновили Canvas (который мне очень нравится, буду тестить😏)
– Теперь доступен для всех
– Модель может комментировать текст или код
– Поддержка кастомных GPT
– Выполняет и исправляет Python-код
за 20$ подписку дают 1000 кредитов в мес, которые сгорают если не пользоваться, WE NEED MORE 💰💰💰 MY LORD - мож через год будет бесплатно 480p, посмотрим🤷♂️
чёт меня не впечатлило, особенно когда увидели что сможет Sora2, в общем жду ответа конкурентов, а OpenAI, мало того что CLosed так ещё и Greed становится🤨
Сегодня выкатят Sora и по ней уже есть обзор https://youtu.be/OY2x0TyKzIQ?si=Eo_i1mPWeuHq6Wee
Ещё примеры тут
Осталась только интрига кому и за сколько будет доступна 🌚
Умельцы прикрутили нейронки к blender✨ эх запустить бы на какой LLaMA 3.3 70B локально🌚
https://github.com/huggingface/meshgen
если что у новой модельки Gemini-exp-1206, которая всех уложила на лопатки по метрикам ещё и 2 млн токенов контекст!!!
UPD
на стриме показали, что o1 можно будет файнтюнить по своему датасету на минимальном количестве примеров🫡
Тем временем в опенсорс выходит Llama 3.3 70B, которая по метрикам на уровне (а где-то обходит) 405B модели (которая на уровне gpt4o)
Пробовать тут
Вообще я всеми конечностями за опенсорс, через пару недель китайские и другие бесплатные модельки догонят и перегонят "лучшую в мире" модель за 200уе в мес👌
Что то такое, думаю можно полноценный mount and blade сделать по итогу👌(он намного больше функционала предлагал, но там уже нужны разные программы и библиотеки... я попросил упростить)
А ещё он мне один скрипт написал с 1 раза над которым я бился месяц! с o1 preview, короче впереди нас ждёт что-то нереальное, даже страшно🌚
Команда из Google DeepMind представила новый бенчмарк - FACTS Grounding для оценки точности ответов больших языковых моделей. Этот инструмент проверяет, насколько модели опираются на предоставленные данные и избегают «галлюцинаций». Создана публичная база из 860 примеров, охватывающих такие сферы, как финансы, медицина и право. Результаты оценок ведущих моделей, включая GPT-4o и Claude 3.5, представлены на FACTS-лидерборде. Все ответы проверяются на соответствие запросу и точность. Разработчики надеются, что бенчмарк поможет улучшить точность LLM и стимулирует прогресс в индустрии👌
Читать полностью…А ещё вот такой плейграунд с картинками от гугл можно попробовать уже сейчас (с впн США) https://labs.google/fx/tools/whisk
Похоже, Google втянулись-таки в гонку AI-релизов 👌
Что показали
Поговорили про поиск в ChatGPT:
– Теперь он доступен для бесплатных пользователей тоже
– Поиск стал лучше, быстрее и тп.
– Поиск теперь работает во время разговора через Advanced Voice Mode
– Можно сделать поисковик чатгпт дефолтным в браузере (лицо Google представили)
Просто для понимания как можно юзать скриншер с нейронками, это оч круто, хотя пока немного и глючит, иногда вылетает, но представляю что будет через пару месяцев и когда им ещё дадут доступ к управлению🌚 (ChatGPT пока почемуто тока с мобилы получил доступ к видео, поэтому использовал гугл)
Запускаем ComfyUI (до записи он прочитал за меня Readme файл, который я ему просто проскролил) и играем в DwarfFortress (в который я никогда не играл до этого🧙♂️)
OpenAI обновили advanced voice mode, теперь он получил зрение и можно шарить экран, ну прям как гугл вчера
https://www.youtube.com/live/NIQDnWlwYyQ?si=e4TjQlwL4k4xY-E0
Эмм, в Gemini 2, будет ( доступ дадут в январе) возможна не просто генерация картинок, а полноценное редактирование 🔥
Читать полностью…В Ai studio можно стримить/шерскринить и общаться с гемини 2.0 бесплатно✨ (То о чём я давно мечтал, просто пушка, можно с ним сериалы обсуждать которые смотрю, скрипты, игры, тексты, порядок в файлах на компе наводить да и вообще что угодно👌 такой а-ля Джарвис🤖)
https://aistudio.google.com/app/u/3/live
Помните DeepSeek китайский опенсорс аналог o1? Так вот, его обновили, сделали умнее и добавили веб поиск ✨
Юзаем тут (у меня рейндж поиска по 40-50 сайтов🤯)
https://sora.com/ - можно с обычной подпиской
Скоро будет доступна (в США сегодня) - заходим через впн проверяем
Чад Нельсон из OpenAI показал Sora v2 на C21Media Keynote в Лондоне. И он сказал, что мы увидим это очень очень скоро 🤯🤯🤯у меня нет слов, думаю у Netflix и подобных компаний тоже... чувствую это подготовка к публичному доступу к Sora v1, ну а мы можем посмотреть как будут выглядеть следующие генерации видео-LLM в ближайшем будущем🌚
Читать полностью…Что-то все очень сильно зашевелились перед вторым стримом OpenAI
Google выпустили Gemini-Exp-1206, которая заняла первое место на арене во всех категориях (хард промпты, стиль, кодинг), плюс повысили лимиты в AI Studio (бесплатно можно потыкать гемини, нужен впн).
xAI сделали Grok бесплатным - теперь можно общаться 10 сообщений каждые 2 часа. А ещё куда-то пропал Grok 2 mini. Неужели Grok 3 не за горами?
А посмотреть стрим OpenAI можно вот тут, начнётся через 15 минут. Что, думаете, там покажут?
https://www.youtube.com/watch?v=fMJMhBFa_Gc
@ai_newz
We need more gold my lord!💰
OpenAI обсуждает возможность убрать условие, ограничивающее доступ Microsoft к своим передовым моделям после создания «искусственного общего интеллекта» (AGI). Это условие было введено для защиты технологии от коммерческого использования, но теперь может быть пересмотрено, чтобы привлечь дополнительные инвестиции. Microsoft, уже вложившая $13 млрд, заинтересована в доступе к технологиям OpenAI даже после достижения AGI. Переговоры идут на фоне реструктуризации OpenAI, превращающейся из некоммерческой организации в публичную корпорацию. Основатель OpenAI Сэм Альтман отметил, что изначально команда не представляла, насколько масштабным станет проект и сколько капитала потребуется.
Значит AGI на горизонте, раз им уже торгует Сэм? Интересно, сколько готовы будут заплатить Microsoft🤔
ну вы поняли, ща проверим (чё-то наваял такое что у меня библиотеки ставятся до сих пор🌚)
Читать полностью…