Ожидаемо, у Microsoft обновился Copilot, но вот радует, что хоть это и клон chatgpt, но в него ещё добавили экспериментальную функцию Vision, которая позволяет ИИ видеть ваш экран в онлайне, пока будет доступна ограниченному кругу пользователей, но думаю скоро раскатят и на всех👌
А также: Copilot Voice (привет урезанный Advanced Voice Mode), Think Deeper (пошаговые размышления - привет gpt-o1), Copilot Labs (Площадка для тестирования экспериментальных функций) и новый дизайн интерфейса✨
Эмм, тут 17 октября нас ждёт презентация "нового мира", а точнее Worldcoin, который представит Сэм Альтман 🤯
Напомню, что это был проект мировой криптовалюты, основанной на биометрии глаз👀 которые будут сканироваться специальным устройством ORB
Неужто Сэм начнёт реализацию своей идеи UBI (универсального дохода)? Только сначала нужно будет отдать часть души.. 😈
В общем полный киберпанк - ждём, смотрим✨
https://live.worldcoin.org/
Интересный поворот, все думают, что ИИ будет убивать профессии и отрасли, но тут Runway пошли против тренда:
The Hundred Film Fund от Runway предназначен для финансирования 100 фильмов, использующих технологии ИИ на разных этапах производства. Фонд поддерживает режиссёров, продюсеров и сценаристов, помогая им завершить проекты, предлагая гранты от $5000 до $1 млн, а также кредиты Runway на сумму до $2 млн. Фонд стремится поддерживать новые идеи и истории, которые не всегда получают финансирование через традиционные каналы. Проекты всех форматов, включая короткометражные, экспериментальные фильмы и музыкальные клипы, могут подать заявку.
https://runwayml.com/hundred-film-fund
Надеюсь фаны наконец переснимут известные адаптации типа Колец Власти и все новые части Звёздных Войн по канонам 🌚
Тут DeepMind представил AlphaChip — ИИ - систему для автоматизации проектирования чипов. (Вспоминаем AlphaGo и AlphaFold). Эта система используется для создания чипов для Google Tensor Processing Unit (TPU), которые играют ключевую роль в ускорении работы ИИ-моделей, таких как Gemini. Так вот CEO DeepMind поясняет - что это и есть начало рекурсивного самоулучшения ИИ: AlphaChip используется для создания лучших ИИ-чипов, которые затем помогают тренировать лучшие модели. Эти модели, в свою очередь, позволяют разрабатывать ещё более совершенные чипы... hello AGI🌚
Думаю Google нас ещё сильно удивит
На text-to-image арене появилась совершенно новая и непонятная модель для генерации картинок blueberry_0, которая побивает всех на свете, включая FLUX и Ideogram
Это тонкий троллинг strawberry или это опенАИ сами троллят?
Судя по тому, как она уходит от фотореализьма, это может быть та самая Dalle-4o, про которую нам намекали в мае.
Но качество (по крайней мере на арене.. ну такое).
Давайте сюда теории заговора, что это за модель?
И нет, это не Mystic v2, Мистик - это просто Флюкс с украшалками.
https://huggingface.co/spaces/ArtificialAnalysis/Text-to-Image-Leaderboard
На реддите народ бьется в истерике уже сутки...
https://www.reddit.com/r/StableDiffusion/comments/1fp6w4n/_/
@cgevent
Извините за качество аудио (не могу найти способ записать прямо с телефона, а другого девайса кроме ноута рядом нет) и за то что уставший, но вот вам ещё монолог Джокера на ночь🌚 По моему голос получился точно как в дубляже)
Матерную версию с Гарри Поттером оставлю на завтра)
Ну вот и мой первый тест, только так теперь с ним буду общаться 😈
Думаю если дальше буду его перебивать, то заберёт душу 🌚 а вообще я уже хочу рок оперу в таком исполнении 🔥
Ой, а что это за сообщение я получил ✨✨✨✨
Можете переустановить прилагу и по идее сразу будет обнова
Тесты пришлю позже🌚
Чуда не произошло, Google выпустила обновлённые модели Gemini 1.5 Pro и 1.5 Flash с улучшенными характеристиками. Стоимость 1.5 Pro снижена на 50%, а скорость вывода увеличена в два раза. Модели поддерживают более длинные контексты, улучшили качество работы с текстом, кодом и визуальными данными.
Ждём анонсов посерьёзнее
Чего не сделаешь ради ИИ, даже атомный реактор перезапустишь⚠️
Компания Constellation Energy планирует перезапустить реактор Unit 1 на АЭС «Три-Майл-Айленд» и продавать электроэнергию Microsoft для обеспечения потребностей дата-центров, поддерживающих искусственный интеллект. Этот реактор связан с аварией 1979 года, одной из крупнейших ядерных катастроф в истории США, хотя сам Unit 1 не был поврежден в результате аварии. Ожидается, что станция снова начнет работу в 2028 году, после получения одобрения Комиссии по ядерному регулированию, а также планируется продление срока её эксплуатации до 2054 года.
https://www.cnbc.com/2024/09/20/constellation-energy-to-restart-three-mile-island-and-sell-the-power-to-microsoft.html
Крутое название статьи, да и суть не хуже - Сэм Альтман заявил о способности нового поколения ИИ, таких как модель o1, к самоулучшению. Альтман отметил, что в ближайшие месяцы произойдут значительные улучшения, позволяющие ИИ решать более сложные задачи, демонстрируя быстрое развитие систем.
Модель o1является первым шагом на пути к созданию "агентных" систем (уровень 3), которые смогут не только отвечать на вопросы, но и самостоятельно выполнять действия в других системах и сервисах. Это даст возможность ИИ действовать как полноценный агент, способный выполнять комплексные задачи. В дальнейшем такие системы смогут не только решать проблемы, но и создавать инновации — что соответствует уровню 4 развития ИИ.
Интересно, где мы будем через год с таким ускорением🌚
А подробнее написано тут /channel/techsparks/4679
YouTube представил новые ИИ-инструменты для упрощения создания контента. На мероприятии Made on YouTube компания анонсировала вкладку Inspiration в YouTube Studio, которая предложит идеи для видео, придумает заголовок, создаст эскиз и напишет начало сценария. Это позволяет авторам быстрее генерировать контент и даже полностью строить видео с помощью ИИ.
Кроме того, модель Veo от DeepMind будет интегрирована в YouTube Shorts, позволяя создавать ролики с ИИ-сгенерированными фонами. Новые функции появятся к концу года. YouTube также расширяет возможности автодублирования видео и предлагает авторам ИИ-инструменты для взаимодействия с аудиторией через секцию «Сообщества».
Думаю в итоге мы придём к кнопке "Сгенерируй мне видео" с окошком для промптома и деваться будет некуда от ИИ-видосов🫣
https://www.theverge.com/2024/9/18/24247559/youtube-ai-videos-veo-inspiration-tab
Тут кто-то замутил AI компаньона для любой игры👾 всё достаточно просто и гениально, делаются скрины областей экрана (или всего экрана, шорткаты забиты на любой случай, даже ваш вопрос голосом можно задать) и идёт аудио ответ через апишки любых моделей 👌 думаю даже попробовать, особенно будет прикольно когда модельки начунут видеть экран (а они начнут)
Кому интересно качать тут
По аналогии с началом сентября, когда некоторым пользователям показывали два варианта ответа, один из которых был от моделей o1 (Strawberry), сейчас в выдачу подмешивают варианты, где явно задействован поиск по интернету (или по крайней мере по набору внешних источников).
Напомню, что OpenAI летом анонсировали SearchGPT, которую выдали всего +-10'000 пользователей как раннюю альфу.
Возможно, релиз скоро 😟
Источник скрина
А ещё пишут Advanced Voice mode собираются выкатить даже бесплатным пользователям (видимо с сильным лимитом) - логичный ход, чтобы потом привлечь ещё больше ЗОЛОТА💰💰😈.... кхм подписок👌
Читать полностью…Немного про последние новости OpenAI 🌚🌚
В конце у руля останется AGI, который они и создают (или уже создали)👌
Институт искусственного интеллекта Аллена (Ai2) представил Molmo — новую линейку мультимодальных AI моделей с открытым исходным кодом. Эти модели превзошли таких конкурентов, как GPT-4o от OpenAI и Claude 3.5 Sonnet от Anthropic, на нескольких независимых тестах. Molmo умеет обрабатывать изображения и файлы, а для обучения использует в 1000 раз меньше данных, чем конкуренты.
Molmo превосходит другие модели на ряде бенчмарков, особенно по работе с изображениями и текстом. Вот некоторые ключевые тесты, где Molmo-72B показала лучшие результаты:
DocVQA — Тест на понимание документов в формате вопрос-ответ, где Molmo-72B набрала 96.3 балла, обойдя такие модели, как Gemini 1.5 Pro и Claude 3.5 Sonnet.
TextVQA — Бенчмарк для распознавания текста на изображениях, где модель также показала результат 85.5 балла, превосходя аналогичные модели.
AI2D (A Diagram Is Worth A Dozen Images) — Набор данных, состоящий из научных диаграмм и аннотаций, где Molmo-72B достигла наивысшего результата среди всех моделей, набрав 96.3 балла.
Сейчас доступно image-to-text демо
И сами модельки на huggingface
У Meta выходит свой voice mode и он будет open source 🔥🔥🔥
Доступен с сегодняшнего дня бесплатно!
✨✨✨
Неужели дождались, ещё и голоса новые😋
UPD
Advanced Voice пока недоступен в ЕС, Великобритании, Швейцарии, Исландии, Норвегии и Лихтенштейн, поэтому заходите через VPN других стран и будет работать 👌
А ещё Альтман разродился на манифест, который мне показался недостаточно эпичным, поэтому я попросил его же (Альтмана) творение исправить это упущение:
Эпоха Разума
В недалеком будущем мы сможем творить то, что наши предки считали бы магией. Человечество всегда шло по пути прогресса, но теперь его скорость стремительно нарастает. Наша сила — не в изменениях человеческой природы, а в знаниях и технологиях, возведённых поколениями до нас.
Искусственный интеллект откроет двери к новому миру. Он решит задачи, которые сегодня кажутся непосильными. Наши потомки будут работать с целыми AI-командами, создавая невероятные вещи и прокладывая путь к звёздам.
Эта грядущая Эпоха Разума принесёт беспрецедентное процветание. С неограниченным разумом и неиссякаемой энергией мы станем покорять галактику, пересекать космические просторы и сеять жизнь среди звёзд. Будущее ослепительно яркое, и перед ним меркнет всё, что человечество знало до сих пор. Мы стоим на пороге эпохи, где ни одна мечта не будет недосягаемой.
✨✨✨✨✨
На реддите пишут OpenAI начали выкатывать Advanced Voice Mode, у меня сообщенка тоже поменялась, ждём ✨
Читать полностью…Попалось крутое видео (не обращайте внимание, что мало просмотров) про возможности o1-preview. В видео Ульф Педерсен, физик из Роскилльского университета (Дания), тестирует модель на неформализованных вопросах по физике: «Какая температура у воздушного шара?», «С какой скоростью должен вращаться барабан сушилки?» и «Сколько электричества потребляет вентилятор?». Модель формализует задачи и решает их с использованием физики, а он разбирает так, как будто это ответы его студентов (спойлер - он очень впечатлён ответами). Меня особенно впечатлило, что модель отказалась отвечать на вопрос, который не относился к физике👌Вот это уже другой уровень тестов, когда модель можно считать уверенным ассистентом, который может помогать в научных исследованиях профессору, а не просто начинающим программистом или копирайтером, а что будет через год - похоже мой любимый жанр видео будет просмотр вот таких увлечённых учёных, которые испытывают детский восторг от новых открытий🤓⚗️🧬🧫✨
Если хотите попробовать сами, то промпт в описании видео
https://www.youtube.com/watch?v=wAnkM10FByY
Новые модели OpenAI завезли на арену
Комментарии излишни🌚 Взяли очередную планку, но это только начало👌