🌟 Рекомендация: Переходите на безопасную облачную платформу VK Cloud с двойным бонусом!
Если ваш бизнес использует облачные сервисы Microsoft Azure, AWS или Google Cloud, то важно обратить внимание на последние изменения. С 20 марта доступ к этим сервисам будет закрыт в России. Но не волнуйтесь, VK Cloud предлагает поддержку для перехода на безопасную облачную платформу с рядом выгодных предложений:
✨ Двойной бонус: Получите грант, в два раза превышающий ваш бюджет на облачные сервисы в феврале 2024 года.
✨ Бесплатная миграция: Мы перенесем вашу ИТ-систему с зарубежного провайдера на платформу VK Cloud.
✨ Бесплатные лицензии и консультации: Предоставим ПО для миграции, покроем стоимость инфраструктуры и предоставим бесплатный консалтинг от команды инженеров Professional Services.
📅 Действие: Оставьте заявку на миграцию до 10 апреля, приложив чек об оплате сервисов Microsoft Azure, AWS или Google Cloud за февраль 2024 года. Мы начислим на ваш бонусный счет VK Cloud средства для тестирования и поможем с быстрым запуском в облаке.
💡 Преимущества: В течение 2 месяцев вы сможете оценить преимущества платформы VK Cloud бесплатно. Для этого оставьте заявку на миграцию до 10 апреля и отправьте чек об оплате сервисов Microsoft Azure, AWS или Google Cloud за февраль 2024 года. VK Cloud начислит на ваш бонусный счет в два раза больше средств для тестирования, а также поможет с бесплатной миграцией и быстрым запуском в облаке.
Не упустите возможность улучшить безопасность и эффективность вашего бизнеса с помощью VK Cloud! ✨🚀
#ОставитьЗаявку #VKCloud #ОблачныеСервисы #Безопасность #Миграция
🌟 Ускорение вычислений Machine Learning
⏩Недавно разработчики из AMD опубликовали на GitHub исходные тексты кода драйвера для карт с движком на базе архитектуры XDNA. Проект предоставляет средства для ускорения вычислений, связанные с машинным обучением и обработкой сигналов (NPU, Neural Processing Unit).
⏩Решения NPU на базе архитектуры XDNA поставляется в сериях 7040 и 8040 процессоров AMD Ryzen, ускорителях AMD Alveo V70 и SoC AMD Versal. Код проекта написан на языках С и С++, и открыт под лицензией GPLv2. Для работы драйвера требуется ядро Linux 6.7 с поддержкой IOMMU SVA (Shared Virtual Addressing). Программное обеспечение Xilinx XRT также необходимо построить для работы с этим драйвером ядра.
⏩Опубликованный AMD исходный код включается в себя драйвер для ядра Linux (amdxdna.ko) и runtime-библиотеку (плагин xrt_plugin*-amdxdna
) для использования интерфейса XRT (Xilinx Runtime Library), позволяющего обращаться из приложений к обработчикам (kernel), выполняемым на стороне аппаратного ускорителя. XRT позволяет задействовать NPU AMD в приложениях на обычных языках программирования.
⏩Проект предоставляет различные уровни абстракции, от низкоуровневых API для C/C++ до высокоуровневых привязок для Python и компонентов для интеграции с TensorFlow, PyTorch и Caffe.
@ai_machinelearning_big_data
🔥 Clarity-Upscaler: Open-Source 🔥 Open-Source 🔥
Clarity AI - это новая нейросеть для апскейла, которая может значительно улучшать разрешение изображений и добавлять детали к ним.
Вы можете самостоятельно контролировать результаты, задавая нужное описание при запуске генератора.
▪ code: https://github.com/philz1337x/clarity-upscaler
▪ page: https://clarityai.cc
@ai_machinelearning_big_data
Могут ли нейросети понимать человеческие эмоции?
Да, могут!
В Yandex Cloud разработали нейросеть-эмпата на базе технологии распознавания речи Yandex SpeechKit, которая поможет бизнесу понимать эмоции клиентов по голосу. Новая ML-модель уже может определить негатив, неформальные высказывания и нецензурную лексику.
Расшифровка и анализ эмоций происходят сразу во время разговора. Это позволит лучше адаптировать коммуникации компании под каждого клиента и оперативно реагировать на инциденты в диалоге, если что-то пошло не так.
Вскоре нейросеть-эмпат будет работать в связке с YandexGPT в сервисе речевой аналитики SpeechSense — после этого она сможет понимать неуверенность, сарказм и другие сложные эмоции.
➡️ Узнайте обо всех возможностях нейросети по ссылке
🔥 Российский AI GigaChat занял 4-е место среди самых передовых моделей искусственного интеллекта, обогнав GPT-3.5 и гугловский Gemini по результатам бенчмарка AI Benchmarking Guide 2024. Также GigaChat показал лучшие результаты по запросам на русском языке.
Исследование проводилось методом side-by-side. Для определения потенциала модели эксперты использовали комбинацию двух факторов: оценку производительности модели на ее «родном» языке и наивысшую оценку реакции модели на любом другом языке. Кроме того проводились слепые тесты по задачам: перевод, творческое написание текстов, генерация кода и анализ данных.
@ai_machinelearning_big_data
Регистрируйтесь на конкурсы на площадке GitVerse и получайте возможность выиграть 500 тыс. руб!
Объявляем о начале регистрации на конкурсы от GitVerse в рамках олимпиады «IT-Планета 2024».
Вас ждут два трека, увлекательные задания и призовой фонд в размере 500 тыс. рублей *!
До 31 марта регистрируйтесь в конкурсе и проходите отборочное тестирование на платформе для разработчиков GitVerse от СберТеха. Можно выбрать из двух направлений:
👉 «Прикладное программирование if...else»
Это конкурс для разработчиков в возрасте от 18 до 35 лет, которые создают прикладное ПО.
Требования к участникам — знание C/C++/Java/Python, понимание алгоритмов и умение применять их на практике.
Вас ждут прикладные задачи, связанные с разработкой серверной части. А в случае успешного прохождения второго этапа — очный финал!
Подробные условия конкурсов и регистрация.
👉 «Разработка игр – GameDev»
Это соревнование для разработчиков игр в возрасте от 18 до 35 лет. Участвовать можно самостоятельно или вместе с командой до 4 человек.
Требования — отличное понимание игровых механик, знание всех аспектов движков и умение выбирать правильное решение для прототипирования игры.
Каждый конкурс состоит из трех этапов: отборочное тестирование, основной этап — отправка проектов или решение прикладных задач, — и очный финал.
Подробные условия конкурсов и регистрация.
Следите за новостями и удачи в конкурсах!
*За вычетом НДФЛ
🔥 Генеративные нейросети Яндекса попали в первый международный рейтинг Global Generative AI Landscape 2024 от AIPort
В списке самых перспективных ИИ-разработок оказались текстовая YandexGPT и мультимодальная YandexART 🎉
Рейтинг охватил все ключевые категории генеративных нейросетей: текстовые, картиночные, видео, аудио, мультимодальные, чат-боты, игровые и другие. Его опубликовало сообщество дата-сайентистов, ML-экспертов и энтузиастов в сфере ИИ.
Помимо этого, Яндекс стал одной из 11 компаний со всего мира, разрабатывающих более одного типа GenAI-моделей наряду со Open AI, Microsoft и Google.
@ai_machinelearning_big_data
HOSTKEY – международный хостинг-провайдер предлагает в аренду выделенные и виртуальные GPU-серверы с почасовой или месячной оплатой.
🔥Доступны конфигурации с игровыми картами RTX4090 и профессиональными RTX A500 24Gb и Tesla H100 / A100 80Gb. Дата-центры в России, Нидерландах и Исландии. Скидки до 30%. Стоимость от 10 руб./ч или 7 500 руб. в месяц.
HOSTKEY предлагает гранты для перспективных проектов в области Data Science и для победителей конкурсов по исследованию данных на платформе Kaggle и других площадках.
Спрос на серверы высокий, количество серверов ограничено.
🔥Закажите сервер сегодня или оставьте заявку на предзаказ.
erid: LjN8KCoro
⚡20 марта в 20.00 мск приглашаем на открытый урок курса “Reinforcement Learning” в OTUS, на котором построим торгового агента с использованием фреймворка FinRL.
На эфире мы:
- посмотрим на один из свободно распространяемых фреймворков для моделирования финансового рынка;
- узнаем, как реализовать модель и построить торгового агента в несколько строк кода с использованием FinRL;
- ответим на все возникающие вопросы.
👉Регистрация https://otus.pw/PkRr/?erid=LjN8JvKy8
💡Обучение на курсе позволит применять алгоритмы RL для решения разнообразных задач в реальном мире, включая игровую индустрию, робототехнику и решение финансовых задач, таких как управление финансовым портфелем и задачи кредитного скоринга. При поступлении в группу возможны разные способы оплаты и рассрочка платежа
🥰 В ближайшем будущем работодатели будут искать Data Scientist. Сыграйте на опережение — начните учиться со Слёрмом уже в ноябре!
Не требуется заглядывать во временную воронку, достаточно проанализировали актуальное положение вещей:
🔥 Работа с данными требуется и в небольших IT-стартапах, и в финтехе, и в бизнесе, и фармацевтике — везде, где требуются наиболее точные прогнозы.
⭐ Спрос на специалистов растет. По данным Всемирного экономического форума, количество вакансий по направлению выросло на 433%.
➕ Средняя зарплата Data Scientist зарабатывает от 50 000 рублей на уровне junior и от 250 000 рублей, когда он станет senior-специалистом.
Как стать Data Scientist, учат в Слёрме!
Курс стартует 29 марта, вам потребуется около 4 месяцев, чтобы доучиться до уровня специалиста.
Вам помогут мощные эксперты:
— Иван Аникин, Team Lead Yandex.Edadeal;
— Владимир Бугаевский, Team Lead СберМаркет.
Посмотреть подробную программу вы можете на сайте.
Реклама. ООО «Слёрм» г. Лиски, ИНН 3652901451
📊 Внимание, аналитики данных!
На соревновании Data Fusion Contest 2024 уже начался батл за призовой фонд в 2 млн рублей!
🚀 Докажи, что ты лучший — присоединяйся к участникам на Data Fusion Contest и продемонстрируй свои навыки в машинном обучении экспертам отрасли. Соревнование проводит одна из крупнейших ИТ-компаний Т1 и банк ВТБ.
Для тебя есть задачи по геоаналитике и по моделям оттока клиентов. Выбирай любую или сразу две. Онлайн-встречи, разбор кейсов и доступ к уникальным данным — все это ждет тебя.
Не упусти возможность стать частью профессионального сообщества аналитиков и прокачаться в новых DS/ML-методах.
Более 1000 участников уже приняли участие. А ты готов?
➡️ Регистрация на соревнование еще открыта — переходи по ссылке: https://vk.cc/cvoGGL
*батл - бой/битва
*ML - машинное обучение
*DS - анализ данных
⚡️ Инвесторы смогут тестировать и запускать собственных торговых роботов на уникальных данных
MoexAlgo — Python-библиотека для упрощения работы с Алгопак API. Предоставляет данные и аналитику по рынку акций Московской биржи (MOEX). Можно получать:
• исторические данные для тестирования торговых стратегий, проверки гипотез и backtest;
• онлайн-данные для алгоритмической торговли.
Библиотека необходима для работы с демоверсией Алгопак — новым инструментом Московской биржи. Благодаря ему вы можете прокачать свои навыки работы через REST API и Python-клиент. Клиенты получают доступ к большому набору исторических и онлайн-данных по рынку акций MOEX и могут проводить backtest различных торговых стратегий, а также создавать и автоматизировать торговые алгоритмы.
• MoexAlgo
• Backtrader_moexalgo
• Демоверсия Алгопак доступна всем зарегистрированным пользователям сайта ПАО Московская Биржа — тестируйте на сайте
Реклама. Рекламодатель ПАО Московская биржа. ОГРН (1027739387411)
Скажите что-то на карьерном
Тинькофф в поиске крутых ИТ-спецов. С компании — профессиональный рост, интересные финтех-задачи, решение бытовых забот и работа там, где вы живете. С вас — выбрать вакансию и откликнуться тут
erid:2VtzqxRzgQj
Реклама. АО "Тинькофф Банк", ИНН 7710140679, лицензия ЦБ РФ № 2673
🙃 ИИ чат-боты «думают» на английском, даже когда говорят на других языках
Большие языковые модели (LLM), лежащие в основе чат-ботов, «думают» на английском языке, даже если вопросы задаются на других языках, пишет New Scientist со ссылкой на исследование учёных Федеральной политехнической школы Лозанны.
Чтобы понять, какой язык на самом деле используют LLM при обработке запросов, учёные изучили три версии модели Llama 2. Благодаря тому, что Llama 2 имеет открытый исходный код, исследователи смогли ознакомиться с каждым этапом обработки запроса.
Они открыли эти модели и изучили каждый из их слоёв. ИИ-модели состоят из нескольких слоёв, каждый из которых отвечает за определённый этап обработки запроса: один переводит подсказки в токены, другой контекстуализирует каждый токен и т.д.
Моделям были предложены 3 типа запросов на китайском, французском, немецком и русском языках. В одном случае предлагалось повторить заданное слово, во втором — перевести с одного неанглийского языка на другой, и в третьем — заполнить пробел в одно слово в предложении, например: «___ используется для занятий такими видами спорта, как футбол и баскетбол».
Отследив процессы внутри LLM, учёные обнаружили, что путь обработки через слои почти всегда проходит через то, что они называют английским подпространством. То есть, если предложить модели перевести с китайского на русский, русские символы проходят через английское подпространство, прежде чем вернуться на русский, говорит учёный, что является убедительным признаком того, что модели используют английский, чтобы помочь себе понять суть запроса.
Это вызвало у учёных обеспокоенность по поводу того, что использование английского языка в качестве посредника для обучения модели несёт с собой риск.
«Если английский станет основным языком, на котором системы обрабатывают запросы, мы, скорее всего, потеряем концепции и нюансы, которые можно оценить только на других языках», — говорит Карисса Велиз (Carissa Véliz) из Оксфордского университета.
@ai_machinelearning_big_data
🚀 GPM AdTech Challenge
от «Газпром-Медиа» и Getintent
Когда: 18-30 марта
Формат: гибридный
Призовой фонд: 1 000 000 рублей
Ты можешь стать победителем независимо от своего технического бэкграунда. Выбирай один из трех треков, создавай прототип и выигрывай 1 000 000 рублей.
Регистрация до 13 марта: https://cnrlink.com/gpmml
🎙 Frontend Мeetup от Росбанка
Когда: 22 марта
Формат: очный, Казань
Вас ждут доклады специалистов Росбанка, СберМаркета и VK Добра.
Авторы лучших вопросов получат мерч.
Регистрация до 18 марта: https://cnrlink.com/rbkazanml
💢 «Халява, приди!» от Codenrock
Когда: весь март
Формат: онлайн
Реши несложные, но увлекательные задачи по программированию и получи возможность стать обладателем промокода на любой маркетплейс. Это ли не халява?
Регистрация до 20 марта: https://cnrlink.com/halyavaml
Реклама. ООО "ЦУКЕР СТУДИЯ". ИНН 7751071015. erid: LjN8JxeWj
🔥Grok-1 LLM от Илона Маска.
Grok-1 представляет собой смесь экспертов размером 314B обученную с нуля xAI.
Лицензия: Apache 2.0
Веса Grok-1 доступны на Brazzer
▪ Model: https://dagshub.com/xai/grok-1
▪ Page: https://x.ai/blog/grok-os
▪ Code: https://github.com/xai-org/grok-1
▪ Hugging face:https://huggingface.co/xai-org/grok-1
@ai_machinelearning_big_data
Вариант для тех, кто ищет виртуальный сервер с хорошей веб-защитой — Aéza:
– Виртуальные сервера до 6.0 ГГц на лучших процессорах;
– Профессиональная фильтрация атак StormWall;
– Круглосуточная поддержка;
– Anycast фильтрация;
– Низкие цены;
– 15% кешбэка по ссылке.
Бесконечно можно смотреть на три вещи: на огонь, воду и скидку от Aeza!
Говорят: твоё от тебя не уйдет. А зачем ждать? Динозавры тоже ждали и остались в прошлом
Используй 50% скидку и погнали в будущее!
Кроме того, сейчас Aéza раздает личные бесплатные сервера, забираем тут. Регистрация, подписка, платежи не потребуются.
Реклама. Индивидуальный предприниматель Лобанов Леонид Константинович. ИНН 781625705648 erid: LjN8KEr3S
📌Microsoft рассказала, какие у Google преимущества в сфере генеративного ИИ
Microsoft заявила, что доступ к огромным объёмам данных и наличие оптимизированных под искусственный интеллект чипов дают Google преимущество в сфере генеративных нейросетей. Таким образом софтверный гигант попытался подчеркнуть наличие конкуренции в сегменте генеративных нейросетей. В январе этого года Еврокомиссия, основной отраслевой регулятор Евросоюза, начала проверку с целью выявления нарушений антимонопольного законодательства в этой сфере.
Сегмент генеративных нейросетей развивается быстрыми темпами. Появление чат-ботов на основе искусственного интеллекта, таких как ChatGPT от OpenAI и Gemini от Google, вызывает опасения по поводу того, что подобные технологии могут использоваться для создания фейковых новостей и распространения дезинформации. На этом фоне Еврокомиссия начала изучать сегмент, чтобы убедиться в том, что все игроки находятся в одинаковых условиях.
«Сегодня только одна компания — Google — вертикально интегрирована таким образом, что обеспечивает ей силу и независимость на всех уровнях ИИ — от чипов до процветающего магазина мобильных приложений. Все остальные вынуждены полагаться на партнёрские отношения, чтобы внедрять инновации и конкурировать», — говорится в докладе Microsoft, который был направлен в Еврокомиссию.
В Microsoft считают, что способность Google самообеспечивать себя оптимизированными под ИИ чипами даст ей конкурентные преимущества на ближайшие несколько лет. В это же время огромные массивы данных из поискового индекса Google и YouTube позволят компании обучать свою языковую модель Gemini. «YouTube предоставляет беспрецедентный набор видеоконтента: на платформе размещено около 14 млрд видеороликов. У Google есть доступ к этому контенту, а у других разработчиков в сфере ИИ — нет», — заявила Microsoft.
📎 Читать подробнее
@ai_machinelearning_big_data
🖥 pyvene: A Library for Understanding and Improving PyTorch Models via Interventions
Стэнфордская библиотека NLP для понимания и улучшения моделей на основе PyTorch.
Воздействие на внутренние состояния модели являются важной операцией во многих областях работы с ИИ, включая редактирование модели, управление, ее надежность и интерпретируемость.
Для облегчения таких задач исследователи Стэнфорда создали библиотеку Python с открытым исходным кодом, которая поддерживает сложные схемы взаимодействия с моделями в интуитивно понятном формате. pip install pyvene
Например, вы можете использовать любую модель hf:
import torch
import pyvene as pv
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "meta-llama/Llama-2-7b-hf" # your HF model name.
model = AutoModelForCausalLM.from_pretrained(
model_name, torch_dtype=torch.bfloat16, device_map="cuda")
tokenizer = AutoTokenizer.from_pretrained(model_name)
def zeroout_intervention_fn(b, s):
b[:,3] = 0. # 3rd position
return b
pv_model = pv.IntervenableModel({
"component": "model.layers[15].mlp.output", # string access
"intervention": zeroout_intervention_fn}, model=model)
# run the intervened forward pass
orig_outputs, intervened_outputs = pv_model(
tokenizer("The capital of Spain is", return_tensors="pt").to('cuda'),
output_original_output=True
)
print(intervened_outputs.logits - orig_outputs.logits)
tensor([[[ 0.0000, 0.0000, 0.0000, ..., 0.0000, 0.0000, 0.
[ 0.0000, 0.0000, 0.0000, ..., 0.0000, 0.0000, 0.0000],
[ 0.0000, 0.0000, 0.0000, ..., 0.0000, 0.0000, 0.0000],
[ 0.4375, 1.0625, 0.3750, ..., -0.1562, 0.4844, 0.2969],
[ 0.0938, 0.1250, 0.1875, ..., 0.2031, 0.0625, 0.2188],
[ 0.0000, -0.0625, -0.0312, ..., 0.0000, 0.0000, -0.0156]]],
device='cuda:0')
❓Возможно, совсем скоро мы увидим GPT-4.5 Turbo от OpenAI❓
⏩ Согласно новым данным из «утечки» от OpenAI, одним из существенных обновлений в GPT-4.5 Turbo является окно длины контекста в 256k токенов, что вдвое превышает текущие 128k GPT-4 Turbo. Этот шаг, похоже, является ответом OpenAI на конкурентов, запускающих модели со все более большими контекстными окнами, включая Google Gemini. Вероятно, что новая модель GPT изменит ситуацию для OpenAI или даже продвинет её впереди чат-бота Google.
OpenAI пока официально не раскрыла информацию об утечке, поэтому статус GPT-4.5 Turbo и дата выпуска в июне 2024 года окутаны тайной.
⏩Немного предыстории
12 марта 2024 года исследователи обнаружили в кэше Bing, что OpenAI готовится представить нейросеть GPT-4.5 Turbo. Но ссылка на эту страницу на сайте OpenAI выдаёт ошибку 404. Также из поисковой выдачи пропало упоминание о новом чат-боте.
⏩Ожидается, что с помощью чат‑бота GPT-4.5 OpenAI стремится устранить некоторые ограничения и проблемы, с которыми столкнулись его предшественники. Это включает в себя уменьшение предвзятости в сгенерированном тексте, улучшение понимания моделью неоднозначных запросов и значительное улучшение её способности решать задачи, специфичные для определённой предметной области.
@ai_machinelearning_big_data
🎮 Google Deepmind представили SIMA
Это первый универсальный агент с искусственным интеллектом, который выполняет инструкции на естественном языке в широком спектре 3D-виртуальных сред и видеоигр.
Агент может выполнять задачи, аналогичные человеческим, и превосходит агентов, обученного всего в одной среде.
Его цель заключается не в достижении высоких результатов в играх, а скорее в умении взаимодействовать с окружающим миром.
На данный момент SIMA обучается на девяти различных видеоиграх, включая No Man's Sky от студии Hello Games и Teardown от Tuxedo Labs. Кроме того, на скриншотах можно увидеть такие игры, как Valheim, Hydroneer, Wobbly Life, Satisfactory и Goat Simulator 3.
Нейросеть обучается широкому спектру навыков, начиная от простой навигации и использования меню до добычи ресурсов, полета на космическом корабле и создания предметов.
Ученые также создали четыре исследовательские среды на движке Unity, где агентам предстоит строить скульптуры из строительных блоков, это поможет проверить их способность манипулировать объектами и интуитивное понимание физического мира.
Результаты SIMA демонстрируют потенциал для разработки новой волны универсальных ИИ-агентов, управляемых командами на естественном языке.
▪ Post
▪ Technical report
@ai_machinelearning_big_data
⭐️ Awesome Quant: Финансовая математика
Лучшие пакеты r, библиотеки python, пакеты julia, инструменты прогнозирования, программное обеспечение для работы с биржами, финансовые инструменты, r, python, julia, rust, java и многое другое.
Большой кураторский список безумно полезных библиотек, пакетов и ресурсов для Квантов.
https://wilsonfreitas.github.io/awesome-quant/
@ai_machinelearning_big_data
🔥 SHMT — гетерогенная многопоточность для ускорения компьютеров
⏩Инженеры из Калифорнийского университета тестируют способ, который может значительно ускорить работу компьютерных систем без необходимости улучшать оборудование. Проект поможет также снизить энергопотребление.
Метод исследования основан на процессе одновременной и гетерогенной многопоточности (SHMT). Он задействует различные типы процессоров, содержащиеся в современных компьютерах: графический, центральный и тензорный (для работы технологий ИИ).
Концепция SHMT используется, в частности, во время планирования — процесса, в котором система выбирает порядок и расположение задач, решая, какие операции должны выполняться на процессорах каждого типа.
Тестовая установка включала ЦП ARM Cortex-A57, GPU Nvidia и тензорный процессор Google Edge. Благодаря одновременной и гетерогенной многопоточности выполнение расчёта примера кода прошло в 1,95 раза быстрее, а потребление энергии сократилось на 51%.
⏩«Укоренившиеся модели программирования ориентированы на использование только наиболее эффективных процессоров для каждой области кода, недостаточно используя вычислительную мощность гетерогенных компьютеров», — отметили исследователи в своей статье.
Учёные признали, что им предстоит преодолеть серьёзные проблемы, связанные с разделением вычислительных задач, которые будут выполняться разными типами процессоров, а затем объединением всего обратно без какого-либо замедления. По их оценкам, технологию SHMT не получится повсеместно внедрить в ближайшем будущем.
📎 Читать подробнее
@ai_machinelearning_big_data
🚀 Pix2Gif: Motion-Guided Diffusion for GIF Generation
Microsoft опубликовала модель преобразования изображений в GIF под названием Pix2Gif!
Они утверждают, что модель лучше всех понимает и генерирует движения, хотя мы не говорим об уровне Sora, это, безусловно, шаг вперед по сравнению с результатами замедленной съемки, к которым мы привыкли.
▪Github
▪Page
▪Paper
▪Demo
@ai_machinelearning_big_data
🔥 Convolutional Reconstruction Model
Модель для сверхбыстрого преобразования изображений в 3D, с помощью модели сверточной реконструкции.
▪Github
▪Page
▪Paper
@ai_machinelearning_big_data
🔥 Код отладчика Transformer Debugger для работы с моделями от OpenAI опубликован на GitHub
OpenAI опубликовала код отладчика Transformer Debugger, предназначенного для работы с моделями машинного обучения. С его помощью проще понимать, почему языковые модели выводят определённые токены в ответ на запрос.
Transformer Debugger, как и любой отладчик для моделей машинного обучения поддерживает функции пошагового вывода, перехвата активностей и их трассировки. Разработчики компании отмечают, что утилита помогает понять, почему языковая модель уделяет внимание определённым токенами и почему выводит их в качестве ответа на запрос.
Выпуск включает в себя следующие компоненты:
⏩Neuron viewer — React-приложение для вывода информации об отдельных компонентах модели, включая фокусы внимания и нейроны MLP.
⏩Activation server — сервер, который взаимодействует с моделью и извлекает данные для вывода. Он же нужен для работы с общедоступными контейнерами Azure.
⏩Models — простая библиотека выводов для моделей GPT-2.
⏩Примеры наборов данных для нейронов MLP и фокусов внимания.
🖥 Код Transformer Debugger написан на Python и доступен на GitHub. Вместе с этим разработчики OpenAI поделились подробными инструкциями и документацией.
@ai_machinelearning_big_data
🌟 Код чат-бота Grok от выложат в open-source
Илон Маск пообещал, что ИИ-стартап xAI откроет исходный код чат-бота Grok на этой неделе.
Маск сделал это заявление через несколько суток после того, как подал в суд на OpenAI и пожаловался, что поддерживаемый Microsoft стартап отклонился от своих корней и не выложил в открытом доступе исходный код ChatGPT.
🔘Немного предыстории: в июле прошлого года Маск объявил о начале работы xAI. Главная цель проекта — «понять истинную природу Вселенной». Одним из продуктов xAI как раз является Grok.
4 ноября 2023 года xAI запустила своего чат-бота Grok с генеративным искусственным интеллектом для ограниченной аудитории. В компании планировали сделать языковую модель xAI доступной для всех платных подписчиков соцсети X.
@ai_machinelearning_big_data
🔥 Вероятно, ожидается прорыв в AI — придуман новый способ умножения матриц
В основе AI лежит матричное исчисление, которое только что пережило самый большой подъем более чем за десятилетие. Почти одновременно вышли две статьи, в которых математики объяснили, как повысить эффективность перемножения матриц, с помощью чего AI сможет быстрее обучаться и быстрее решать задачи.
Суть в том, что до относительно недавнего времени человечество не представляло иного способа умножения матриц, чем выполнением n³ операций (n — размерность матриц). В идеальном же для математиков мире умножение матриц хотелось совершать за n² операций. И к началу 70-х годов процесс поиска соответствующего алгоритма пошёл. Нетрудно догадаться, что к этому побудило распространение вычислительных машин.
Заявленный в новых статьях прорыв, совершённый в 2023 году, произошёл в результате обнаружения скрытых потерь в «лазерном методе» Арнольда Шёнхаге. В ноябре 2023 года Ран Дуань и Ренфэй Чжоу из Университета Цинхуа представили метод, который устранил неэффективность лазерного метода, установив новую верхнюю границу числа необходимых операций примерно на уровне n^2.371866
. Это самый существенный прогресс в этой области с 2010 года.
Но всего 2 месяца спустя Вирджиния Василевски, Инчжан Сюй и Цзысюань Сюй из МТИ опубликовали вторую статью, в которой подробно описали ещё одну оптимизацию, которая снизила верхнюю границу количества операций до n^2.371552
.
Безусловно, точное влияние на скорость работы моделей AI зависит от конкретной архитектуры системы ИИ и от того, насколько сильно задачи конкретной модели зависят от умножения матриц. Поэтому повышение эффективности алгоритмов будут сочетать с оптимизацией оборудования, чтобы полностью реализовать потенциальный прирост скорости.
И по мере того, как улучшения в алгоритмических методах будут накапливаться с течением времени, искусственный интеллект будет становиться быстрее — это факт.
📎 Читать подробнее
@ai_machinelearning_big_data
🏎 TripoSR: Fast 3D Object Reconstruction from a Single Image
Современная модель с открытым исходным кодом для быстрой 3D-реконструкции по одному изображению.
Модель создает высококачественные 3D-модели менее чем за 0,5 секунды на графическом процессоре NVIDIA A100.
▪page: https://tripo3d.ai
▪paper: https://drive.google.com/file/d/1LWlZPT2aASi9jHiGVhDSr4YCTANoFW5t/view
▪code: https://github.com/VAST-AI-Research/TripoSR
ai_machinelearning_big_data
🚀 PeRFlow: Piecewise Rectified Flow as Universal Plug-and-Play Accelerator
Фреймворк для ускорения предварительно обученных моделей диффузии, которая значительно повышает их производительность.
▪Github
▪Project
ai_machinelearning_big_data