🪄 InternLM-XComposer
Multi-Objective Reinforcement Learning algorithms implementations.
MORL-Baselines - это библиотека алгоритмов многоцелевого обучения с подкреплением (MORL).
Данный репозиторий содержит рабочие реализации алгоритмов MORL в PyTorch.
🖥 Code: https://github.com/lucasalegre/morl-baselines
🦾 Project: lucasalegre.github.io/morl-baselines
🖥 Colab: https://colab.research.google.com/drive/1ByjuUp8-CJeh1giPOACqPGiglPxDnlSq?usp=sharing
📚 Paper: https://arxiv.org/abs/2311.12495v1
🔗 Dataset: https://paperswithcode.com/dataset/mo-gymnasium
@ai_machinelearning_big_data
Stability AI is releasing Stable Video Diffusion! 🔥
Stability AI выпустили опенсорс модель image-to-video.
Это новая модель преобразования изображения в видео, которая позволяет получить 14-25 кадров с разрешением 576x1024
при наличии контекстного кадра такого же размера.
🖥 Code: https://github.com/Stability-AI/generative-models
🦾 Announcement: https://stability.ai/news/stable-video-diffusion-open-ai-video-model
📚 Paper: https://stability.ai/research/stable-video-diffusion-scaling-latent-video-diffusion-models-to-large-datasets
🔗 Weights: https://github.com/Stability-AI/generative-models
@ai_machinelearning_big_data
👱♂️ ChatAnything: Facetime Chat with LLM-Enhanced Personas
FACETIME CHAT WITH LLM-ENHANCED PERSONAS.
Новая модель ChatAnything, которая способна придать жизнь разнообразным объектам, будь то животное, фрукт, монстр или даже ваше собственное фото, создавая говорящего персонажа. При помощи нейронных сетей и алгоритмов текст в речь, программа автоматически выбирает наиболее подходящий тон и настроение для созданного персонажа.
Вам предоставляется возможность создать любогоаватара, из текстовом описании или загрузив свое собственное изображение. После этого вы можете общаться с ним, используя текстовые сообщения или ваш голос.
🖥 Github: https://github.com/zhoudaquan/ChatAnything
📕 Paper: https://arxiv.org/abs/2311.06772
⭐️ Model: https://github.com/zhoudaquan/ChatAnything/blob/main/python_scripts/prepare_models.py
ai_machinelearning_big_data
➕ SA-Med2D-20M Dataset: Segment Anything in 2D Medical Imaging with 20 Million masks
Модель Segment Anything Model (SAM) достигла впечатляющих результатов при сегментации изображений и успех модели во многом объясняется наличием большого количества обучающих данных с метками.
Однако применение SAM для сегментации медицинских изображений не может дать хороших результатов, поскольку SAM не обладает медицинскими знаниями - она не использует медицинские изображения для обучения.
SA-Med2D-20M - крупномасштабный датасет по сегментации двумерных медицинских изображений, созданный на основе многочисленных гснимков.
Он состоит из 4,6 млн. двумерных медицинских изображений и 19,7 млн. соответствующих масок, охватывающих практически все тело и содержащий значительное разнообразие.
В данной работе описаны все датасеты, собранные в SA-Med2D-20M, и подробно описаны способы обработки этих наборов данных. Кроме того, приведена полная статистика SA-Med2D-20M, которая поможет исследователям построить базовые модели медицинского зрения или применить свои модели в медицинских приложениях.
🏆 Самая большая на сегодняшний день база данных по сегментации медицинских изображений (4,6 млн. изображений и 19,7 млн. масок) для обучения моделей.
🏆 Инструмент файнтюнинга на основе модели Segment Anything Model (SAM).
🏆 Всесторонняя оценка SAM-Med2D на крупномасштабных датасетах.
🖥 Github: https://github.com/OpenGVLab/SAM-Med2D
🖥 Colab: https://colab.research.google.com/github/OpenGVLab/SAM-Med2D/blob/main/predictor_example.ipynb
📕 Paper: https://arxiv.org/abs/2311.11969v1
⭐️ Dataset: https://arxiv.org/abs/2311.11969
ai_machinelearning_big_data
💥 Video-LLaVA: Learning United Visual Representation by Alignment Before Projection
Простая, но надежная модель зрительного языка LVLM - Video-LLaVA, который обучается на смешанном наборе данных изображений и видео, взаимно усиливая друг друга. LLM выполнять визуальные рассуждения одновременно о изображениях и видео.
Video-LLaVA превосходит Video-ChatGPT, MSRVTT, MSVD, TGIF и ActivityNet на 5,8%, 9,9%, 18,6% и 10,1% на соответственно. Многочисленныйе эксперименты показывают, что Video-LLaVA превосходит модели, разработанные специально для изображений или видео.
🐱Github: https://github.com/PKU-YuanGroup/Video-LLaVA
🤗Demo: https://huggingface.co/spaces/LanguageBind/Video-LLaVA
📕Paper: https://arxiv.org/abs/2311.10122v1
⏩Dataset: https://paperswithcode.com/dataset/mmbench
@ai_machinelearning_big_data
🌦 Makani: Massively parallel training of machine-learning based weather and climate models
Прогнозирование погоды на основе машинного обучения стало перспективным дополнением к традиционным моделям численного прогнозирования погоды (NWP
). Такие модели, как NVIDIA FourCastNet, продемонстрировали, что время вычислений для создания прогнозов погоды может быть сокращено с нескольких часов до нескольких секунд, что является значительным улучшением по сравнению с текущими моделями и на основе NWP.
Makani (гавайское слово, означающее "ветер" 🍃🌺) - это новая библиотека от NVIDIA, предназначенная для исследования и разработки моделей погоды и климата на основе машинного обучения на PyTorch.
В частности, Makani использовался для обучения сферических нейронных операторов Фурье (SFNO) и адаптивных нейронных операторов Фурье (AFNO) на датасете ERA5. Makani основан на PyTorch и поддерживает различные формы параллелизма моделей и данных, асинхронную загрузку данных, непредсказуемые каналы, авторегрессионное обучение и многое другое.
🐱Github: https://github.com/NVIDIA/makani
📕Blog: https://developer.nvidia.com/blog/modeling-earths-atmosphere-with-spherical-fourier-neural-operators/
⏩Dataset: https://github.com/NVIDIA/makani/tree/main/datasets
@ai_machinelearning_big_data
JaxMARL
Бенчмарки играют важную роль в разработке алгоритмов машинного обучения. Например, исследования в области обучения с подкреплением (RL) в значительной степени зависят от них. Однако модели RL традиционно запускаются на центральном процессоре, что ограничивает их масштабируемость.
Недавние достижения в области JAX позволили использовать аппаратное ускорение для преодоления проблемы нехватки вычислительных мощностей, обеспечивая создание массивно-параллельных обучающих конвейеров и сред RL.
Это особенно полезно для исследований в области многоагентного обучения с подкреплением (MARL).
В данной работе представлен JaxMARL - первый проект с открытым исходным кодом, сочетающую простоту использования с эффективностью работы на GPU.
Обучающий конвейер на основе JAX работает в 12500 раз быстрее, чем существующие подходы.
🐱 Github: https://github.com/flairox/jaxmarl
📕 Paper: https://arxiv.org/pdf/2311.10090v1.pdf
⏩ Dataset: https://paperswithcode.com/dataset/mujoco
@ai_machinelearning_big_data
🪐 ARES: An Automated Evaluation Framework for Retrieval-Augmented Generation Systems
ARES - автоматизированная система оценки RAG, предназначенная для оценки LLM моделей по таким параметрам, как релевантность контекста, верность ответа и уместность ответа.
RAG - это техника, повышающая производительность языковых моделей путём предоставления модели контекста вместе с вопросом.
Используя синтетические обучающие данные, ARES настраивает легковесных судей LM для оценки качества отдельных компонентов RAG. Для смягчения возможных ошибок предсказания ARES использует небольшой набор аннотированных человеком данных.
🐱 Github: https://github.com/stanford-futuredata/ares
📕 Paper: https://arxiv.org/abs/2311.09476
⏩ Dataset: https://paperswithcode.com/dataset/kilt
@ai_machinelearning_big_data
🇺🇿 Introducing Emu Video and Emu Edit, our latest generative AI research milestones
Мета показали свои новые нейросети Emu Video и Emu Edit.
Первая — высококачественный генератор видео, а вот вторая интересней — это натоящий редактор ваших фото текстом, без выделения областей, сложных интерфейсов и прочего. Просто пишете, что хотите поменять и как, а нейросеть — выполняет. Демо выглядит потрясающе.
🚀 Blog: https://ai.meta.com/blog/emu-text-to-video-generation-image-editing-research/
⭐️Project page: https://emu-edit.metademolab.com
📌Paper: https://emu-edit.metademolab.com/assets/emu_edit.pdf
ai_machinelearning_big_data
Chat-UniVi: Unified Visual Representation Empowers Large Language Models with Image and Video Understanding
Chat-UniVi - унифицированная зрительно-языковая модель, способная понимать и участвовать в разговоре с использованием изображений и видео с помощью визуального представления.
В модели используется набор динамических визуальных маркеров для единообразного представления изображений и видео. Такая схема представления позволяет модели эффективно использовать ограниченное количество визуальных лексем для одновременного отражения пространственных деталей.
Обширные экспиременты показывают, что Chat-UniVi как единая модель стабильно превосходит даже существующие методы, предназначенные исключительно для работы с изображениями или видео.
🐱 Github: https://github.com/pku-yuangroup/chat-univi
📕 Paper: https://arxiv.org/abs/2311.08046v1
⏩ Dataset: https://paperswithcode.com/dataset/activitynet-qa
@ai_machinelearning_big_data
🔥 NVIDIA сжала свои данные за 30 лет своей корпоративной памяти в 13Б параметров.
Все свои данные, которые включают проекты по разработке чипов, внутренние кодовые базы и инженерные журналы, такие как отчеты об ошибках, что составляет 24Б токенов.
Модель "ChipNeMo" развернута внутри компании и работает как джинн-помощник, который отвечает за :
- Генерацию сценариев EDA.
EDA расшифровывается как "Electronic Design Automation
" - основной программный пакет для проектирования графических процессоров нового поколения. Эти сценарии - ключ к рыночной капитализации в $1T 🦾;
- Чатбот-ассистент для инженеров по GPU ASIC и архитектуре, понимающий внутренние спецификации аппаратного дизайна и способный объяснять сложные темы проектирования;
- Обобщение и анализ ошибок в рамках внутренней системы отслеживания ошибок и проблем;
- Генератор кода уже создает скрипты длиной около 10-20 строк на двух специализированных языках, используемых разработчиками микросхем.
📌 Процесс создания ChipNeMo
📌 Официальный блог
@ai_machinelearning_big_data
🔊 Qwen-Audio: Advancing Universal Audio Understanding via Unified Large-Scale Audio-Language Models
Сhat & pretrained large audio language model proposed by Alibaba Cloud.
Qwen-Audio (Qwen Large Audio Language Model) - это мультимодальная версия серии больших моделей Qwen (аббревиатура Tongyi Qianwen), предложенная компанией Alibaba Cloud.
Qwen-Audio принимает на вход различные звуки (человеческую речь, естественные звуки, музыку и песни) и текст, а на выходе выдает текст. Функции Qwen-Audio включают в себя:
▪Фундаментальные аудиомодели: Qwen-Audio - это фундаментальная многозадачная аудио-языковая модель, поддерживающая различные задачи, языки и типы аудио, выступающая в качестве универсальной модели понимания аудио.
▪Qwen-Audio-Chat позволяет вести полноценные диалоги .
Многозадачная система обучения для всех типов аудиозаписей. Модель включает в себя более 30 задач, и обширные эксперименты показывают, что модель демонстрирует высокую производительность.
▪Результаты экспериментов показывают, что Qwen-Audio достигает впечатляющей производительности в различных эталонных задачах, не требуя тонкой настройки под конкретную задачу, и превосходит свои аналоги. В частности, Qwen-Audio достигает лучших результатов на тестовых наборах Aishell1, cochlscene, ClothoAQA и VocalSound.
▪Гибкий многозадачный чат из аудио- и текстового ввода: Qwen-Audio поддерживает анализ нескольких аудиофайлов, понимание и осмысление звука, восприятие музыки и использование инструментов для редактирования речи.
🐱 Github: https://github.com/qwenlm/qwen-audio
🚀 Demo: https://qwen-audio.github.io/Qwen-Audio/
📕 Paper: https://arxiv.org/abs/2311.07919v1
⏩ Dataset: https://paperswithcode.com/dataset/vocalsound
@ai_machinelearning_big_data
🏆 LLaMA2-Accessory: An Open-source Toolkit for LLM Development
LLaMA2-Accessory - это набор инструментов с открытым исходным кодом для предварительного обучения, тонкой настройки и развертывания больших языковых моделей (LLM) и муллимодальных LLM. Этот репозиторий в основном унаследован от LLaMA-Adapter с более расширенными возможностями.🧠
✨ В рамках этого инструментария представлена SPHINX, универсальная мультимодальная языковая модель (MLLM), которая показывает хорошие результаты генерации для широкого спектра задач.
🐱 Github: https://github.com/alpha-vllm/llama2-accessory
🚀 Demo: http://imagebind-llm.opengvlab.com/
📕 Paper: https://arxiv.org/abs/2311.07575v1
⏩ Project: llama2-accessory.readthedocs.io/
⭐ Dataset: https://paperswithcode.com/dataset/vsr
@ai_machinelearning_big_data
🤖Для обучения моделированию архитектуры на разных уровнях важно использовать инструмент, поддерживающий все основные элементы и связи языка, и контролирующий правила их применения. В качестве такого инструмента мы используем Archi. Узнайте больше на бесплатном уроке онлайн-курса «Archimate».
👉Приглашаем на бесплатный вебинар: «Описание технологического и физического слоя на языке Архимейт»: регистрация
На вебинаре мы:
— изучим элементы и правила построения технического и физических слоев;
— познакомимся с элементами слоёв;
— рассмотрим, как элементы технологического и физического слоя связываются с другими слоями.
Занятие проведет Максим Рогоза — руководитель курса и главный архитектор в крупнейшем IT-интеграторе.
🔥После вебинара вы сможете продолжить обучение на курсе по спеццене, в том числе, в рассрочку.
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963. erid: LjN8JxR36
❗️Как эффективно развертывать модели в облаках?
▶️ Узнайте на практике на бесплатном открытом уроке «Deploy моделей в облаках (MLOps в облаках)» от OTUS и Павла Филонова – Ex-Data Science Manager в Kaspersky.
На открытом уроке:
🔹Рассмотрим вариант развертывания моделей в облачном kubernetes
🔹Куда складывать образы и как создавать и управлять кластером
🔹Как безопасно подключить развертывание к CI/CD
✅ Владение инструментами MLOps открывает новые карьерные горизонты специалистам ML, Data Scientist’ам и Software инженерам.
👉 РЕГИСТРАЦИЯ
https://otus.pw/Lhrg/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963. erid: LjN8JtxD7
Trino: как перехать с Vertica, и как устроен его оптимизатор запросов?
Расскажут эксперты компаний Avito и CedrusData на онлайн-митапе при поддержке JUG Ru Group.
🗓 24 ноября в 18:00 (МСК, GMT+3)
В программе:
✔ Дмитрий Рейман — «Как пересесть на Trino после Vertica»
Реальный кейс Авито по переводу аналитической платформы с Vertica на Trino с сохранением UX конечных пользователей.
✔ Владимир Озеров — «Архитектура и проблемы оптимизатора Trino»
Посмотрим, какие особенности архитектуры позволяют Trino быть эффективным. Где он неэффективен и какие улучшения возможны.
➡️ Регистрация на Timepad.
Ссылку на трансляцию отправят вам за 1 час до начала митапа.
Реклама. ООО "КВЕРИФАЙ ЛАБС"
❗️ Какие инструменты нужны для эффективного машинного обучения?
👉 Узнайте на бесплатном открытом уроке «Bagging, Random Forest, стекинг - ансамбли моделей для решения ML-задач» от OTUS и Марии Тихоновой – Senior Data Scientist в «SberDevices» и преподавателя ВШЭ.
🔹 На вебинаре узнаете, как применять ансамбли моделей для решения задач ML и изучите основные подходы к ансамблированию моделей
🔹 Разберем методы ансамблирования Bagging, Random Forest и стекинг
Занятие пройдёт 23 ноября в 18:00 мск и будет приурочено к старту курса «Machine Learning. Professional»
📌 Результаты урока:
Вы освоите такие популярные методы как Bagging, Random Forest и Стекинг
👉 РЕГИСТРАЦИЯ
https://otus.pw/k65H/
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🔥Открытая трансляция главного зала HighLoad++ 2023!
Самая крутая новость ноября: 27 и 28 ноября пройдет открытая трансляция Главного зала HighLoad++ 2023. Это стало возможным благодаря поддержке нашего генерального партнёра, компании Яндекс.
👉Просто зарегистрируйтесь и смотрите: https://clck.ru/36eNfo
В программе доклады лучших спикеров:
✅Павел Капля (Яндекс) - Алиса 6 лет спустя.
✅Александр Кирсанов (VK, ВКонтакте) - Математический хайлоад: большие, очень большие и немыслимо большие числа.
✅Евгений Россинский (ИВИ) - Как из Python и палок собрать детектор аномалий для highload.
Вы сможете не только посмотреть интересные доклады ТОПовых разработчиков, но и задать им вопросы. Полная программа трека здесь. Регистрируйтесь и присоединяйтесь к просмотру!
Реклама. ООО "КОНФЕРЕНЦИИ ОЛЕГА БУНИНА". ИНН 7733863233.
🔥 Live-интенсив: разбираем тестовое задание в OZON на junior-аналитика!
📣 Всем привет! Хотим пригласить вас на интенсив, где мы в прямом эфире будем разбирать настоящее тестовое задание в OZON на аналитика данных!
Нам предстоит провести аналитику продаж и доставок с помощью Pandas в Python, а также проиллюстрировать это все графиками.
📅 Дата: 22 ноября
🕘 Время: 19:00 по Мск
Что будем делать на интенсиве:
◾️ Проанализируем заказы пользователей по retention, времени доставки, сумме заказа т.д.
◾️ Научимся легко генерировать большой DataFrame с синтетическими данными
◾️ Посчитаем описательные статистики
◾️ Изучим полезные фичи Pandas: apply, map, pct_change и др.
◾️ Построим интерактивные графики с помощью Plotly
◾️ Научимся строить и читать необычные графики - например, violinplot
Интенсив подойдет всем — от новичков до тех, кто уже знаком с Python.
В прямом эфире мы также расскажем о частых ошибках новичков и поделимся лайфхаками — как достойно пройти собеседование и удивить ревьюера крутыми фишками 🤩
А вы готовы бустануть свои знания и скиллы в аналитике?
👉🏻 Зарегистрироваться на интенсив
Реклама. ООО "Айти Резюме". ИНН 4025460134. Erid:LjN8KNDG7
5-6 декабря пройдет YaTalks 2023 - большая технологическая конференция Яндекса
Более 100 специалистов, управленцев и учёных по темам нейросетей, разработки продуктов, дизайну интерфейсов, новых технологий и управления в ИТ. Отдельно хочется отметить стек ML:
- Андрей Гусаков (технический директор Яндекс Поиска) выступит с докладом о том, какие технологии увеличили скорость целых городов и стран, что происходит сейчас
- Андрей Кузнецов (руководитель научной группы FusionBrain, AIRI) расскажет, что сейчас умеют LLM, расскажет об экспериментах,способы общения LLM, механизмы Chain-of-Thought и Tree-of-Thought и общую память
Помимо полезных выступлений, будут сессии лайвкодинга, воркшопы и карьерные консультации, и нетворкинг никто не отменял
Регистрируйтесь, подключайтесь к онлайн трансляции или приходите офлайн и не пропускайте полезные и актуальные кейсы из мира ИТ
⚡️ На AI Journey официально пригласили Маска, Альтмана и Брокмана
Оргкомитет конференции опубликовал официальное приглашение для миллиардера и основателя Tesla, SpaceX, владельца X Илона Маска, бывшего генерального директора OpenAI Сэма Альтмана и сооснователя OpenAI Грега Брокмана.
Организаторы AI Journey считают, что Маск мог бы рассказать какие-то инсайты о нейросети Grok, а Альтман и Брокман — о создании ChatGPT. При этом все они согли бы поделиться своим мнением о развитии искусственного интеллекта.
AI Journey 2023 пройдет в Москве 22-24 ноября, на ней выступят эксперты по ИИ со всей планеты.
🤗 Lenta: https://lenta.ru/news/2023/11/19/priglasil/
@ai_machinelearning_big_data
Хочешь попробовать себя разработчиком в команде «Самолёта»?
«Самолёт» обо всем позаботился и вместе с агентством Ар создал бот «Твой день». Это симулятор профессий, который позволит тебе окунуться в новую профессию, познакомиться с командой, рабочими задачами и корпоративной культурой.
Запустив бота, вы будто начнёте рабочий день в команде «Самолёта». Сможете попробовать разные направления: IT для PropTech или HR-платформа. Примерите на себе разные профессии: frontend- и backend-разработчик (Python)
Приступить к свои обязанностям очень просто:
1. Заходите в телеграм-бот → @arr_day_bot
2. Выбирайте «Самолёт» и профессию, которые кажутся интересными
3. Выполняйте реальные рабочие задачи и изучайте материалы от коллег
4. Откликайтесь на открытые вакансии, если хотите продолжить работать над проектами
Спецпроект продлится до 18 ноября: успевайте!
Реклама. Рекламодатель
✅Одно из базовых назначений ArchiMate — объединение разрозненных представлений об архитектуре предприятия благодаря еë послойному представлению, где каждый слой показывает устройство уровней предприятия: стратегический уровень, бизнес-уровень, уровень приложений, технологический уровень и другие.
👉Узнайте больше 23.11 в 19:00 мск на бесплатном вебинаре «Введение в язык Архимейт: кому он будет полезен в работе?»: регистрация
На вебинаре мы познакомимся:
— с назначением языка Архимейт, его концепцией
— основными элементами языка Архимейт
— примерами диаграмм
Урок будет полезен всем, кто хочет познакомиться с Архимейт:
— архитекторам,
— аналитикам,
— тимлидам,
— разработчикам.
🔥После урока вы сможете продолжить обучение на курсе со скидкой ЧП по промокоду BLACK23
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963. erid: LjN8KbhGE
💬 Вступайте в сообщество MLOps-инженеров в Telegram. Там публикуем дайджесты, обсуждаем новые инструменты и технологии.
В сообществе вы найдете:
▫️ Новости индустрии production ML;
▫️ Полезные статьи, инструменты и технологии;
▫️ Опыт коллег и лучшие практики.
Присоединяйтесь, чтобы получать новые знания от практиков MLOps и дата-аналитики: /channel/+Msr-vk2kI144NzJi
Реклама ООО «Селектел» erid 2Vtzqv5drfS
Нижний Новгород, готовьтесь узнать всё о рекомендательных системах!
Приглашаем на RecSys Meetup by Sber — будем много общаться, обмениваться опытом, ловить инсайты от экспертов и получать приятные подарки.
Когда: 30 ноября, 18:30
Формат: офлайн
Локация: коворкинг Гараж, г. Нижний Новгород, Октябрьская, 35
Мы расскажем, как устроены рекомендательные системы в e-commerce, раскроем секреты GPT-like трансформеров и поделимся опытом моделей рекомендаций от Мегамаркета. А ещё – пригласим вас тестировать наши ML-библиотеки!
● Алексей Васильев — исполнительный директор по исследованию данных Sber AI Lab — расскажет о рекомендациях на последовательностях: действительно ли BERT4Rec лучше SASRec?
● Александр Немальцев — руководитель направления по исследованию данных — поделится опытом улучшения качества рекомендаций и роста конверсии, а также деталями, как были устроены наши модели на разных этапах: от базовой коллаборативной фильтрации до нейросетевых подходов.
● Артём Хусаенов — руководитель направления по исследованию данных — рассмотрит кросс-доменные модели рекомендаций для «холодных» пользователей Мегамаркета.
Будет интересно, приходите! Зарегистрироваться на RecSys Meetup by Sber
Хотите разобраться в языковых моделях? Учитесь у профессионалов и получайте знания из первых рук — на интенсиве GPT Week Школы анализа данных Яндекса!
Эксперты ШАДа, разрабатывающие YandexGPT, подготовили насыщенную 5-дневную программу. Вы узнаете, как запустить генеративную модель на ограниченных ресурсах, какие вызовы есть в сборе гигантских датасетов и в чём особенности предобучения и alignment. Каждый участник сможет задать вопросы спикерам, а также познакомиться с устройством YandexGPT — от деталей создания до сложных инженерных аспектов.
Что ещё нужно знать? Интенсив пройдёт онлайн с 27 ноября по 1 декабря. Участие бесплатное, но потребуется регистрация. Записаться и посмотреть программу можно на сайте.
Реклама. ООО «ЯНДЕКС», ИНН 7736207543
🎮Одним из самых увлекательных направлений, в котором широко используется обучение с подкреплением, является киберспорт.
🔥В программе курса Reinforcement Learning в OTUS подробно разбираются одни из самых интересных кейсов применения RL в игровой индустрии.
21.11 в 20.00 мск. приглашаем на открытый урок “Игры c человеком и компьютером”
📌На занятии:
- узнаем историю противостояния человека и компьютера в настольных и компьютерных играх;
- познакомимся с основными идеями и подходами при создании игровых интеллектуальных агентов с помощью обучения с подкреплением;
- покажем как обучить модель эффективно управлять группой юнитов в одной из популярных игр.
После урока вы будете понимать как разрабатываются интеллектуальные агенты для различных игр и какие шаги необходимо пройти для реализации собственного игрового бота.
👉Регистрация https://otus.pw/tb0b/
При поступлении в группу возможны разные способы оплаты и рассрочка платежа.
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963. erid: LjN8K22Ec
✨ Feature Selection for Deep Tabular Models
Аналог LASSO для нейронных сетей, названный Deep Lasso, который превосходит классические методы отбора признаков в сложных задачах.
🐱 Github: https://github.com/vcherepanova/tabular-feature-selection
📕 Paper: https://arxiv.org/pdf/2311.05877v1.pdf
⭐ Tasks: https://paperswithcode.com/task/feature-selection
@ai_machinelearning_big_data
⚡️ LCM-LoRA: A Universal Stable-Diffusion Acceleration Module
Latent Consistency Models: Synthesizing High-Resolution Images with Few-Step Inference.
Новый подход, который значительно уменьшает нагрузку на диффузионные модели для генерации изображений. Подход позволяет перевести любую существующую обученную LDM на быструю генерацию.
LoRA представляя собой универсальный ускоритель для различных задач генераций изображений. pip install diffusers transformers accelerate gradio==3.48.0
🖥 Github: https://github.com/luosiallen/latent-consistency-model
📕 Paper: https://arxiv.org/abs/2311.05556v1
🌐 Project: https://latent-consistency-models.github.io
🤗 Demo: https://huggingface.co/spaces/SimianLuo/Latent_Consistency_Model
@ai_machinelearning_big_data
🪞 Mirror: A Universal Framework for Various Information Extraction Tasks
Мощный инструмент для решения практически всех задач извлечения и унификации информации.
🖥 Github: https://github.com/Spico197/Mirror
📕 Paper: https://arxiv.org/abs/2311.05419v1
🌐 Dataset: https://paperswithcode.com/dataset/glue
@ai_machinelearning_big_data