Привет, Чемпион!
🏆 Хочешь покорить Kaggle и научиться выигрывать соревнования по анализу данных? Тогда курс "Введение в соревновательный Data Science" - это именно то, что тебе нужно!
🎯 Что ты получишь?
- Первый русскоязычный курс по соревновательному Data Science с максимальным количеством практики.
- Насыщенная программа, содержащая эффективные методы для выбивания максимального качества из твоих ML-моделей.
- Более 200 практических заданий, интервью с Kaggle Grand Masters.
- Большое русскоязычное коммьюнити 400+ студентов курса для совместного прохождения и участия в соревнованиях.
- Поддержка преподавателей и даже собственный мерч курса за успехи.
🚀 На канале курса проводим еженедельные открытые вебинары, на которых разбираем решения победителей чемпионатов и делаем обзоры предстоящих соревнований.
🔗 Подписывайся на TG канал, чтобы узнать подробности о курсе, а также следить за открытыми вебинарами и другими активностями.
🔥Скидка 10% по промокоду: TGLETO (Сработает только при переходе по ссылке)
💬 Text2Cinemagraph: Synthesizing Artistic Cinemagraphs from Text
Полностью автоматизированный метод Text2Cinemagraph для создания синемаграфов из текстового описания с учетом различных художественных стилей.
🖥 Github: https://github.com/text2cinemagraph/text2cinemagraph
🖥 Colab: https://colab.research.google.com/github/camenduru/AnimateDiff-colab/blob/main/AnimateDiff_colab.ipynb
📕 Paper: https://arxiv.org/pdf/2307.03190.pdf
🚀 Project: https://text2cinemagraph.github.io/website/
ai_machinelearning_big_data
🔥 Artificial Intelligence for Science (AIRS)
AIRS - это коллекция инструментов с открытым исходным кодом, датасетов ии для науки и работы с квантовыми системами.
•OpenQM: AI for Quantum Mechanics
•OpenDFT: AI for Density Functional Theory
•OpenMol: AI for Small Molecules
•OpenProt: AI for Protein Science
•OpenMat: AI for Materials Science
•OpenMI: AI for Molecular Interactions
•OpenPDE: AI for Partial Differential Equations
🖥 Github: https://github.com/divelab/AIRS
📕 Paper: https://arxiv.org/abs/2307.08423
⭐️ Website: https://www.air4.science/
📌 Dataset: https://paperswithcode.com/dataset/atom3d
ai_machinelearning_big_data
✔ Fine-tuning Stable Diffusion Models on Intel CPUs
This post will show you how to fine-tune a Stable Diffusion model on an Intel Sapphire Rapids CPU cluster.
В этом посте показано, как провести тонкую настройку модели Stable Diffusion на кластере процессоров Intel Sapphire Rapids. Настройка с помощью текстовой инверсии - техники, которая требует лишь небольшого количества изображений-примеров.
https://huggingface.co/blog/stable-diffusion-finetuning-intel
📌 Post: https://huggingface.co/blog/stable-diffusion-finetuning-intel
⭐️ Diffusers documentation: https://huggingface.co/docs/diffusers
📌 Optimum Intel documentation: https://huggingface.co/docs/optimum/main/en/intel/inference
🖥 Intel IPEX on GitHub: https://github.com/intel/intel-extension-for-pytorch
ai_machinelearning_big_data
🔈 Urhythmic: Rhythm Modeling for Voice Conversion
Unsupervised Rhythm Modeling for Voice Conversion.
Проект для изменения исходного голоса на другие, позволяющая моделировать ритм речи.
🖥 Github: https://github.com/bshall/urhythmic
🖥 Documentation: https://colab.research.google.com/github/bshall/urhythmic/blob/main/urhythmic_demo.ipynb
📕 Paper: https://arxiv.org/abs/2307.06040v1
🚀 Dataset: https://paperswithcode.com/dataset/vctk
ai_machinelearning_big_data
🧭 OpenCompass
OpenCompass is an LLM evaluation platform, supporting a wide range of models (LLaMA, ChatGLM2, ChatGPT, Claude, etc) over 50+ datasets.
OpenCompass - это платформа для оценки LLM моделей, поддерживающая широкий спектр моделей (LLaMA, ChatGLM2, ChatGPT, Claude и др.) на 50+ наборах данных.
Благодаря мощным алгоритмам и интуитивно понятному интерфейсу OpenCompass позволяет легко оценить качество и эффективность ваших моделей НЛП моделей.
🖥 Github: https://github.com/InternLM/opencompass
🖥 Documentation: https://opencompass.readthedocs.io/en/latest/
📕 Paper: https://arxiv.org/abs/2307.06281v1
🚀 Dataset: https://paperswithcode.com/dataset/mmbench
ai_machinelearning_big_data
🔥 Generative Pretraining in Multimodality
Model can take in any single-modality or multimodal data input indiscriminately through a one-model-for-all autoregressive training process.
Emu - мультимодальная на основе трансформеров, которая может легко генерировать изображения и тексты в мультимодальном контексте.
🖥 Github: https://github.com/baaivision/emu
📕 Paper: https://arxiv.org/abs/2307.05222v1
🚀 Dataset: https://paperswithcode.com/dataset/mmc4
ai_machinelearning_big_data
⭐️ InPars Toolkit: A Unified and Reproducible Synthetic Data Generation Pipeline for Neural Information Retrieval
Конвейер генерации данных для нейронного информационного поиска.pip install inpars
🖥 Github: https://github.com/zetaalphavector/inpars
📕 Paper: https://arxiv.org/abs/2307.04601v1
🚀 Dataset: https://paperswithcode.com/dataset/beir
ai_machinelearning_big_data
🔎 DeepOnto: A Python Package for Ontology Engineering with Deep Learning
A package for ontology engineering with deep learning and language model.
DeepOnto - интресная библиотека на Python, которая предоставляет инструменты для реализации моделей глубокого обучения, создания методов и проведения оценки для различных онтологических исследований.pip install deeponto
🖥 Github: https://github.com/KRR-Oxford/DeepOnto
📌 Project: https://krr-oxford.github.io/DeepOnto/
📕 Paper: https://arxiv.org/abs/2307.03067v1
🚀 Dataset: https://paperswithcode.com/dataset/ontolama
ai_machinelearning_big_data
🦙Flacuna: A Vicuna made of Flan
Flacuna was developed by fine-tuning Vicuna on Flan-mini, a comprehensive instruction collection encompassing various tasks.
Flacuna была разработана путем доработки Vicuna на Flan-mini. Модель уже является отличным помощником в написании текстов, и настроена на решении задач широкого спектра.
Flacuna продемонстрировала заметное улучшение производительности при решении задач в нескольких эталонных датасетах.
🖥 Github: https://github.com/declare-lab/flacuna
📕 Paper: https://arxiv.org/abs//2307.02053
🚀 Model: https://huggingface.co/declare-lab/flacuna-13b-v1.0
🔗 Dataset: https://huggingface.co/datasets/declare-lab/flan-mini
ai_machinelearning_big_data
NeurIPS, ICML, ACL, CVPR без PhD
Tinkoff Lab — лаборатория Тинькофф, в которой студенты работают над исследованиями в области технологий искусственного интеллекта.
Студенты Tinkoff Lab проводят эксперименты в области обработки естественного языка (NLP), компьютерного зрения (CV), обучения с подкреплением (RL) и рекомендательных систем (RecSys). По результатам экспериментов они пишут научные работы для наиболее значимых научных конференций: NeurIPS, ICML, ACL, CVPR и другие.
📕 vc: https://vc.ru/education/742897
🚀 Генерации новой версии Kandinsky неотличимы от реальных фото
Kandinsky — это нейросеть от Сбера, которая генерирует изображения по описанию. Как рассказал зампред правления банка Александр Ведяхин, в ближайшее время в открытом доступе появится новая версия модели. Главные особенности обновления — повышения качества выходящих изображений, появление новых функций и более быстрая обработка запросов.
ai_machinelearning_big_data
🔴Марковский Процесс Принятия Решений и Метод Монте-Карло
11 июля 20.00 (мск) погружаемся в мир Reinforcement Lerning на открытом уроке одноименного курса в OTUS и разберем Марковский процесс принятия решений (MDP) и управления Монте-Карло (MCC).
Данные методы используются в областях робототехники, медицины, управления, экономики, а специалисты Reinforcement Lerning становятся сегодня одними из самых уникальных на рынке труда в IT.
🔘В процессе вебинара на простых примерах познакомимся с формальными математическими определениями MDP и применим эти знания к более комплексным задачам. Разберем, как работает метод Монте-Карло для поиска оптимальных стратегий.Занятие завершится обзором доступных пакетов с открытым исходным кодом бенчмарками алгоритмов RL.
▶️Регистрация для участия https://otus.pw/amDu/
Вебинар состоится в рамках онлайн-курса «Reinforcement Learning» для DS/ML/DL специалистов, IT-специалистов, которые хотят погрузиться в обучение с подкреплением.После вебинара курс можно приобрести любым удобным для вас способом.
Нативная интеграция информация о продукте www.otus.ru
Стать Middle ML-специалистом просто — поступи в крупнейшую в России магистратуру по ИИ в ИТМО 🚀
Магистратура AI Talent Hub создана компанией Napoleon IT совместно с ведущим технологическим вузом — ИТМО. За 2 года вы получите актуальные знания в области искусственного интеллекта и освоите перспективные ML-специальности на уровне Middle.
AI Talent Hub — это:
🔹200 бюджетных мест для талантливых абитуриентов — становитесь профессионалами в ИИ
🔹обучение на решении реальных бизнес-задач — применяйте знания и навыки на практике уже во время магистратуры
🔹опытные профессионалы-менторы из ведущих партнерских IT-компаний — OZON, VK, Сбер, МТС Digital, Huawei Noah's Ark, «Татнефть», Mail.ru, Яндекс, Газпром и другие — получайте практические знания и возможности для развития
🔹онлайн-формат обучения — учитесь из любой точки земного шара
🔹более 100 курсов по разным направлениям машинного обучения от ИТМО, Передовой инженерной школы ИТМО и экспертов крупных IT-компаний — выбирайте сами, кем хотите стать
🔹обучение в неклассических образовательных форматах — воркшопы, хакатоны, проектные и кейс-семинары — забудьте про скучные лекции и лабораторные.
Набор на программу AI Talent Hub «Искусственный интеллект» уже в самом разгаре 🔥
До 10 июля подавайте заявку на конкурс проектов, поступайте без экзаменов и становитесь экспертом в области искусственного интеллекта!
⚠️ Как разработчику повысить свою зарплату? Один из вариантов — освоить MS SQL.
🦾 Знание этой СУБД может стать вашим конкурентным преимуществом и аргументом для повышения заработной платы.
Пройди хардкорный тест по MS SQL и проверь свой уровень.
Ответишь — пройдешь на углубленный курс «MS SQL Server Developer» от OTUS по специальной цене + получишь мастер-класс от преподавателя
🧑💻 Регистрируйся на открытый урок «Query Store что это? Как использовать и зачем?» и протестируй обучение 11 июля — https://otus.pw/vb2f/
🔥 ПРОЙТИ ТЕСТ
https://otus.pw/uOri/
Нативная интеграция. Информация о продукте www.otus.ru
🔥 Llama 2: Open Foundation and Fine-Tuned Chat Models
Llama 2 collection of pretrained and fine-tuned large language models (LLMs).
Новая Llama 2 в открытом доступе . Доступны предварительно обученные и настроенные модели с параметрами от 7B до 70B.
Llama 2 превосходит модели с открытым исходным кодом в большинстве протестированных бенчмарков и, судя по оценке полезности и безопасности, может стать достойной заменой моделям с закрытым исходным кодом.
🖥 Github: https://github.com/facebookresearch/llama
⭐️ Demo: https://huggingface.co/blog/llama2
🤗Hugging face: https://huggingface.co/meta-llama/Llama-2-70b
📕 Paper: https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/
ai_machinelearning_big_data
Как бороться с утечкой данных в машинном обучении
Команда VK Cloud перевела статью о том, как информация из тестового датасета ошибочно попадает в обучающий, какие у этого могут быть последствия.
В статье описываются примеры реальных датасетов со способами предотвращения утечки данных: проверки вручную, пайплайнами, перекрёстным контролем и др.
🔗 Хабр: https://habr.com/ru/companies/vk/articles/746360/
ai_machinelearning_big_data
🔥Открываем новые горизонты в машинном обучении!
Присоединяйтесь 25 июля в 20:00 к открытому уроку «TD Learning и Q-learning».
Это возможность протестировать новый онлайн-курс «Reinforcement Learning» в OTUS и начать изучать это перспективное направление.
📌Вместе с экспертом-практиком мы:
— погрузимся во временно-разностное обучение и Q-learning;
— поговорим об основных идеях обучения с подкреплением, которые делают алгоритм RL более гибким и эффективным;
— разберем алгоритм SARSA с различными примерами реализации;
— обсудим сильные и слабые стороны каждого решения.
👉🏻Регистрация для участия https://otus.pw/mPt2/
Урок будет полезен DS/ML/DL специалистам, IT-специалистам, которые хотят погрузиться в обучение с подкреплением.
После вебинара курс можно приобрести удобным для вас способом.
Нативная интеграция. Информация о продукте на сайте www.otus.ru
Салют, GigaChat! One Day Offer для NLP инженеров, разработчиков и исследователей уровня Middle/Senior/Senior++ состоится уже 22 июля 📢
А это значит, что всего за один день вы сможете пройти все этапы отбора, познакомиться с командой, забрать оффер и начать работу над нашей большой языковой моделью GigaChat и амбициозными продуктами на его основе.
Чем именно вам предстоит заниматься?
👉 Делать претрейн моделей.
👉 Обучать SOTA модели для решения задач NLP.
👉 Создавать наши основные NLP модели: GigaChat, Intent Recognition, NER, Smart Home и другие.
👉 Делать распознавание и синтез речи, выявлять ключевые слова и шумовые события.
👉 Совершенствовать существующие инструменты ИИ и создавать новые.
👉 Работать в новом кластере с большим числом A100'ых.
Ваши шансы на оффер выше, если у вас есть профильное техническое образование и опыт работы от трех лет. Переходите по ссылке и регистрируйтесь на One Day Offer 💚
🌄 Kandinsky 2.2 попал в Diffusers
Kandinsky 2.2 - это генеративная модель от Сбера, создающая изображения по текстовому описанию. Обновление привело к увеличению количества доступного функционала (ControlNet, Outpainting х2 и др.)
Diffusers — это известный и крупнейший фреймворк генеративных моделей. Его используют такие инструменты и библиотеки, как DreamFusion, Segment Anything, ML Stable Diffusion (by Apple) и другие.
Kandinsky 2.2 попал в основной репозиторий Diffusers на GitHub.
🖥 Github: https://github.com/huggingface/diffusers
ai_machinelearning_big_data
AnimateDiff
Effective framework to animate most of existing personalized text-to-image models once for all, saving the efforts in model-specific tuning.
Новый фреймворк для генерации видео из текста. Высокое качество анимаций, различные возможности для пролета камеры, множество стилей.
🖥 Github: https://github.com/guoyww/animatediff/
🖥 Colab: https://colab.research.google.com/github/camenduru/AnimateDiff-colab/blob/main/AnimateDiff_colab.ipynb
📕 Paper: https://arxiv.org/abs/2307.04725
🚀 Project: https://animatediff.github.io/
ai_machinelearning_big_data
⚡️ Анонсируем новую большую конференцию от Яндекса по прикладному ML — Practical ML Conf 2023
Пока вы наслаждаетесь тёплым летом, мы готовим для вас большую конференцию по прикладному Machine Learning — чтобы обсудить все изменения, которые постоянно происходят в ML-отрасли, и то, как их можно внедрить в свои проекты.
7 сентября вас ждут 500 экспертов, 8 профильных направлений и опытные ML-инженеры, которые меняют сферу уже сейчас. Поговорим о ключевых вопросах индустрии: генеративных моделях, Research, NLP, Hardware, CV, RecSys, MLOps и Ecomm.
Если вы хотите прочитать доклад о прикладном ML, то заполняйте форму до 17 июля. А если нет — save the date и ждите новые подробности: скоро мы начнём рассказывать о программе Practical ML Conf 2023.
До встречи 7 сентября на Practical ML Conf в Москве или онлайн!
Как оптимизировать обучение ML-моделей с помощью Kubeflow Pipelines
Инженер по машинному обучению в ML-команде проектов для бизнесов и покупателей ВКонтакте рассказывает, чем Kubeflow Pipelines может быть полезен ML-специалисту и как в нём без потери существующей кодовой базы можно запускать готовые пайплайны.
В статье описывается, как с помощью библиотеки kfp и нескольких функций интегрировать существующий код для запуска ML-пайплайнов в инструмент Kubeflow Pipelines с удобным интерфейсом.
🔗 Хабр: https://habr.com/ru/companies/vk/articles/745874/
ai_machinelearning_big_data
Хотите узнать, как у Сбера получается создавать такие точные персональные рекомендации? Приходите на RecSys Meetup by Sber — он состоится 20 июля в Питере 💚
На митапе топовые спикеры расскажут:
• Как рекомендации на базе AI помогают бизнесу в разных индустриях.
• На какие тренды в области AI, машинного обучения и рекомендательных систем стоит обратить внимание
• Какие существуют особенности при построении рекомендательных сценариев в видео-стримингах
В перерывах между докладами вас будут ждать интересные знакомства, обсуждения и нетворкинг.
Регистрируйтесь по ссылке — встречаемся 20 июля в 19:00 по адресу: Art-Muse, Зал «Галерея Ц», 13-я линия Васильевского острова, 70 📍
🦙 Focused Transformer: Contrastive Training for Context Scaling
LongLLaMA, a large language model capable of handling long contexts of 256k tokens or even more.
LongLLaMA - это большая языковая модель, способная обрабатывать очень длинные тексты (размером 256k токенов и даже больше). Модель основана на OpenLLaMA и доработана с помощью метода фокусированного преобразования (FoT).
🖥 Github: https://github.com/cstankonrad/long_llama
📕 Paper: https://arxiv.org/abs/2307.03170v1
🖥 Colab: https://colab.research.google.com/github/CStanKonrad/long_llama/blob/main/long_llama_colab.ipynb
🔗 Dataset: https://paperswithcode.com/dataset/pg-19
ai_machinelearning_big_data
🎨 Making ML-powered web games with Transformers.js
The goal of this tutorial is to show you how easy it is to make your own ML-powered web game.
Инструкция с кодом по созданию веб-игры с поддержкой ML в реальном времени, которая запускается полностью в вашем браузере (благодаря Transformers.js).
🖥 Github: https://github.com/xenova/doodle-dash
🤗 Hugging face: https://huggingface.co/blog/ml-web-games
⭐️ Code: https://github.com/xenova/doodle-dash
🔗Demo: https://huggingface.co/spaces/Xenova/doodle-dash
🔗 Dataset: https://huggingface.co/datasets/Xenova/quickdraw-small
ai_machinelearning_big_data
🚀 Hierarchical Open-vocabulary Universal Image Segmentation
Decoupled text-image fusion mechanism and representation learning modules for both "things" and "stuff".
HIPIE - новая модель сегментации и обнаружения изображений, которая способна выполнять задачи сегментации на различных уровнях (объектов, частей объектов и подчастей) и задач в рамках единой структуры, управляемой ествественным языком.
🖥 Github: https://github.com/berkeley-hipie/hipie
📕 Paper: https://arxiv.org/abs/2307.00764v1
🔗Project: http://people.eecs.berkeley.edu/~xdwang/projects/HIPIE/
🔗 Dataset: https://paperswithcode.com/dataset/pascal-panoptic-parts
ai_machinelearning_big_data
🪄 Making a web app generator with open ML models
В этом руководстве показан подход к созданию приложения по генерации веб-контента на основе искусственного интеллекта (модель WizardCoder) путем потоковой передачи и рендеринга контента за один раз.
🖥 Github: https://github.com/huggingface/blog/blob/main/text-to-webapp.md
📕 HuggingFace: https://huggingface.co/blog/text-to-webapp
🔗Demo: https://huggingface.co/spaces/jbilcke-hf/webapp-factory-wizardcoder
ai_machinelearning_big_data
🏌️ GlOttal-flow LPC Filter (GOLF)
A DDSP-based neural vocoder.
Новый метод синтеза поющего голоса (SVS), использующий физические характеристики человеческого голоса с помощью дифференцируемой цифровой обработки сигнала
🖥 Github: https://github.com/yoyololicon/golf
⭐️ Demo:https://huggingface.co/spaces/An-619/FastSAM
📕 Paper: https://arxiv.org/abs/2306.17252v1
🔗Demo: https://yoyololicon.github.io/golf-demo/
ai_machinelearning_big_data
🚀 NAUTILUS: boosting Bayesian importance nested sampling with deep learning
A novel approach to boost the efficiency of the importance nested sampling (INS) technique for Bayesian posterior and evidence estimation using deep learning.
Nautilus - это проект от MIT на Python для оценки байесовской апостериорной вероятности. Nautilus обладает высокой точностью, по сравнению с традиционными методами оценки МСМС и Nested Sampling.
Пример:pip install nautilus-sampler
import corner
import numpy as np
from nautilus import Prior, Sampler
from scipy.stats import multivariate_normal
prior = Prior()
for key in 'abc':
prior.add_parameter(key)
def likelihood(param_dict):
x = [param_dict[key] for key in 'abc']
return multivariate_normal.logpdf(x, mean=[0.4, 0.5, 0.6], cov=0.01)
sampler = Sampler(prior, likelihood)
sampler.run(verbose=True)
points, log_w, log_l = sampler.posterior()
corner.corner(points, weights=np.exp(log_w), labels='abc')
🖥 Github: https://github.com/johannesulf/nautilus
⭐️ Docs: https://nautilus-sampler.readthedocs.io/
📕 Paper: https://arxiv.org/abs/2306.16923v1
ai_machinelearning_big_data