✅ Приложение, в котором вы можете посмотреть прогресс открытых и проприетарных моделей LMS с течением времени✅
Это приложение отображает изменения показателей моделей, который оценивается чат-ботом LMSYS Arena, крутая штука, чтобы поиграться. Показатель ELO (ось y)
- это показатель относительной силы модели, основанный на ее показателях по сравнению с другими моделями на арене.Дата публикации (по оси x)
соответствует моменту, когда модель была впервые опубликована публично.
Линии тренда основаны на обычной регрессии методом наименьших квадратов (МНК) и корректируются в соответствии с критериями фильтрации.
https://huggingface.co/spaces/andrewrreed/closed-vs-open-arena-elo
@ai_machinelearning_big_data
Yandex приглашает поучаствовать в Practical ML Conf 14 сентября!
На конференции поговорим о том, как применять ML-технологии в бизнесе и реальных продуктах. Регистрируйтесь уже сейчас — те, кто сделает это раньше всех, попадут на закрытый мини-ивент в июле.
А если хотите поделиться своим опытом в ML, станьте спикером, оставив заявку. Ключевые темы конференции — CV, RecSys, MLOps, NLP, Speech и Analytics. После подачи программный комитет рассмотрит заявки и примет решение об участии каждого претендента.
🔹 Сбор заявок завершится 13 июля.
Реклама. ООО "Яндекс", ИНН 7736207543.
🔥 Грег Брокман, соучредитель OpenAI, опубликовал 5-минутное видео, в котором он общается с языковой моделью GPT-4 Omni и демонстрирует ее возможности компьютерного зрения.
А вот еще 33 видео с примерами работы ИИ - https://vimeo.com/openai.
А если интерсно, тут обращение самого Сэма Альтмана - https://blog.samaltman.com/gpt-4o
@ai_machinelearning_big_data
🖥 Модель общается естественным и понятным языком, обрабатывает информацию в реальном времени и даже умеет шутить и понимать эмоции. Делает паузы, если вы спросите ее что-то.
Модель практически невозможно отличить от живого человека.
@ai_machinelearning_big_data
🖥 Началась трансляция OpenAI Spring Update, смотрим:
https://www.youtube.com/watch?v=DQacCB9tDaw
@ai_machinelearning_big_data
🔥 DocsGPT — open-source AI-помощник для работы с документами и не только
DocsGPT — это функциональное решение на базе LLM и GPT с открытым исходным кодом, которое упрощает процесс поиска информации в документации.
Благодаря интеграции мощных LLM можно задавать вопросы по документации и различным текстам и получать точные ответы.
Модели на Hugging Face:
🟡 Docsgpt-7b-mistral — требует 1×A10G GPU
🟡 Docsgpt-14b — требует 2×A10 GPU
🟡 Docsgpt-40b-falcon — требует 8×A10G GPU
🖥 GitHub
#llm #gpt
@ai_machinelearning_big_data
⚡️ LLaVA-NeXT: A Strong Zero-shot Video Understanding Model
LLaVA-NeXT - одна из самых мощных на сегодняшний день моделей для понимания видео, превосходящая все существующие VLM, с открытым исходным кодом.
Новая SoTA!
LLaVA-Next демонстрирует высокую скорость передачи данных и демонстрирует отличные результаты при zero-shot обучении.
git clone https://github.com/LLaVA-VL/LLaVA-NeXT
🔥Gemma 2B with recurrent local attention with context length of up to 10M
Огненная модель Gemma 2B с длиной контекста 10M, которая анализирует до 7 млн слов.
В нее можно закидывать огромные документы и модель всё проанализирует.
Производительность выше Gemini в 10 раз, а памяти нужно всего 32 ГБ.
▪Github: https://github.com/mustafaaljadery/gemma-2B-10M
▪HF: https://huggingface.co/mustafaaljadery/gemma-2B-10M
▪Technical Overview: akshgarg_36829/gemma-10m-technical-overview-900adc4fbeeb" rel="nofollow">https://medium.com/@akshgarg_36829/gemma-10m-technical-overview-900adc4fbeeb
@ai_machinelearning_big_data
💡 Lumina-T2X: Transforming Text into Any Modality, Resolution, and Duration via Flow-based Large Diffusion Transformers
Lumina-T2X - новое семейство диффузионных моделей, способных преобразовывать текст в: изображения, динамичные видео с любым разрешением и длительностью, 3D модели и речь с минимальными вычислительными затратами..
В основе Lumina-T2X лежит большой диффузионный Flow-based трансформер (Flag-DiT), который поддерживает до 7 миллиардов параметров и длины контекста в 128 000 токенов.
▪Github: https://github.com/alpha-vllm/lumina-t2x
▪Paper: https://arxiv.org/abs/2405.05945
▪Demo: https://lumina.sylin.host/
@ai_machinelearning_big_data
⚡️ Google Threat Intelligence — AI-решение в сфере кибербеза
Google представила новое решение в сфере кибербезопасности Threat Intelligence, которое позволит клиентам «получать ценную информацию и защищать корпоративную IT-инфраструктуру от угроз быстрее, чем когда-либо прежде», используя аналитические данные подразделения кибербезопасности Mandiant, службы анализа угроз VirusTotal в сочетании с возможностями ИИ-модели Gemini AI.
«Бесспорно, что сегодня Google обеспечивает два наиболее важных столпа анализа угроз в отрасли — VirusTotal и Mandiant. Интеграция обоих в единое предложение, дополненное ИИ и анализом угроз Google, предлагает командам безопасности новые средства для использования актуальных сведений об угрозах для лучшей защиты своих организаций», — отметил Дэйв Грубер (Dave Gruber), главный аналитик Enterprise Strategy Group.
Google отметила, что основным преимуществом Threat Intelligence является предоставление специалистам по безопасности ускоренной аналитики за счёт использования генеративного ИИ. Задействованная в решении большая языковая модель Gemini 1.5 Pro, по словам Google, сокращает время, необходимое для анализа вредоносного ПО и раскрытия его исходного кода.
Компания отметила, что вышедшей в феврале версии Gemini 1.5 Pro потребовалось всего 34 секунды, чтобы проанализировать код вируса WannaCry, программы-вымогателя, с помощью которой хакеры в 2017 году атаковали множество компаний по всему миру.
Также Gemini позволяет ускорить сбор информации о хакерской группе, её целях, тактике взлома и связанных с ней деталях. Кроме того, Gemini обеспечивает обобщение отчётов об угрозах на естественном языке в Threat Intelligence, что позволяет компаниям оценить, как потенциальные атаки могут на них повлиять, и расставить приоритеты, на чём следует сосредоточиться.
📎 Подробнее
🟡 Демонстрация
@ai_machinelearning_big_data
🧬 AlphaFold 3 predicts the structure and interactions of all of life’s molecules
Google DeepMind представили Alpha Fold3, новую модель искусственного интеллекта, которая предсказывает структуру и взаимодействия молекул.
Благодаря точному прогнозированию структуры белков, ДНК, РНК и многого другого, а также того, как они взаимодействуют, наше понимание биологического мира может выйти на новый уровень, а в практическом применение поможет разработке новых лекарств.
Эта революционная модель, может предсказывать структуру и взаимодействия всех молекул жизни с беспрецедентной точностью.
На основе входного списка молекул Alpha Fold3 генерирует их общую трехмерную структуру, показывая, как они сочетаются друг с другом. Программа моделирует крупные биомолекулы, такие как белки, ДНК и РНК, а также небольшие молекулы, также известные как лиганды.
Кроме того, Alpha Fold3 может моделировать химические модификации этих молекул, которые контролируют здоровое функционирование клеток, нарушение которых может привести к различным заболеваниям.
Теперь для учёные со всего мира могут работать с AlphaFold 3 совершенно бесплатно.
▪Blog: https://blog.google/technology/ai/google-deepmind-isomorphic-alphafold-3-ai-model/
▪Nature: https://www.nature.com/articles/s41586-024-07487-w
▪Two Minute Papers: https://www.youtube.com/watch?v=Mz7Qp73lj9o
@ai_machinelearning_big_data
🔉 AudioSeal is the state of art audio watermarking model
Audio Seal - это SOTA для добавления метаданных на аудио и распознавания их, предназначенная для локального распознавания речи, сгенерированной искусственным интеллектом.
Инструмент прост в настройке и работает молниеносно.
Audioseal обеспечивает самые современные характеристики распознавания как естественной, так и синтетической речи, обеспечивает незначительное изменение качества сигнала и устойчив ко многим типам редактирования аудио.
Audioseal значительно превосходит существующие модели по скорости обнаружения.
pip install audioseal
➡ Новости: теперь вы можете публиковать свои модели прямо из Keras API в Kaggle или huggingface!
Вот руководство по началу работы на любой из платформ → https://developers.googleblog.com/en/publish-your-keras-models-on-kaggle-and-hugging-face/
@ai_machinelearning_big_data
💥 New tools to help researchers study content authenticity by OpenAi
OpenAi запускает для тестов новый классификатор, который поможет идентифицировать контент, созданный DALLE 3.
В этом году они уже начали добавлять метаданные CPAN ко всем изображениям, созданным и отредактированным DALE 3, в ChatGPT и OpenAI API.
Они также планируют интегрировать метаданные C2PA для Sora, когда модель будет выпущена.
▪ Почитать подробнее можно здесь
#openai #dalle3
@ai_machinelearning_big_data
🔥Machine learning Interview Questions
Вопросы и ответы с собеседований.
Большая, подборка вопросов и ответов с собеседований по ML, Data Science,Ai, статистике, теории вероятностей python, SQL.
ML
▪100 вопросов c собесов по машинному обучению 2024
▪Сборник ответов с собесов по машинному обучению от FAANG, Snapchat, LinkedIn.
▪Facebook. Вопросы по машинному обучению 2024 год
▪Google руководство по прохождению собеса в 2024 году
▪ Подготовка к собеседованию по ML: ответы на основные вопросы
▪ 14 типичных вопросов с собеседования по ML
▪ Вопросы для собеседования на позицию ML-инженера
▪ Решения вступительных испытаний в ШАД
▪ Решения вступительных испытаний в ШАД архив
▪AI Interviews at Apple, OpenAI, Bloomberg & JP Morgan – What to Expect
▪Apple Machine Learning Engineer (MLE) Interview Guide
▪Junior ML-инженер | Выпуск 1 | Собеседование
▪Успешное собеседование в Яндекс
▪Как я проходил собеседования на Machine Learning Engineer
NLP
▪100 вопросов и ответов для интервью по NLP
▪Топ-50 вопросов собеседований NLP
▪ Вопросы по NLP 2024 года
DS
▪Материалы для подготовки к интервью data science
▪ Вопросы/ответы DS
▪100 вопросов для подготовки к собесу Data Science
▪Временные ряды. Топ 50 вопросов
Python
▪100 вопросов для подготовки к собесу Python
▪ 50 вопросов по PyTorch
▪45 Вопросов с собеседований Pandas
▪400 самых популярных вопросов-ответов для Python-разработчика.
▪100 вопросов видео
▪LeetCode Pandas
AI
▪30 вопросов промпт инжинирингу
▪ 15 вопросов по LLM и AI
▪27 Вопросов по Chatgpt
Math
▪ Вопросы с собеседований по статистике
▪ Вопросы по теории вероятности
▪ LeetCode: разные решения с кодом
▪Top 75 Statistics Interview Questions
▪40 вопросов по статистике с собеседований на должность Data Scientist
▪Statistics Interview Questions & Answers for Data Scientists
SQL
▪Задачи с собеседований SQL
Подборка будет постепенно обновляться, делитесь в комментариях полезными ресурсами, которые стоит сюда добавить.
#interview #вопросыссобесов #ml #ds
@ai_machinelearning_big_data
🌟 LocalAI — свободная альтернатива предложений от OpenAI
LocalAI — это open-source альтернатива решений от OpenAI. LocalAI выступает в качестве замены REST API, совместимого со спецификациями OpenAI API для локальных выводов.
Позволяет локально запускать LLM, генерировать изображения, аудио (и не только), клонировать голос; при этом не требует GPU.
Поддерживается множество семейств LLM и архитектур, LocalAI работает с gguf, transformers, diffusers и не только.
Запуск LocalAI с помощью Docker:
— docker run -p 8080:8080 --name local-ai -ti localai/localai:latest-aio-cpu
При наличии GPU Nvidia (аналогично для CUDA 12):
— docker run -p 8080:8080 --gpus all --name local-ai -ti localai/localai:latest-aio-gpu-nvidia-cuda-11
🖥 GitHub
🟡 Страничка LocalAI
@ai_machinelearning_big_data
⚡️ MatterSim — модель глубокого обучения для моделирования атомных структур; поддерживает все элементы, температуры и давления
MatterSim — Deep Learning, которая позволяет моделировать свойства атомных структур на высоком уровне и точно предсказывать свойства материалов во всей периодической таблице, при температурах от 0 до 5000 К и давления до 1000 ГПа.
MatterSim может быть тонко настроена для моделирования атомных структур на желаемом уровне теории.
Или же можно использовать модель для прямого прогнозирования свойств на основе заданной структуры.
📎 Arxiv
@ai_machinelearning_big_data
🖥 Вышла новая, улучшенная версия GPT-4 Omni для. И что самое главное — она доступна всем БЕСПЛАТНО!
Это самая совершенная модель из всех, намного превосходящая своих предшественников, включая таинственный gpt2-chatbot.
Она появится уже сегодня в виде приложения для пк.
GPT-4 Omni будет понимать эмоции и тон голоса.
@ai_machinelearning_big_data
⚡️ Lory — полностью дифференцируемая Mixture-of-Experts (MoE) для предварительного обучения авторегрессионной языковой модели
На днях исследователи из Принстона и MetaAI представили Lory — первое в своём роде решение, которое позволяет масштабировать MoE-архитектуры для предварительного обучения авторегрессионных языковых моделей.
В Lory реализованы 2 ключевые технологии:
(1) — стратегия маршрутизации причинных сегментов, которая обеспечивает высокую эффективность операций объединения экспертов при сохранении авторегрессивной природы языковых моделей
(2) — метод группировки данных на основе сходства, который стимулирует специализацию "экспертов" путем группировки похожих документов в обучающих выборках
Результаты экспериментов с Lory показывают значительный прирост производительности по сравнению с обычными MoE-моделями.
📎 Arxiv
@ai_machinelearning_big_data
📊 Time Series Foundation Model by Google
TimesFM - это новая модель прогнозирования временных рядов от Google, предварительно обученная на большом массиве данных состоящем из 100 миллиардов реальных временных точек.
Модель демонстрирует впечатляющую производительность при zero-shot обучении на множестве бенчмарков.
#TimesFM #TimeSeries #Forecasting #FoundationModels
▪Github: https://github.com/google-research/timesfm
▪Paper: https://arxiv.org/abs/2310.10688
▪Blog: https://research.google/blog/a-decoder-only-foundation-model-for-time-series-forecasting/
▪HF: https://huggingface.co/google/timesfm-1.0-200m
@ai_machinelearning_big_data
KAN + NeRF = 🔥
KAN (Kolmogorov-Arnold Networks) — многообещающий конкурент традиционных MLP.
Почему бы не внедрить его в NeRF?
Оптимизация NeRF занимает от нескольких часов до одного-двух дней (в зависимости от разрешения) и требует GPU.
Рендеринг изображения из оптимизированного NeRF с KAN занимает от секунды до ~30 секунд в зависимости от разрешения.
🖥 GitHub
@ai_machinelearning_big_data
⚡️ Deblur-GS: 3D Gaussian Splatting from Camera Motion Blurred Images
Новый метод Deblur-GS на основе Гауссовских сплатов для качественного восстановления размытой картинки.
Deblur-GS обеспечивает превосходную производительность и качество рендеринга по сравнению с предыдущими методами, что подтверждается бенчмарками, как на синтетических, так и на реальных наборах данных.
▪Code: https://github.com/Chaphlagical/Deblur-GS
▪Paper: https://chaphlagical.icu/Deblur-GS/static/paper/Deblur_GS_author_version.pdf
▪Project: https://chaphlagical.icu/Deblur-GS/
@ai_machinelearning_big_data
🔦 IC-Light: Imposing Consistent Light 💡
IC-Light - это новый интересный проект для реалистичного управления освещением.
Внутри два типа моделей: модель изменения освещения с из тектовых промптов и модель изменения подсветки фона изображений.
▪Github: https://github.com/lllyasviel/IC-Light
▪Jupyter: https://github.com/camenduru/IC-Light-jupyter
▪Demo: https://huggingface.co/spaces/lllyasviel/IC-Light
@ai_machinelearning_big_data
⚡️ You Only Cache Once: Decoder-Decoder Architectures for Large Language Models
Microsoft только что представили инструмент You Only Cache Once: Decoder-Decoder : архитектура Decoder-Decoder для больших языковых моделей
YOCO существенно снижает потребление памяти GPU и состоит из двух компонентов - cross decoder'а, объединенного с self-decoder'ом.
Self-decoder
кодирует глобальные кэши
значений ключей (KV), которые повторно используются cross decoder'ом с механизмом cross-attention.
Результаты экспериментов показывают, что YOCO достигает более высокой производительности по сравнению с архитектурой Трансформеров при различных настройках масштабирования размера модели и количества обучающих токенов, подробнее тут.
▪Github: https://github.com/microsoft/unilm/tree/master/YOCO
▪ABS: https://arxiv.org/abs/2405.05254
#microsoft
@ai_machinelearning_big_data
🚀 На Хабре вышел гайд о том, как внедрять YandexGPT API в свои продукты
Команда AllSee показала, как они реализовали SDK для быстрой интеграции YandexGPT в python-приложение. Попутно показали, что модель даёт похожий на ChatGPT результат по метрикам, но при этом её дешевле использовать в своих проектах.
Пользуйтесь )
▪️ Habr: https://habr.com/ru/articles/812979/
@ai_machinelearning_big_data
🌟 Introduction to Granite Code Models
IBM выпустили Granite Code Models: семейство моделей Open Foundation для интеллектуального анализа и генерации кода
Все модели Granite Code выпущены под лицензией Apache 2.0.
Модели Granite превосходят модели с открытым исходным кодом по всем параметрам. На рисунке показано, как Granite-8B-CodeBase превосходит Mistral-7B, LLama-3-8B и другие модели с открытым исходным кодом в трех задачах кодинга. Полные оценки можно найти здесь.
Модели отлично справляются с задачами генерации кода, исправления багов объяснения кода, генерации документации к кода.
- Размер моделей варьируется от 3B до 34B параметров
- Обученных на 3-4 тыс. токенах, полученных из 116 языков программирования
▪Github: https://github.com/ibm-granite/granite-code-models
▪Paper: https://arxiv.org/abs/2405.04324
▪HF: https://huggingface.co/collections/ibm-granite/granite-code-models-6624c5cec322e4c148c8b330
#llm #codegeneration
@ai_machinelearning_big_data
Эффективный метод быстрого освоения ChatGPT.
Обучение нейронной сети и создание правильных промптов – это длительный процесс, который требует значительного времени.
Здесь разработан краткий курс из 5 уроков по ChatGPT. После его завершения вы сможете создать 9 нейронных сетей, которые помогут вам:
- находить ошибки и оптимизировать код
- генерировать посты в Телеграме
- создавать заголовки для рекламы
- делегировать рутинные задачи нейронке
Вы также сможете разработать своих собственных нейро-помощников для продаж, маркетинга и других целей.
Бесплатный доступ предоставляется сразу после регистрации.
Реклама. ООО "ТЕРРА ЭЙАЙ". ИНН 9728019395. erid: LjN8K921a
🌟 TrustLLM для оценивания ответов LLMTrustLLM
— инструмент на Python
для комплексного исследования ответов от LLM.
TrustLLM рассматривает 6 аспектов ответов: правдивость, безопасность, этичность, соблюдение конфиденциальности и другие.
В этом документе подробно объясняется, как использовать инструмент для оценки эффективности собственных моделей.
pip install trustllm
⚡️OpenDevin
OpenDevin — это open-source проект, цель которого - воспроизвести Devin, автономного AI-программиста, способного выполнять сложные инженерные задачи и активно сотрудничать с пользователями в проектах по разработке ПО.
OpenDevin стремится повторить, улучшить и усовершенствовать Devin.
Запуск OpenDevin с помощью Docker:
# The directory you want OpenDevin to modify. MUST be an absolute path!
export WORKSPACE_BASE=$(pwd)/workspace
docker run \
--pull=always \
-e SANDBOX_USER_ID=$(id -u) \
-e WORKSPACE_MOUNT_PATH=$WORKSPACE_BASE \
-v $WORKSPACE_BASE:/opt/workspace_base \
-v /var/run/docker.sock:/var/run/docker.sock \
-p 3000:3000 \
--add-host host.docker.internal=host-gateway \
ghcr.io/opendevin/opendevin:0.5