Наука, технологии, изобретения и урбанистика — прямо сейчас говорим о том, что уже скоро повлияет на каждого. по всем вопросам - @workakkk @ai_machinelearning_big_data - Machine learning @itchannels_telegram - 🔥лучшие ит-каналы
🔥 ChatGPT отказывается называть имя «Дэвид Майер», и никто не знает почему!
💡 Если попытаться заставить его написать имя, чат немедленно прекратится.
🔍 Люди пробовали разные вещи — шифры, загадки, трюки — но ничего не срабатывало.
@vistehno
⚡️ HunyuanVideo: модели генерации видео по тексту от Tencent.
Tencent опубликовала в отрытый доступ модели с 13 млрд. параметров для генерации видео по текстовым промптам: HunyuanVideo и HunyuanVideo-PromptRewrite.
Архитектура HunyuanVideo простроена на пространственно-временном сжатии, которое позволяет обрабатывать видео и изображения в едином формате.
Входные текстовые запросы кодируются с помощью MLLM (комбинация CLIP and T5-XXL) и используются в качестве основы для генерации. Модель генерирует латент, который затем декодируется в изображения или видео с помощью 3D VAE.
HunyuanVideo-PromptRewrite - специальный файнтюн для адаптации и автоматического расширения пользовательских промптов к предпочтениям модели. В PromptRewrite 2 режима работы: Normal и Master:
🟢Режим Normal улучшает понимание моделью намерений пользователя, способствуя более точной интерпретации промпта.
🟢Режим Master улучшает описание композиции, освещения сцены генерации и движения камеры, что на выходе дает видео с более высоким визуальным качеством.
HunyuanVideo оценивалась 60 экспертами на 1533 промптах в сравнении с топовыми T2V-моделями: Gen-3, Luma 1.6 и тремя лучшими китайскими коммерческими моделями.
Результаты оценки показали, что HunyuanVideo достигает общего уровня удовлетворенности, особенно выделяясь качеством движения объектов.
▶️Планы развития HunyuanVideo:
🟠Бенчмарк Penguin Video;
🟠Web Demo (Gradio);
🟠Поддержка ComfyUI;
🟠Поддержка Diffusers;
🟠Модель и код инференса Image-to-Video версии.
⚠️ Минимальный объем GPU - 60 GB для 720pX1280pX129f и 45 GB для 544pX960pX129f. Рекомендованный GPU - 80 GB.
▶️Установка и инференс T2V в 720р:
# Clone repo:
git clone https://github.com/tencent/HunyuanVideo
cd HunyuanVideo
# Prepare conda environment
conda env create -f environment.yml
conda activate HunyuanVideo
# Install pip dependencies
python -m pip install -r requirements.txt
# Install flash attention v2
python -m pip install git+https://github.com/Dao-AILab/flash-attention.git@v2.5.9.post1
# Inference
python3 sample_video.py \
--video-size 720 \
--video-length 129 \
--infer-steps 50 \
--prompt "%prompt%" \
--flow-reverse \
--use-cpu-offload \
--save-path ./results
🌟 AIMV2: набор визуальных энкодеров от Apple.
AIMV2 – семейство моделей визуальных энкодеров, предварительно обученных с помощью мультимодальной авторегрессионной цели, которая восстанавливает фрагменты изображений и текстовые токены, что, в итоге, позволяет AIMV2 справляться с задачами распознавания изображений, локализации объектов и мультимодального понимания.
Архитектура AIMV2 основана на ViT и использует каузальный мультимодальный декодер, который сначала регрессирует фрагменты изображения, а затем декодирует текстовые токены авторегрессионно. Визуальный энкодер использует префиксное внимание, что позволяет использовать двунаправленное внимание во время вывода без дополнительной настройки.
Семейство AIMV2 обучалось на комбинации общедоступных (DFN-2B, COYO) и собственных (HQITP) датасетов, содержащих пары "изображение-текст" и синтетические аннотации, сгенерированные предварительно обученным инструментом.
Эксперименты после обучения показали, что AIMV2-3B достигает точности 89,5% на ImageNet с замороженным транком, что лучше, чем у генеративных методов MAE и AIM. AIMV2 превосходит CLIP и SigLIP в большинстве тестов на мультимодальное понимание.
Модель совместима с LiT для zero-shot распознавания и может быть настроена для обработки изображений с различными разрешениями и соотношениями сторон.
В отрытый доступ на HF опубликованы модели:
🟠AIMv2 в разрешении 224px: 4 модели с количеством параметров - 0.3B, 0.6B, 1.2B и 2.7B
🟠AIMv2 в разрешении 336px: 4 модели с количеством параметров - 0.3B, 0.6B, 1.2B и 2.7B
🟠AIMv2 в разрешении 448px: 4 модели с количеством параметров - 0.3B, 0.6B, 1.2B и 2.7B
🟢AIMv2 в Native разрешении : aimv2-large-patch14-native c 0.3B (разрешение в диапазоне от 112 до 4096)
🟢AIMv2 distilled ViT-Large (модели, которые были получены путем дистилляции из AIMV2-3B в архитектуру ViT-Large) : AIMv2-L и AIMv2-L-distilled.
🟠Zero-shot Adapted AIMv2 (модель после LiT- тюнинга): AIMv2-L с 0.3B параметров.
⚠️ ! Примеры инференса с JAX и MLX доступны в репозитории AIMv2
▶️Установка и локальный инференс c Pytorch:
# Clone the repository
pip install 'git+https://github.com/apple/ml-aim.git#subdirectory=aim-v2'
# Example Using PyTorch
from PIL import Image
from aim.v2.utils import load_pretrained
from aim.v1.torch.data import val_transforms
img = Image.open(...)
model = load_pretrained("aimv2-large-patch14-336", backend="torch")
transform = val_transforms(img_size=336)
inp = transform(img).unsqueeze(0)
features = model(inp)
Приглашаем тебя на крутое IT-мероприятие, посвящённое AI и передовым технологиям разработки рекомендательных систем.
Регистрируйся, и в день мероприятия мы пришлём тебе ссылку на трансляцию. Или приходи очно, если ты живёшь в одном из городов.
Где и когда?
👉 Нижний Новгород, 5 декабря
👉 Санкт-Петербург, 6 декабря
Тебя ждут крутейшие доклады, живая дискуссия и новые знания в сфере рекомендательных систем.
Количество мест ограничено — успей занять своё и прикоснуться к миру рекомендательных систем! 😉
🔥 Илон Маск продемонстрировал, как робот Optimus может ловить мяч!
@vistehno
✔️ Niantic тренирует большую геопространственную модель ИИ на данных Pokémon Go.
Niantic, разработчик Pokémon Go, объявила о создании модели ИИ, обученной на миллионах реальных изображений, собранных игроками Pokémon Go и приложения Scaniverse. Алгоритм, получивший название "большая геопространственная модель", обеспечит такое же свободное ориентирование в физическом мире, какое демонстрирует ChatGPT в мире языка.
Модель основана на данных "Системы визуального позиционирования" (VPS) Niantic, которая использует более 50 млн. нейросетей с более чем 150 трлн. параметров для определения местоположения телефона с точностью до сантиметра по одному изображению. Niantic планирует использовать новую модель для улучшения дополненной реальности в своих играх и разработки автономных систем и роботов.
singularityhub.com
✔️ AMD разрабатывает процессоры на основе стеклянных подложек.
AMD получила патент на использование стеклянных оснований при производстве процессоров. Стеклянные основания лучше отводят тепло, меньше теряют сигнал и точнее по размерам, чем традиционные материалы. Это делает их пригодными для высокочастотных задач, таких как 5G и искусственный интеллект.
Патент описывает технологию Through Glass Vias (TGV) для создания вертикальных каналов передачи данных и питания внутри стеклянного основания. Также в патенте представлен способ соединения нескольких стеклянных оснований с помощью меди.
AMD планирует использовать патент в процессорах Zen и новых GPU, состоящих из нескольких чиплетов.
techspot.com
✔️ Китай представил чип "Global Scheduling Ethernet".
Китайские компании представили чипы, работающие на базе протокола "Global Scheduling Ethernet" (GSE). Этот протокол предназначен для обработки больших объемов данных и обеспечения высокой скорости передачи, необходимых для искусственного интеллекта и других высокопроизводительных задач.
Разработка GSE началась в 2023 году при участии более 50 организаций, включая облачных провайдеров, производителей чипов и вузов. GSE является альтернативой технологии Ultra Ethernet Consortium (UEC), предназначенной для эффективной коммуникации в кластерах высокопроизводительных вычислений и ИИ.
Существующая технология Ethernet не подходит для больших рабочих нагрузок, связанных с обучением ИИ, из-за чего в ЦОДах, использующих GPU Nvidia, применяются проприетарные и дорогие технологии прямого соединения - NVLink. GSE нацелена решить эту проблему, предлагая эффективное и доступное решение для высокоскоростных вычислений.
tomshardware.com
✔️ Нанофотонные нейронные сети в объективах камер для вычислений.
Ученые из Вашингтонского университета разработали нанофотонную нейронную сеть (SVN3), которая встраивается в объективы камер и выполняет вычисления во время съемки, до записи на сенсор. SVN3 использует массив из 50 металлических элементов, оптимизированных для работы с некогерентным светом, которые выполняют параллельные многоканальные свертки со скоростью света без потребления энергии.
Для обучения сети используется метод низкоразмерной репараметризации. SVN3 достигает точности классификации изображений 72,76% на наборе данных CIFAR-10 и 48,64% на ImageNet, что сопоставимо с производительностью современных нейронных сетей.
SVN3 потребляет значительно меньше энергии, так как более 99% вычислений выполняется оптическим путем.
science.org
✔️ Более половины лонгридов в LinkedIn созданы ИИ.
Исследование Originality.ai показало, что 54% длинных постов в LinkedIn созданы искусственным интеллектом. В исследовании анализировались 8 795 длинных постов (не менее 100 слов), опубликованных с января 2018 года по октябрь 2024 года.
Запуск ChatGPT в 2022 году вызвал резкий рост количества контента, созданного ИИ, увеличившись на 189% с января по февраль 2023 года. После всплеска в феврале 2023 года наблюдается стабилизация, что может указывать на новую норму для контента в LinkedIn.
readwrite.com
@ai_machinelearning_big_data
#news #ai #ml
🧠 Одна из лучших визуализаций для нейронных сетей и CNN
@vistehno
🔥 OminiControl — это модель, основанная на технологии OmniGen, предназначенная для универсальной генерации изображений!
💡 Она может выполнять такие задачи, как генерация изображений по текстовым запросам, редактирование изображений, сохранение идентичности объектов, а также генерация, основанная на нескольких модальностях, таких как текст и изображение.
🌟 Модель отличается гибкостью в управлении процессом генерации и поддерживает тонкую настройку для добавления новых возможностей.
🔗 Ссылка: *клик*
@vistehno
🔥 Зачем нужен Голливуд, когда у нас теперь есть нейросети?
@vistehno
🖼 Magic Quill — бесплатный редактор изображений на основе искусственного интеллекта!
🌟 Этот инструмент невероятно полезен и бесплатен в использовании! Он позволяет вам выбирать части изображения и редактировать их с помощью всего лишь текстовой подсказки.
🔗 Ссылка: *клик*
@vistehno
🌟 Marco-o1: модель рассуждений от Alibaba.
Marco-o1 – LLM, файнтюн-версия Qwen2-7B-Instruct для решения сложных задач, требующих рассуждений. В создании модели использовались методики Chain-of-Thought (CoT), поиска по дереву Монте-Карло (MCTS) и уникальные стратегии регулирования действий при рассуждении.
Marco-o1 обучалась на 3 датасетах: отфильтрованный набор данных Open-O1 CoT, синтетический набор Marco-o1 CoT и собственный набор инструкций Marco.
В модели реализованы 2 стратегии действий: "шаг как действие" и "мини-шаг как действие" (32 или 64 токена соответственно). Мини-шаг как действие обеспечивает более детальное исследование пространства решений.
В Marco-o1 был внедрен механизм рефлексии, который побуждает модель переосмысливать свои рассуждения, что улучшает результаты инференса, особенно в сложных составных задачах.
Модель оценивалась на наборах данных MGSM (английский и китайский). Результаты показали, что Marco-o1 превосходит Qwen2-7B-Instruct и демонстрирует улучшение точности на 6,17% для английского набора данных и 5,60% для китайского. Модель превзошла Google Translate в задачах языкового перевода, особенно при переводе разговорных выражений.
В ближайших планах:
🟠Обучаются версии модели вознаграждения за результат (ORM) и вознаграждения за процесс (PRM).
🟠Reinforcement Learning: обучение с подкреплением для совершенствования рассуждений.
▶️Установка и локальный инференс:
# Clone the repository
git clone https://github.com/AIDC-AI/Marco-o1
# Change to the Macaw-LLM directory
cd Marco-o1
# Install required packages
pip install -r requirements.txt
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("AIDC-AI/Marco-o1")
model = AutoModelForCausalLM.from_pretrained("AIDC-AI/Marco-o1")
# Run Inference
./src/talk_with_model.py
🔥 Крайне полезный сайт, на котором собраны и отфильтрованы бесплатные альтернативы всевозможному ПО!
🔗 Ссылка: *клик*
@vistehno
🖼 Magic Quill — бесплатный редактор изображений на основе искусственного интеллекта!
🌟 Этот инструмент невероятно полезен и бесплатен в использовании! Он позволяет вам выбирать части изображения и редактировать их с помощью всего лишь текстовой подсказки.
🔗 Ссылка: *клик*
@vistehno
🖥 OpenGlass — проект с открытым исходным кодом, который позволяет превратить любые очки в умные с поддержкой AI с минимальными затратами (около $25)! Устройство собирается из доступных компонентов, таких как микроконтроллер Seeed Studio XIAO ESP32 S3 Sense, небольшая батарея и 3D-печатный корпус.
🌟 Основные возможности OpenGlass включают запись видео, распознавание объектов, запоминание лиц, перевод текста и другие функции. Для работы требуется загрузить и настроить прошивку через Arduino IDE. Кроме того, проект предоставляет подробные инструкции по сборке и настройке оборудования и программного обеспечения, а также поддерживает интеграцию с ESP32-платформой.
🔐 Лицензия: MIT
🖥 Github
@vistehno
🔍 Наглядное сравнение производительности нескольких языков программирования при выполнении 1 млрд итераций в цикле!
@vistehno
🛢 Современный американский рэп: парень выступал прямо с кислородным баллоном на сцене.
Рэперу Дейву Блантсу всего 23 года, но он уже весит 226 килограммов. В этом году его треки стали вирусными благодаря уникальному сочетанию черного юмора и серьезных тем.
Время диктует свои правила – вот вам и новый герой сцены.
@vistehno
🔍 То, что вы видите — полностью создано нейросетями. Нижнее изображение создано Midjourney, а сверху Kling превращает эту картинку в потрясающе качественное видео!
🌟 Ждем полнометражный, полностью сгенерированный фильм?
@vistehno
🔥 Произошла утечка нового Samsung Galaxy S25!
@vistehno
🔥 Очередной нейросетевой номинант на Оскар!
@vistehno
⚡️Легкий способ получать свежие обновления и следить за трендами в разработке на вашем языке. Находите свой стек и подписывайтесь:
МАШИННОЕ ОБУЧЕНИЕ: t.me/ai_machinelearning_big_data
C++ t.me/cpluspluc
Python: t.me/pythonl
Linux: t.me/linuxacademiya
Хакинг: t.me/linuxkalii
Devops: t.me/DevOPSitsec
АНАЛИЗ Данных: t.me/data_analysis_ml
Javascript: t.me/javascriptv
C#: t.me/csharp_ci
Java: t.me/javatg
Базы данных: t.me/sqlhub
Python собеседования: t.me/python_job_interview
Мобильная разработка: t.me/mobdevelop
Docker: t.me/DevopsDocker
Golang: t.me/golang_interview
React: t.me/react_tg
Rust: t.me/rust_code
ИИ: t.me/vistehno
PHP: t.me/phpshka
Android: t.me/android_its
Frontend: t.me/front
Big Data: t.me/bigdatai
Собеседования МЛ: t.me/machinelearning_interview
МАТЕМАТИКА: t.me/data_math
Kubernets: t.me/kubernetc
Разработка игр: /channel/gamedev
💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
Папка ML: /channel/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: /channel/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: t.me/english_forprogrammers
🧠ИИ: t.me/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: /channel/addlist/BkskQciUW_FhNjEy
🔥 Vizard.ai — это инструмент на основе искусственного интеллекта, предназначенный для автоматизированного редактирования видео!
🌟 Его основная функция заключается в преобразовании длинных видеозаписей в короткие, оптимизированные для социальных сетей клипы. Этот сервис особенно полезен для контент-маркетологов, создателей видео, подкастеров, преподавателей и других пользователей, желающих сэкономить время на создании engaging контента для TikTok, Instagram Reels, YouTube Shorts и других платформ.
🌟 Vizard автоматически анализирует загруженные видеозаписи, выделяет ключевые моменты, добавляет субтитры, визуальные эффекты и создает короткие ролики, которые можно публиковать прямо из платформы. Также доступен текстовый редактор для ручной настройки клипов. Сервис поддерживает многоканальные аудио (например, для интервью) и позволяет переводить субтитры на несколько языков.
🔗 Ссылка: *клик*
@vistehno
🔍 Человек и LLM: подходы к оценке языковых моделей.
🌟 Хотя в мире LLM принято использовать академические тесты, они не показывают главного — насколько модель полезна в реальных задачах вроде ведения диалогов и генерации идей. К тому же все стандартные бенчмарки подвержены протечкам данных.
Существует несколько способов решения проблемы, наиболее эффективным является комплексный подход, который применяется во многих IT-компаниях, в том числе в Яндексе. Для этого создают собственные тесты под бизнес-задачи, а также нанимают AI-тренеров, которые оценивают практическую применимость модели. При выкатке новой версии проводят разметку всей командой: от разработчиков и аналитиков самой модели до менеджеров продукта и C-level менеджеров.
🔗 Подробнее можно прочитать здесь: *клик*
@vistehno
есom.teсh meetup — Generative AI
6 декабря 18:00 в Москве пройдёт митап по прикладному использованию генеративных технологий для специалистов по Data Science!
Обсудим технические аспекты экспериментов с нейронными сетями, посмотрим свежие кейсы внедрения ИИ в бигтехе и не только.
В программе:
👁🗨 Виртуальная фотосъемка для продавца на маркетплейсе: возможности Gen AI.
Арнольд Сааков, руководитель отдела разработки сервисов искусственного интеллекта в ecom.tеch.
👁🗨 От потоковой обработки к генерации: AI-алгоритмы для автоматизации работы с фотографиями товаров на маркетплейсе.
Александр Савельев, руководитель группы развития технологий компьютерного зрения в ecom.tеch;
Татьяна Гришина, менеджер продукта в ecom.tеch.
👁🗨 Секретный доклад.
Митап будет интересен тем, кто уже работает или проходит обучение в области Data Science и интересуется генеративными технологиями!
🧠 Регистрируйтесь и пересылайте знакомым!
Реклама. ООО "УМНОЕ ПРОСТРАНСТВО", ИНН 7811554010, Erid: 2VSb5xFvLSc
🔥 Nvidia представила Edify 3D!
🌟 Этот метод позволяет генерировать высококачественные 3D-ресурсы из текстовых описаний. Он использует модель диффузии для создания подробных топологий квадратной сетки и текстур высокого разрешения менее чем за 2 минуты!
🔗 Подробнее можно прочитать здесь: *клик*
@vistehno
🔥 Meshcapade — полезный сервис, который позволяет бесплатно генерировать кастомизируемые на любой вкус и цвет 3D-модели людей или животных, а затем задавать им действия!
🔗 Ссылка: *клик*
@vistehno
🔍 Теперь вы знаете в чем дело...
@vistehno
✔️ AlphaQubit от Google: новый уровень точности в квантовых вычислениях.
Google DeepMind и Google Quantum AI разработали AlphaQubit, декодер, который устанавливает новый стандарт точности в коррекции ошибок квантовых вычислений. AlphaQubit, нейронная сеть, обученная на синтетических и реальных данных с процессора Sycamore, использует архитектуру Transformers для анализа информации об ошибках.
Тестирование показало, что AlphaQubit снижает количество ошибок на 6% по сравнению с тензорными сетями и на 30% по сравнению с корреляционным сопоставлением. Несмотря на то, что AlphaQubit демонстрирует высокую точность, остаются проблемы, связанные с достижением скорости работы в реальном времени и масштабируемости.
blog.google
✔️ NVIDIA предложила оптимизацию семейства Llama 3.2 на GPU.
NVIDIA оптимизировала модели Llama 3.2 (11 млрд и 90 млрд параметров) и SLM (1 млрд и 3 млрд параметров) за счет использования библиотеки TensorRT и TensorRT-LLM. Оптимизация с помощью TensorRT обеспечивает более высокую пропускную способность и меньшую задержку инференса. NVIDIA также разработала собственную схему квантования FP8 для повышения производительности, доступную через TensorRT Model Optimizer. SLM оптимизированы для Windows с помощью ONNX Runtime Generative API и DirectML.
Оптимизированный инференс Nvidia TensorRT Llama 3.2 доступен в сервисе NVIDIA NIM.
developer.nvidia.com
✔️ Gemini теперь запоминает предпочтения пользователей.
Google представила новую функцию "памяти" для Gemini, позволяющую ему учитывать предпочтения пользователя в будущих взаимодействиях. Эта функция, доступная подписчикам Google One AI Premium ($20 в месяц), позволяет пользователям сохранять информацию о своих предпочтениях, например, о нелюбимых ингредиентах в рецептах.
Gemini будет использовать эти данные для персонализации ответов и повышения эффективности помощи пользователю. Функция памяти доступна только через веб-браузер. Пользователи могут удалять сохраненные предпочтения или отключать функцию, если предпочитают, чтобы Gemini не учитывал предыдущие взаимодействия.
makeuseof.com
✔️ DeepSeek представила модель, превосходящую OpenAI-o1.
Компания DeepSeek выпустила R1-Lite-Preview — новую большую языковую модель, ориентированную на рассуждения. Модель, доступная только через веб-чат DeepSeek Chat и демонстрирует производительность, близкую, а в некоторых случаях и превосходящую, модель OpenAI o1-preview по результатам тестов AIME (American Invitational Mathematics Examination) и MATH.
R1-Lite-Preview использует метод «цепочки рассуждений», показывая пользователю этапы своего "мыслительного" процесса. Компания планирует в будущем выпустить R1 с открытым исходным кодом.
venturebeat.com
✔️ Suno представляет новую модель V4.
Suno, популярная платформа генеративной музыки, выпустила новую модель V4, которая создает более реалистичную музыку по сравнению с предыдущими версиями. Модель V4 доступна платным подписчикам и в будущем будет доступна всем пользователям. V4 демонстрирует более четкое звучание, реалистичный вокал и инструменты, более широкую стереопанораму. Модель также улучшила свои композиторские навыки, создавая более интересные и неожиданные музыкальные решения.
geeky-gadgets.com
@ai_machinelearning_big_data
#news #ai #ml
Русскоязычный умелец научился создавать 🔞 моделей через нейросети и зарабатывать на них. Об этом он рассказывает в своем авторском Телеграм-блоге >>
Так же он дает бесплатно инструкцию, как начать.
Переходите 👉 /channel/+Hi0ZcNBR5kJkNDVh
⚡️ Блогер решил испытать популярные LLM-нейросети в выживании в Minecraft. Задача была проста – продержаться десять дней.
Однако результаты оказались неутешительными для всех участников:
- LLaMA успела построить укрытие на ночь, но… забыла в него зайти.
- ChatGPT уже в первый день подорвался на крипере.
- Gemini, как настоящий представитель Google, внезапно прекратил работу.
- А Claude всё время пытался закрыться блоками.
Вывод очевиден: Minecraft пока ещё не готов к захвату нейросетями.
https://www.youtube.com/watch?v=KxaPYhfJV4U&ab_channel=EmergentGarden
@vistehno
🔥 Prompt-Engineering-Guide — огромный и крайне полезный ресурс, посвященный инженерии промптов — искусству создания эффективных запросов для взаимодействия с языковыми моделями и улучшения их ответов!
🌟 Здесь информация и практические примеры для работы с крупными языковыми моделями (LLM), такими как GPT и BERT, и указаны методы оптимизации формулировок запросов для достижения более точных и полезных результатов!
🔐 Лицензия: MIT
🖥 Github
@vistehno