359493
Самая актуальная информация из мира ML, Нейронных сетей,DI По всем вопросам- @haarrp @itchannels_telegram - 🔥 best it channels @pythonl - 🐍 @machinee_learning -chat @ArtificialIntelligencedl - AI @datascienceiot - ml 📚 @machinelearning_ru ml
🍌Nano Banana Pro стала доступен в Google Vertex AI
https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/gemini-3-pro-image-preview?pli=1
@ai_machinelearning_big_data
#ai #ml #nanobanana
Если сотрудник случайно удалил базу данных в рабочей среде, серверную затопило или вашу систему атаковал вирус-шифровальщик — это может привести к непоправимой потере данных. А всех пострадавших — к мысли, что нужно было сделать резервную копию…
✖️ В подобной ситуации восстановить данные может быть невозможно. 25 ноября в 11.00 MTC Web Services проведет вебинар, где эксперты расскажут, как правильно и эффективно создавать и хранить резервные копии.
На вебинаре расскажем:
🔴Каких неприятностей поможет избежать резервное копирование
🔴Базовые правила настройки бэкапов: полезные и вредные советы
🔴Инструменты и нюансы выбора сервисов для резервного копирования
🔴Где надёжнее всего хранить резервные копии: локально или в облаке
Для кого этот вебинар?
➡️Руководители компаний
Не потеряете важные данные и узнаете, сколько можно сэкономить на восстановлении
➡️Руководители ИТ-отделов
Найдёте сервисы для резервного копирования, которые не ударят по бюджету
➡️ИТ-специалисты
Узнаете, как настраивать регулярные бэкапы: в облаке и локальных хранилищах
Регистрируйтесь и приходите!
📢 Google уверенно выводит свои TPU на новый уровень — и делает это сразу по трём направлениям.
Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.
TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.
**🚀 Ironwood (TPUv7):*
Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти
Такой уровень идеально подходит для LLM, где важны скорость и масштаб.
🔥 Sunfish (предположительно TPUv8)
Следующее поколение создаётся совместно с Broadcom.
Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.
💡 Zebrafish: гибкая и массовая линейка
MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров
То есть не только для гигантских суперкомпьютеров, но и для широкого использования.
🌐 Зачем Google три разных TPU?
Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем
Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.
@ai_machinelearning_big_data
#google #tpu
🌟 Reader3: легковесная читалка для книг от Andrej Karpathy
Андрей Карпаты опубликовал у себя в Github небольшой проект - утилиту под названием reader3.
На первый взгляд, это просто легковесная читалка для электронных книг в формате EPUB, которую можно запустить у себя на компьютере. Но главная идея в том, чтобы читать книги вместе с LLM.
Reader3 разбивает книгу по главам, и пользователь может легко скопировать текст текущей главы и вставить его в свой любимый LLM, чтобы обсуждать сюжет, анализировать стиль или задавать вопросы по тексту.
Но самое интересное здесь — это философия, которая стоит за проектом. Карпаты пишет, что проект написан "на 90% вайбкодингом", просто для иллюстрации идеи и что он не собирается его поддерживать или улучшать.
Я начинаю привыкать читать все (блоги, статьи, главы книг и т. д.) с помощью LLM. Обычно первый проход — ручной, второй — «объяснение/резюме», третий — вопросы и ответы.
В результате я обычно получаю более глубокое понимание, чем если бы я просто прошел дальше. Этот процесс становится у меня одним из самых популярных вариантов чтения.
Код теперь эфемерный,
uv:uv run reader3.py yourbook.epub
# Then run the server:
uv run server.py
localhost:8123.
✔️ Google подружила Colab с Visual Studio Code.
Компания выпустила расширение, которое напрямую связывает редактор кода со средами выполнения Google Colab. Иными словами, теперь можно работать с локальными .ipynb файлами, но выполнять код на Google Colab. Поддерживается подключение как к бесплатным средам выполнения, так и к премиум-тарифам Colab Pro.
Для начала работы достаточно установить расширение Google Colab из VS Code Marketplace. При выборе ядра для ноутбука появится опция «Colab», после чего нужно будет авторизоваться в аккаунте Google. Расширение также опубликовано в реестре Open VSX для совместимых редакторов.
developers.googleblog.com
✔️ ByteDance представила Depth Anything 3.
Depth Anything 3 может предсказывает пространственно-согласованную геометрию по одному или нескольким изображениям, даже без известных параметров камеры. Ключевая особенность релиза - в радикальном упрощении архитектуры.
Под капотом единый трансформер и унифицированное представление depth-ray. Одна и та же модель теперь решает целый спектр задач: от монокулярной оценки глубины и определения поз камеры до прямой генерации 3D гауссианов для синтеза новых ракурсов.
В тестах DA3 превзошла предыдущие версии. Команда выпустила веса моделей, инструментарий CLI и WebUI на Gradio.
depth-anything-3.github.io
✔️ Sakana AI стал самым дорогим "единорогом" в Японии.
Компания закрыла раунд финансирования на 20 млрд. иен, в результате чего её оценка достигла около $2.635 млрд. Это сделало её самым дорогим непубличным стартапом в истории Японии. Среди инвесторов - Mitsubishi UFJ Financial Group и американские венчурные фонды.
Привлечённые средства будут направлены на разработку собственной LLM, адаптированной под особенности японского языка и культуры. Компания уже сотрудничает с MUFG и Daiwa Securities для создания специализированного ИИ для финансового сектора, а в будущем планирует расширяться в оборонную и обрабатывающую промышленность.
asia.nikkei.com
✔️ Джефф Безос возглавил ИИ-стартап.
Основатель Amazon впервые после ухода с поста CEO занял операционную должность, став соруководителем ИИ-стартапа Project Prometheus. Компания привлекла $6.2 млрд, часть из которых — личные средства Безоса, что делает её одним из самых финансируемых стартапов на ранней стадии. Вторым CEO стал Вик Баджадж, физик и химик, ранее работавший в Google X над проектом Waymo.
Prometheus сфокусируется на создании ИИ-инструментов для ускорения инженерных и производственных процессов в автомобилестроении, аэрокосмической сфере и вычислительной техники. Стартап нацелен на сегмент ИИ-систем для робототехники, научные исследования и разработку материалов.
Несмотря на скрытный режим работы, команда проекта уже насчитывает около 100 специалистов, выходцев из OpenAI и DeepMind и компании Марка Цукербурга.
nytimes.com
✔️ Сценарий из «Чёрного зеркала» становится реальностью.
Актёр Калум Уорти запустил ИИ-платформу 2wai, которая создаёт интерактивные цифровые копии ушедших из жизни людей. Для генерации приложению достаточно нескольких минут видеозаписи с человеком и после их оцифровки, пользователь может взаимодействовать с аватаром своего родственника, симулируя общение на разных этапах жизни.
В сети проект вызвал волну негатива и обвинение создателей в эксплуатации горя. Основные претензии сводятся к тому, что технология мешает здоровому процессу скорби и использует образы людей без их согласия.
Бета-версия приложения уже доступна в App Store. В будущем разработчики планируют ввести платную подписку и выпустить версию для Android.
Calum Worthy в сети Х
@ai_machinelearning_big_data
#news #ai #ml
UBTech заявила о первой в мире массовой поставке гуманоидных роботов.
Китайская компания из Шэньчжэня уже получила заказы на более чем 800 млн юаней (112 млн долларов) на своего робота Walker S2. Среди них - контракт на 159 млн юаней для проекта по сбору данных в городе Цзыгун и ещё один, на 250 млн юаней, о котором сообщили в сентябре от крупной китайской компании.
Гуманоиды переходят из демонстраций в реальные промышленные поставки - и это серьёзный сигнал для всей отрасли робототехники.
@ai_machinelearning_big_data
#robots #ai
Ноябрь — месяц One Day Offer в GigaChat и Kandinsky 📆
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
LLM теперь и в гуманитарке
Яндекс вместе с Институтом востоковедения РАН сделали ИИ-помощника, который переваривает научные тексты на восточных языках и выдает аналитические выжимки.
Под капотом — генеративные модели Yandex Cloud, обученные совместно со студентами ШАД. Архитектура — на Yandex AI Studio, где строят и деплоят ИИ-агентов.
База уже 1,5+ млн документов на четырёх вариантах китайского языка. Ассистент умеет доставать факты, делать дайджесты и переводить всё это на русский.
Фишка — скорость: анализ, который раньше занимал часы, теперь укладывается в 10–15 минут.
Отличный кейс того, как LLM заходят в академическую среду и реально ускоряют ресерч.
https://nauka.tass.ru/nauka/25599877
✔️ Microsoft представила Visual Studio 2026.
По словам Microsoft - это первая в мире «интеллектуальная IDE», она запускается быстрее и на 50% реже зависает, а ее ИИ-инструменты, включая новых агентов для C# и C++, теперь помогают не только в написании кода, но и в отладке, профилировании и модернизации приложений. Новая версия получила полную совместимость с проектами и расширениями от VS 2022.
Кроме того, среда разработки была отделена от инструментов сборки, так что теперь можно обновлять саму IDE, не затрагивая компиляторы .NET и C++. Visual Studio 2026 уже доступна для подписчиков, а автономная лицензия поступит в продажу с 1 декабря 2025 года. Полный список изменений - в Release Notes.
devblogs.microsoft.com
✔️ Google объединит мощь Gemini с приватностью локальных вычислений.
Google анонсировала новую платформу Private AI Compute, которая позволяет использовать Gemini в облаке, обеспечивая при этом уровень приватности, сопоставимый с обработкой на устройстве. В основе лежит изолированное защищенное окружение на базе собственного технологического стека Google, а данные обрабатываются в специальном зашифрованном пространстве, доступ к которому имеет только пользователь.
Google обещает, что даже сотрудники компании не смогут получить доступ к информации. Первыми возможностями на базе этой платформы станет учучшатель промптов Magic Cue на Pixel 10 и обобщение транскрипций в приложении Recorder.
blog.google
✔️ LAION запустили Project AELLA для ИИ-структуризации научных статей.
LAION, совместно с Inference.net и Wyndlabs AI, представили открытую инициативу Project AELLA для демократизации доступа к научным знаниям. В рамках проекта было обработано около 100 млн. академических публикаций, для которых с помощью LLM создаются структурированные аннотации.
Проект должен значительно ускорить поиск информации, улучшить машинный анализ и повысить доступность научного контента. Специально для этой задачи были дообучены 2 языковые модели. По заявлению LAION, в целевых тестах они показывают производительность, сравнимую с GPT-5 и Claude 4.5.
На старте проект предлагает датасет из 100 тыс. готовых аннотаций, дообученные модели и 3D-визуализатор для навигации по научным областям. Все материалы открыты для исследователей и разработчиков.
laion.ai
✔️ Стартап Olares анонсировал персональное ИИ-облако с RTX 5090 Mobile.
Стартап Olares показал свой дебютный продукт - Olares One. Это персональное ИИ-облако, спроектированное для локального запуска моделей. Устройство выполнено в формате компактного десктопа, оснащено видеокартой NVIDIA GeForce RTX 5090 Mobile с 24 ГБ памяти GDDR7, процессором Intel Core Ultra 9 275HX и 96 ГБ оперативной памяти.
Работать Olares One будет под управлением собственной открытой Olares OS. Предзаказы стартуют на Kickstarter в декабре, а полноценная презентация состоится на выставке CES в январе 2026 года. Проект уже привлек $45 млн. инвестиций.
techpowerup.com
✔️ Создан протокол шифрованной самопроверки на уровне чипа для квантового компьютера.
Международная команда исследователей успешно протестировала криптографически защищенный протокол верификации, который позволяет квантовому компьютеру самостоятельно проверять корректность собственных результатов. Технология была развернута на квантовом процессоре H1-1 от Quantinuum и показала свою эффективность на задаче с 52 кубитами.
Идея заключается в интеграции проверочных тестов непосредственно в процесс вычислений на одном чипе. Протокол случайным образом чередует вычислительные раунды с тестовыми ловушками. Анализируя результаты тестов, система статистически определяет, можно ли доверять итоговому результату вычислений.
phys.org
@ai_machinelearning_big_data
#news #ai #ml
💰Anthropic впервые строят собственную инфраструктуру
Компания объявила о масштабных инвестициях в строительство дата-центров в Техасе и Нью-Йорке совместно с Fluidstack. Это объекты, оптимизированные под задачи Anthropic - максимально энергоэффективные и рассчитанные на развитие передовых моделей Claude.
Проект создаст около 800 постоянных рабочих мест и 2 400 рабочих на этапе строительства, запуск ожидается в течение 2026 года. Инициатива поддерживает AI Action Plan администрации США, направленный на укрепление лидерства страны в сфере искусственного интеллекта.
CEO Anthropic Дарио Амодеи отметил, что инфраструктура - ключ к следующему этапу прогресса: созданию ИИ, способного ускорять научные открытия и решать сложные задачи.
Сейчас Anthropic обслуживает более 300 000 бизнес-клиентов, а число крупных контрактов (от 100 000 $ в год) выросло почти в 7 раз за год.
Fluidstack выбрана за способность быстро вводить в эксплуатацию гигаваттные мощности. Партнёры обещают гибкое и эффективное развертывание, обеспечивающее устойчивый рост Anthropic без перегрузки по затратам.
Anthropic закладывает фундамент для долгосрочного доминирования в сфере ИИ, делая ставку на собственную вычислительную базу в США и поддержку национальной технологической независимости.
https://www.anthropic.com/news/anthropic-invests-50-billion-in-american-ai-infrastructure
@ai_machinelearning_big_data
#Anthropic #claude
✅🧐🎁😌👹😋😡🙊😍🤷♂️👹
⚡️Создание production-ready AI-агента.
AI-агенты перестали быть экспериментом — они становятся основой продуктовых решений. Вопрос лишь в том, умеете ли вы создавать своих?
С 20 ноября будет Yandex AI Studio Series — серия практических вебинаров для тех, кто хочет пройти путь от идеи до production-ready AI-агента за 7 дней.
Что будет на интенсиве:
✔️ 4 онлайн-трансляции с сессией вопросов и ответов.
✔️ Предзаписанный воркшоп для самостоятельной практики.
✔️ Квиз и приятные сюрпризы.
✔️ Нетворкинг в продуктовом комьюнити.
✔️ Офлайн-встреча в офисе Яндекса в Москве.
Все решения будем деплоить на базе Yandex AI Studio — платформы от Яндекса для разработки AI-агентов.
Участие в мероприятии бесплатное.
Если вы AI/ML-инженер или разработчик и хотите углубиться в инженеринг агентов и мультиагентных систем — присоединяйтесь. Регистрация уже идет и доступна по ссылке
@ai_machinelearning_big_data
#ai #ml
🧠 Gemini смог решить две задачи, которые считались почти невозможными для ИИ
Историк протестировал новую модель Gemini 3.0 Pro (доступную в AI Studio) через A/B-тестирование - и вот что выяснилось:
- Модель достигает уровня эксперта в распознавании рукописного текста.
- Она демонстрирует абстрактное мышление: например, без подсказок вычисляет валютные курсы XVIII века.
Если результаты подтвердятся, это может означать: большите мультимодальные модели могут выходить за рамки просто распознавания паттернов - они способны на настоящее понимание контекста.
> «Если такое поведение окажется стабильным и воспроизводимым, это может изменить представление:
> что для мышления не нужны заранее прописанные правила и символические структуры,
> а достаточно масштаб, разные модальности и сложный структурированный опыт».
✅ Статья очень интересная и отличный пример того, как ИИ приближается к новому уровню.
https://generativehistory.substack.com/p/has-google-quietly-solved-two-of
@ai_machinelearning_big_data
#Gemini
🧠 Baidu открыли ERNIE-4.5-VL-28B-A3B-Thinking
Модель с 28B параметров и архитектурой A3B активирует лишь ~3B на шаг, но при этом показывает уровень топовых визуальных моделей. Подходит для задач, где нужно сочетать изображение, контекст и многошаговое рассуждение.
Что умеет:
- визуальное рассуждение: анализ диаграмм, многошаговая логика, причинно-следственные связи
- STEM-задачи по фото: можно сфотографировать пример и получить решение
- визуальное указание: точное определение объектов в сцене
- детальный анализ изображения: фиксирует мелочи при масштабировании
- вызов инструментов: например, Image Search
- понимание видео: отслеживание событий по таймлинии
Лицензия Apache 2.0.
Модель: https://huggingface.co/baidu/ERNIE-4.5-VL-28B-A3B-Thinking
@ai_machinelearning_big_data
#ai #ml #Baidu
✔️ Omnilingual ASR: опенсорсная система распознавания речи для 1600 языков от FAIR.
Подразделение FAIR компании Марка Цукерберга выпустило Omnilingual ASR для 1600 языков, 500 из которых ранее не были ни в одной ИИ-системе. Фишка проекта - «Bring Your Own Language», которая использует контекстное обучение. Она позволяет добавлять поддержку новых языков на основе всего несколько пар аудиозаписей и текстовых примеров, без необходимости полного переобучения.
Размеры моделей семейства - от 300 млн. до 7 млрд. параметров. Для 78% поддерживаемых языков уровень ошибки по символам (CER) не превышает 10. Дополнительно опубликован датасет Omnilingual ASR Corpus с данными для 350 языков.
github.com
✔️ Microsoft создаёт инструмент для запуска CUDA-кода на видеокартах AMD.
Microsoft разрабатывает набор инструментов, позволяющий адаптировать модели NVIDIA CUDA для работы на платформе AMD ROCm. Цель — снизить затраты на оборудование для инференса, переведя часть нагрузок на более доступные графические процессоры AMD.
Решение представляет собой слой совместимости, который транслирует вызовы API из CUDA в ROCm в реальном времени, что избавляет от необходимости полностью переписывать исходный код. Работу сильно тормозит незрелость экосистемы ROCm: не для всего кода CUDA удается найти эффективный аналог, что может влиять на производительность в крупных дата-центрах.
Готовый инструментарий используется преимущественно внутри компании и дорабатывается совместно с AMD для дальнейшей оптимизации.
wccftech.com
✔️ xAI проведет 24-часовой хакатон.
xAI анонсировала хакатон, который пройдет 6-7 декабря в Сан-Франциско. Его участники займутся разработкой нового поколения ИИ-приложений, получив для этого приоритетный доступ к новой модели Grok и API платформы X.
Мероприятие пройдет в нон-стоп формате. Организаторы обещают предоставить все необходимое: от мониторов и спальных мешков до питания и энергетиков. Пять лучших проектов опубликуют на официальной странице xAI, а тройку лидеров ждут специальные награды. Подать заявку можно до 22 ноября 2025 года, они рассматриваются по мере поступления.
x.ai
✔️ Выбор новостных источников ChatGPT зависит от способа доступа.
Исследование Гамбургского университета показало, что новостные рекомендации ChatGPT сильно различаются в зависимости от того, используется ли веб-интерфейс или API. Анализ более 24 000 ответов на немецком языке выявил четкую закономерность.
Веб-версия активно ссылается на лицензионных партнеров OpenAI (около 13% всех ссылок), а ответы через API почти не содержат этих источников (всего 2%), отдавая предпочтение энциклопедическим сайтам вроде Wikipedia и малоизвестным локальным изданиям.
Интересно, что запрос на «разнообразие источников» не всегда улучшает качество. Хотя число уникальных сайтов растет, модель начинает чаще ссылаться на политически ангажированные ресурсы, пропаганду и даже несуществующие домены или сайты с сгенерированными «новостями». Исследователи предполагают, что для ChatGPT «разнообразие» может означать лишь лингвистические отличия, а не содержательную вариативность.
osf.io
✔️ Wikipedia хочет справедливого лицензирования своего контента.
Фонд Wikimedia опубликовал обращение к разработчикам ИИ, указав на их зависимость от человеческого труда. В фонде считают, что генеративные модели не способны самостоятельно исследовать и проверять факты, поэтому курируемый людьми контент остается ключевым источником знаний.
В связи с этим фонд призывает ИИ-компании корректно маркировать заимствованный контент и использовать его на справедливых лицензионных условиях. Без финансовой поддержки и должного признания, по мнению Wikimedia, вся концепция открытых знаний находится под угрозой.
Заявление последовало после запуска сервиса "Grokipedia", активно использующего данные энциклопедии. При этом Wikipedia уже отмечает снижение посещаемости, так как пользователи получают информацию из её статей напрямую в ответах чат-ботов.
wikimediafoundation.org
@ai_machinelearning_big_data
#news #ai #ml
В России можно посещать IT-мероприятия хоть каждый день: как оффлайн, так и онлайн
Но где их находить? Как узнавать о них раньше, чем когда все начнут выкладывать фотографии оттуда?
Переходите на канал IT-Мероприятия России. В нём каждый день анонсируются мероприятия со всех городов России
📆 в канале размещаются как онлайн, так и оффлайн мероприятия;
👩💻 можно найти ивенты по любому стеку: программирование, frontend-backend разработка, кибербезопасность, дата-аналитика, osint, devops и другие;
🎙 разнообразные форматы мероприятий: митапы с коллегами по цеху, конференции и вебинары с известными опытными специалистами, форумы и олимпиады от важных представителей индустрии и многое другое
А чтобы не искать по разным форумам и чатам новости о предстоящих ивентах:
🚀 IT-мероприятия России — подписывайся и будь в курсе всех предстоящих мероприятий!
💡 DeepSeek выложили новый open-source проект — LPLB.
Это экспериментальный балансировщик нагрузки для моделей Mixture-of-Experts (MoE).
В репозитории описано, как система:
• динамически перераспределяет экспертов, опираясь на статистику нагрузки;
• создаёт реплики с учётом топологии кластера;
• решает оптимальное распределение токенов по экспертам через LP-решатель, работающий прямо на GPU (cuSolverDx + cuBLASDx);
• использует метрики загрузки, полученные вручную, через torch.distributed или через буферы Deep-EP.
Гайд показывает, как может выглядеть умный и точный балансировщик для больших MoE-архитектур.
GitHub: https://github.com/deepseek-ai/LPLB
ai_machinelearning_big_data
#DeepSeek #LPLB #MoE #AIInfrastructure #OpenSource
✔️ OpenAI выпустила GPT-5.1-Codex-Max.
GPT-5.1-Codex-Max - агентная модель для «тяжелой» разработки. Основной упор сделан на длительные процессы: теперь модель эффективнее справляется с многочасовым рефакторингом и сложными агентными циклами внутри IDE. Фишка релиза в технологии «уплотнения», благодаря которой модель удерживает контекст на миллионах токенов без потери связности.
По тестам, проведенным OpenAI в SWE-Bench Verified точность выросла до 77,9%, а в SWE-Lancer - почти 80%. Новинка уже стала дефолтной моделью в среде Codex для подписчиков Plus и Pro, а доступ через API разработчики получат в ближайшее время.
openai.com
✔️ Stack Overflow планирует стать провайдером данных для корпоративного ИИ.
На конференции Microsoft Ignite платформа объявила о смене стратегии: теперь это не просто база знаний, а инфраструктурный элемент для корпоративных нейросетей. Обновленный продукт Stack Internal конвертирует внутреннюю экспертизу компаний в формат, доступный ИИ-агентам через MCP.
Технически будет добавлен слой метаданных, формирующий рейтинг надежности. Система анализирует автора, актуальность и связность ответа, чтобы агент мог взвесить достоверность информации перед использованием. CEO компании признался, что этот шаг вдохновлен успешными сделками по продаже данных для обучения моделей (по аналогии с Reddit).
stackoverflow.blog
✔️ Microsoft запустила платформу Agent 365 для управления ИИ-агентами.
Agent 365 — инструмент, который позволяет организациям администрировать парк ИИ-агентов как обычных сотрудников. Платформа использует Microsoft Entra для создания единого реестра всех корпоративных ботов, присваивая каждому уникальный ID для строгого разграничения прав доступа и интеграции с корпоративными данными.
Помимо безопасности (за которую отвечают Defender и Purview), система предлагает специальные дашборды, которые показывают эффективность работы каждого агента в реальном времени. Agent 365 не замыкается на нативном Copilot Studio, он поддерживает open-source фреймворки и сторонние решения от партнеров MS. Инструмент уже появился в админ-панели Microsoft 365 в рамках программы тестирования.
microsoft.com
✔️ Manus тестирует расширение для популярных браузеров.
Manus запустила бета-тестирование Browser Operator — инструмента, который выводит ИИ-агентов из облачных песочниц в рабочую среду пользователя. Расширение, доступное для Chrome и Edge, позволяет автоматизировать действия в сервисах, требующих сложной авторизации (CRM, закрытые аналитические платформы), используя уже активные локальные сессии.
Через коннектор «My Browser» агент получает доступ к нужным вкладкам, а пользователь может в реальном времени наблюдать за его действиями, сохраняя контроль над безопасностью. На данный момент доступ открыт для подписчиков тарифов Pro, Plus и Team.
manus.im
✔️ xAI построит в Саудовской Аравии дата-центр на 500 МВт.
Компания Илона Маска объединилась с саудовской Humain и Nvidia для создания масштабного вычислительного хаба. Проект мощностью 500 мегаватт позволит разместить десятки тысяч GPU для тренировки и инференса следующих поколений моделей Grok.
Для xAI это стратегический шаг: собственный хаб за пределами США позволяет снизить зависимость от аренды облачных мощностей у прямых конкурентов. Структура сделки такая: Nvidia поставляет GPU, за саудитами - земля и финансирование, а xAI получает присутствие на Ближнем Востоке.
bloomberg.com
@ai_machinelearning_big_data
#news #ai #ml
Как правильно писать промпты?
Научиться проще всего на примерах, а искать их — на Промптхабе Яндекса. Это новая площадка с готовыми идеями использования ИИ на все случаи жизни и промптами для реализации этих идей. Ещё там можно делиться опытом и проходить бесплатные курсы по работе с нейросетями, чтобы научиться составлять эффективные промпты. Это тонкая наука, но есть базовые принципы, которые почти всегда улучшают выдачу.
🟣 Будьте конкретнее
Не жалейте слов в промпте и описывайте, каким вы хотите видеть результат. Пишите чётко, без противоречий и двусмысленности.
🟣 Давайте контекст и примеры
Примеры хороших результатов резко повышают качество. А контекст (дополнительная информация для нейросети) ещё точнее помогает нейросети понять, чего от неё хотят.
🟣 Просите несколько версий ответа
Скажите нейросети сделать несколько вариантов ответа в разных стилях — можно выбрать лучший или взять что-то из каждого.
🟣 Действуйте итеративно
Первый результат почти никогда не бывает финальным. Анализируйте ответ, давайте указания или улучшайте исходный промпт: диалог с ИИ — это итеративный процесс уточнения и улучшения.
🟣 Разбивайте сложные задачи на мелкие
Не пытайтесь получить всё и сразу. Делите на этапы или сначала попросите общую структуру, а потом прорабатывайте детали.
Подписывайтесь 👉 @techno_yandex
Конференция AI Driver & RecSys Темы — пространство, где наука и бизнес встречаются, чтобы обсудить будущее рекомендаций ⚡️
28 ноября пройдёт конференция о том, как создаются и развиваются современные рекомендательные системы.
На площадке Сбера соберутся эксперты топовых российских IT-компаний и вузов, чтобы обсудить новые исследования, открытые датасеты и практические решения, которые меняют подход к персонализации.
Это возможность за один день познакомиться с ключевыми трендами RecSys, пообщаться со специалистами и вдохновиться идеями, формирующими будущее рекомендаций.
Присоединяйтесь к профессиональному сообществу 28 ноября в 10:00 — регистрация по ссылке!
⚡ Heretic - инструмент, который автоматически снимает цензуру (alignment) с языковых моделей
Он позволяет «расцепить» модель - убрать отказные фильтры и повысить готовность отвечать на запросы, не изменяя веса исходной модели напрямую.
Что делает Heretic:
- работает как «чёрный ящик»: получает ответы модели через API, не имея доступа к весам
- использует готовые примеры «безопасных» и «опасных» запросов
- обучает дискриминатор, который отличает ответы модели до и после модификации
- подбирает параметры так, чтобы модель давала меньше отказов, но сохраняла адекватность
- после завершения процесс можно сохранить финальную модель или протестировать её в чат-режиме
Зачем это нужно:
- позволяет локальным моделям отвечать шире, чем обычно позволяет их встроенный alignment
- минимизирует потерю качества — сделано так, чтобы модель не «тупела» и не отклонялась слишком сильно
- подходит для исследований поведения моделей и экспериментов с ограничениями
Важные моменты:
- инструмент мощный и может использоваться по-разному
- юридические и этические вопросы остаются на стороне пользователя
- автор подчёркивает: это не средство повышения точности модели, а именно инструмент снятия ограничений
https://github.com/p-e-w/heretic
@ai_machinelearning_big_data
#llm #opensource #ml
🚀 Qwen выпустила DeepResearch 2511 - обновление глубокого исследования.
Основные изменения:
✨ Добавлены два режима работы д
- Normal - быстрый и универсальный
- Advanced - тратит больше времени на анализ, чтобы дать максимально глубокий разбор
📄 Поддержка загрузки файлов
Теперь можно отправлять документы и изображения прямо в модель для анализа.
⚡ Улучшенный поиск
Обновлённый механизм быстрее считывает и обрабатывает веб-информацию, углубляя результаты исследования.
📊 Точный контроль отчётов
Можно задавать структуру отчёта: объём, количество абзацев, формат и детализацию. Улучшена надёжность цитирования.
🧑💻 Новый UX
Переработанная архитектура делает интерфейс заметно быстрее и отзывчивее.
🔗 Web: https://chat.qwen.ai/?inputFeature=deep_research
📱 App: https://qwen.ai/download
@ai_machinelearning_big_data
#qwen
⚡️ Baidu релизнула ERNIE 5.0.
Китайский техгигант выпустил новую версию своей флагманской языковой модели Ernie 5.0 на 2.4 трлн. параметров.
Модель омнимодальна, т.е может работать с текстом, изображениями, аудио и видео как на входе, так и на выходе.
В ERNIE 5.0 улучшили понимание инструкций, креативное письмо и она показывает сильные результаты в задачах, требующих логики, запоминания и убедительности.
Пока кроме этих общих формулировок и трудночитаемых картинок с бенчмарками подробной информации нет, но модель можно потестить в чат-боте.
@ai_machinelearning_big_data
#news #ai #ml
Как хакеры достигают целей и как от них защититься? ML-команда «Позитива» едет в Питер, чтобы разобрать настоящую атаку, и расскажет:
- Как найти аномалии в потоке легитимных событий;
- Почему нельзя обойтись без умного анализа трафика;
- Какие модели помогают детектировать вредоносы;
- Как помогают защищаться AI-агенты на самом деле.
Специальный гость митапа — Женя Никитин (CTO CelsusAI) расскажет, как масштабировать обучение в условиях ограниченных данных медтеха.
Без записи. Без повторов.
19 ноября, 18:00, Арт-галерея Zarenkov Gallery
Регистрация обязательна. Количество мест ограничено.
За 2,5 часа прокачаем маркетинг с нейросетями
Технари, проходите мимо — здесь эфир для ребят из маркетинга.
25 ноября приходите на онлайн-интенсив по AI. Вас ждет:
📈 Кейс-стади. COFIX, CDEK, Звук и Gulliver расскажут, как оптимизировали маркетинг с ML и LLM. С результатами в цифрах!
Например, Cofix ускорил обработку клиентских отзывов в 7000 раз. А Gulliver удвоил CTR товарных карточек на маркетплейсах.
👨🏫 Воркшоп по промптингу. Эксперты в прямом эфире помогут сегментировать клиентов, персонализировать рассылки и рекламу с ChatGPT.
📅 25 ноября, 11:00–13:30 мск
💻 Онлайн, бесплатно
Зарегистрироваться
erid: 2W5zFGc9QgY
💰 Впервые Anthropic строит собственную инфраструктуру
Компания объявила о масштабных инвестициях в строительство дата-центров в Техасе и Нью-Йорке совместно с Fluidstack. Это объекты, оптимизированные под задачи Anthropic - максимально энергоэффективные и рассчитанные на развитие передовых моделей Claude.
Проект создаст около 800 постоянных рабочих мест и 2 400 рабочих на этапе строительства, запуск ожидается в течение 2026 года. Инициатива поддерживает AI Action Plan администрации США, направленный на укрепление лидерства страны в сфере искусственного интеллекта.
CEO Anthropic Дарьо Амодеи отметил, что инфраструктура - ключ к следующему этапу прогресса: созданию ИИ, способного ускорять научные открытия и решать сложные задачи.
Сейчас Anthropic обслуживает более 300 000 бизнес-клиентов, а число крупных контрактов (от 100 000 $ в год) выросло почти в 7 раз за год.
Fluidstack выбрана за способность быстро вводить в эксплуатацию гигаваттные мощности. Партнёры обещают гибкое и эффективное развертывание, обеспечивающее устойчивый рост Anthropic без перегрузки по затратам.
Anthropic закладывает фундамент для долгосрочного доминирования в сфере ИИ, делая ставку на собственную вычислительную базу в США и поддержку национальной технологической независимости.
https://www.anthropic.com/news/anthropic-invests-50-billion-in-american-ai-infrastructure
@ai_machinelearning_big_data
#Anthropic #claude
⭐ VibeThinker-1.5B - миниатюрная модель, которая показывает SOTA-результаты в задачах рассуждения.
🚀 Производительность: одна из лучших на AIME24/25 и HMMT25 - превосходит DeepSeek R1-0120 по математическим задачам и опережает модели такого же размера в соревновательном программировании.
⚡ Эффективность: всего 1.5B параметров. то есть в 100–600 раз меньше, чем гиганты вроде Kimi K2 и DeepSeek R1.
💰 Стоимость: полный пост-тренинг обошёлся всего в $7.8K, примерно в 30–60 раз дешевле, чем у DeepSeek R1 или MiniMax-M1.
Модель основана на Spectrum-to-Signal Principle (SSP) и MGPO-фреймворке, оптимизирующих процесс рассуждения.
📦 Model: https://huggingface.co/WeiboAI/VibeThinker-1.5B
💻 GitHub: https://github.com/WeiboAI/VibeThinker
📄 Arxiv: https://arxiv.org/abs/2511.06221
@ai_machinelearning_big_data
#AI #LLM #Reasoning #OpenSource #SmallModel
✔️ ElevenLabs Scribe v2 Realtime: STT-модель с задержкой менее 150 мс.
ElevenLabs представила Scribe v2 Realtime, новую модель Speech-to-Text, разработанную для задач, требующих минимальной задержки: голосовых агентов, ассистентов для совещаний и создания субтитров в реальном времени. Система обрабатывает речь с задержкой менее 150 мс, поддерживает более 90 языков и демонстрирует точность 93.5% по 30 популярным языкам. Особое внимание уделено работе с аудиозаписями, содержащими фоновый шум.
Фишкой модели стала «отрицательная задержка» - функция предсказывания следующего слова и знака препинания. Также есть автоматическое определение языка, обнаружение голоса и полный контроль над фиксацией сегментов транскрипции. Сервис готов к корпоративному использованию (SOC 2, GDPR) и уже доступен через API.
elevenlabs.io
✔️ Backboard установила рекорд в тесте долговременной памяти для ИИ.
Платформа для ИИ-агентов Backboard достигла рекордного показателя в 90.1% в бенчмарке LoCoMo, предназначенном для оценки долговременной диалоговой памяти. Это лучше предыдущих показателей популярных библиотек, которые находились в диапазоне 67–69%.
LoCoMo тестирует способность системы запоминать, обновлять и извлекать факты о пользователе и контекст диалога на протяжении многих сессий. Высокий балл означает, что ассистенты будут лучше следовать инструкциям, реже переспрашивать и требовать более коротких промптов, что снижает расход токенов.
Backboard предоставляет API для долгосрочной памяти, мультимодельный API для роутинга между 2200+ LLM и RAG-слой. Все результаты теста воспроизводимы - скрипты, логи и промпты опубликованы на GitHub.
backboard.io
✔️ Две трети топовых ИИ-компаний допустили утечку секретов на GitHub.
Компания по облачной безопасности Wiz обнаружила, что 65% компаний из списка Forbes AI 50 допустили утечку API-ключей, токенов и других учетных данных на GitHub. По словам исследователей, это могло привести к раскрытию приватных моделей, данных обучения или внутренней структуры организаций.
Чаще всего секреты находили в файлах Jupyter Notebook и Python-скриптах. Среди утечек были токены Hugging Face, Azure и W&B. В одном из случаев скомпрометированный токен Hugging Face мог открыть доступ к тысяче приватных моделей.
Wiz публично назвала только ElevenLabs и LangChain, отметив их быструю реакцию. При этом почти половина всех уведомлений об утечках, отправленных другим компаниям, осталась без ответа.
wiz.io
✔️ Cloudflare запустила поддержку Python в сервисе Workflows.
Cloudflare объявила о поддержке Python в своем сервисе Workflows, предназначенном для создания и управления многоэтапными процессами на платформе Workers. Раньше инструмент был доступен только для TypeScript.
Новшество открывает сервис для сообщества Python-разработчиков, специализирующихся на AI/ML и обработке данных. В качестве примеров использования компания приводит оркестрацию конвейеров данных, обучение ML-моделей и создание сложных ИИ-агентов, архитектура которых упрощается за счет встроенной обработке ошибок и сохранению состояния. Технически часть реализована через Pyodide — порт CPython в WebAssembly.
blog.cloudflare.com
✔️ OpenAI тратит на Sora около 15 млн. долларов в день.
По оценкам аналитиков, затраты на видеогенератор Sora обходятся OpenAI в $15 млн. в день, что в годовом выражении превышает $5 млрд. Расчеты основаны на стоимости генерации одного 10-секундного ролика, которая составляет для компании около $1.3, и предполагаемом объеме в 11 млн. видео ежедневно. Несмотря на убыточность, OpenAI, вероятно, следует классической стратегии захвата рынка, стремясь сначала сформировать аудиторию, а уже потом искать пути монетизации. Бесплатный доступ также насыщает компанию огромным количеством данных для дальнейшего обучения моделей.
Впрочем, Сэм Альтман уже подтвердил, что компания планирует сокращать объемы бесплатной генерации. По его словам, ни одна рекламная модель не сможет покрыть расходы на создание «забавных мемов для трех друзей».
forbes.com
@ai_machinelearning_big_data
#news #ai #ml
💡 GPT-5 и Sudoku-Bench, почему новые модели всё ещё ломаются на судоку
Sakana AI представили Sudoku-Bench - набор классических и продвинутых судоку-задач, который проверяет не память модели, а её способность рассуждать, понимать новые правила и держать всю логику пазла в голове.
Они протестировали современные модели, включая GPT-5 и методы тонкой настройки вроде GRPO и thought-cloning.
Главное:
GPT-5 стала первой моделью, которая уверенно решает часть сложных задач и показала около 33 % успешных решений на наборе challenge_100. Ранее ни одна LLM не справлялась даже с обычным 9×9.
Но треть решённых - это всё ещё мало: большая часть задач остаётся нерешённой, особенно варианты с необычными правилами.
Ключевая трудность в том, что такие головоломки требуют не просто следовать правилам, а уметь понять незнакомые ограничения, найти стратегию «входа», просчитывать ходы вперёд и сохранять глобальную согласованность. Модели часто делают правильные локальные шаги, но теряют общую структуру.
GRPO и thought-cloning дают улучшения, но пока не позволяют моделям преодолеть сложные варианты. Даже с обучением на человеческих примерах ИИ быстро «запутывается» в длинных логических цепочках.
Sudoku-Bench - это тест на реальное рассуждение, а не на подбор паттернов. Он проверяет пространственное мышление, логику, способность адаптироваться и работать с новыми правилами. Прогресс на таких задачах - показатель движения к более структурному и осмысленному ИИ.
Авторы предлагают Sudoku-Bench как стандарт, по которому можно судить, насколько модели действительно умеют думать. Для будущих систем важны не просто большие параметры, а развитая логика, планирование и умение работать с новыми структурами задач.
@ai_machinelearning_big_data
#ai #ml #sakana
✔️ Google выпустил новый 50-страничный документ о том, как создавать AI-агентов, которые реально работают в практических задачах
Это понятное и структурированное введение в основы агентных систем.
В гайде рассматриваются:
- архитектура агента и его основные компоненты
- роль LLM как «мозга» агента
- подключение и использование инструментов
- оркестрация нескольких агентов
- подходы к деплою и продакшн-интеграции
- метрики и способы оценки работы
- как создаются самообучающиеся и эволюционирующие агенты
- пример архитектуры AlphaEvolve
📌 Гайд: https://drive.google.com/file/d/1C-HvqgxM7dj4G2kCQLnuMXi1fTpXRdpx/view
@ai_machinelearning_big_data
#AI #Agents #Google #LLM #MachineLearning #AIResearch
🔎 Upscale-LoRA мощный инструмент для восстановления изображений
Модель создана на базе Qwen-Image-Edit-2509 и предназначена для улучшения качества старых или низкокачественных фотографий.
Поддерживает: улучшение резкости, удаление шума, восстановление деталей и очистку JPEG-артефактов.
Подходит для архивных снимков, скринов и любых изображений с низким разрешением.
https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA
@ai_machinelearning_big_data
#Upscaler