tsingular | Unsorted

Telegram-канал tsingular - Технозаметки Малышева

2603

Новости инноваций из мира искусственного интеллекта. 🤖 Всё об ИИ, ИТ трендах и технологической сингулярности. Бесплатный бот для подписчиков: @ai_gptfreebot автор: @mbmal канал личный. Поддержка: https://pay.cloudtips.ru/p/c8960bbb

Subscribe to a channel

Технозаметки Малышева

Киберпанк на удалёнке в действии.

Операторы с Филиппин за $250 в месяц управляют роботами-мерчендайзерами в Японии.

Интересно, как быстро японцы накопят достаточно данных, чтобы оставить филиппинских операторов без работы.

#роботы
------
@tsingular

Читать полностью…

Технозаметки Малышева

Извините, но это непосредственно относится к ИИ и датацентрам.

Только вот в Дубае на Gitex было разговоров про G42 и тут такое

Кто бы мог подумать:

❗️Американская разведка получила информацию о том, что ОАЭ передали критически важные оборонные технологии компании Huawei, которая помогла Китаю в разработке ракетных комплексов класса «воздух-воздух» увеличенной дальности, что дало китайским истребителям преимущество перед американскими аналогами, - сообщает Financial Times


Базирующаяся в Объединенных Арабских Эмиратах технологическая компания G42 разрабатывала с помощью ИИ технологии модернизации ракет большой дальности, запускаемых с истребителей. Конфиденциальная американская информация, переданная G-42 Китаю, помогла модернизировать ракеты PL-15 и PL-17.
source

#G42 #UAE #Китай
———
@tsingular

Читать полностью…

Технозаметки Малышева

немного неочевидного, но кому-то может пригодится.

У LM Studio на Linux установка и запуск по умолчанию только с экраном.

Но, допустим, у нас терминал и арендованный где-то сервак с GPU без экрана.
И мы по какой-то причине очень хотим именно LM Studio, а не vllm или ollama.

Оказывается выход есть:

sudo apt update && sudo apt install libfuse2
sudo apt install xvfb
mkdir ~/LMS
cd ~/LMS
wget https://installers.lmstudio.ai/linux/x64/0.3.30-2/LM-Studio-0.3.30-2-x64.AppImage
chmod +x LM-Studio-0.3.30-2-x64.AppImage
xvfb-run -a ./LM-Studio-0.3.30-2-x64.AppImage --no-sandbox >lms.log 2>&1 &
~/.lmstudio/bin/lms bootstrap
source ~/.bashrc
lms server start
lms get gemma3


Profit

#dev #LMS
———
@tsingular

Читать полностью…

Технозаметки Малышева

ChatGPT официально достиг человеческого уровня интеллекта

Ему выдали $10 000 и отправили торговать криптой — за неделю он слил $7200, проиграв 42 сделки из 44.

Но ИИ не сдаётся и продолжает сливать в надежде отыграться.

Следим за драмой тут:
https://nof1.ai

Китайцы пока уверенно ведут. :)

#chatGPT #юмор
———
@tsingular

Читать полностью…

Технозаметки Малышева

Интересный вариант двухколесного робота делают китайские товарищи.

Причём с учётом того, что компания делает инвалидные коляски вообще,- выглядит как прототип будущей платформы для людей с ограничениями.

Ибо стабилизатор там очень надёжно выглядит.

/* место для ваших идей, где еще нужен такой стабилизатор */

#XSTO #bipedal #Китай
------
@tsingular

Читать полностью…

Технозаметки Малышева

Alibaba выпустила AI-очки за $660 на базе Qwen3

Alibaba запускает Quark AI Glasses по цене $660 (со скидкой $560) с встроенным AI ассистентом на базе Qwen3.

Очки умеют переводить в реальном времени, звонить и стримить музыку. Прямой конкурент Ray-Ban, Xiaomi AI Glasses и Google Glasses.
Старт продаж в декабре.

Alibaba агрессивно идёт в потребительский сегмент с прикладными AI решениями с момента обновления облачного бизнеса.

#Alibaba #Qwen #SmartGlasses #Китай
------
@tsingular

Читать полностью…

Технозаметки Малышева

Чисто я после покупки видеокарт :)

Упрекали, что нет рекламы на канале.
Вот,- реклама из 90х. :)

#юмор #GPU #АМАТА
------
@tsingular

Читать полностью…

Технозаметки Малышева

Сделайте пожалуйста ЭЯЙ :)

#юмор
———
@tsingular

Читать полностью…

Технозаметки Малышева

OpenEnv: Hub для агентских окружений

Hugging Face запустили OpenEnv — открытый хаб для создания изолированных окружений, где ИИ-агенты получают только нужные инструменты и API для конкретной задачи.

Техническая начинка:
- Унифицированные API: step(), reset(), close()
- Docker-изоляция для безопасного выполнения
- Автоматическая интеграция с TorchForge, TRL, VeRL, SkyRL
- Встроенная поддержка MCP-инструментов и CodeAct
- Human-in-the-loop тестирование прямо в хабе

Что уже можно:
- Загружать окружения в Hub и автоматически получать UI для тестов
- Тестировать агентов на реальных задачах без написания кода
- Использовать общее окружение для RL-обучения → тестирования → прода
- Воспроизводить SOTA методы типа Code World Model от FAIR

#OpenEnv #TorchForge #HuggingFace
------
@tsingular

Читать полностью…

Технозаметки Малышева

🧠 Anthropic проверила, могут ли LLM понимать скрытые мотивы людей

Исследователи из Anthropic опубликовали новую работу, где проверили, насколько большие языковые модели (LLM) способны замечать намерения и скрытые мотивы за сообщениями — например, когда кто-то говорит что-то не из-за убеждений, а потому что ему заплатили или он хочет повлиять на мнение.

🔍 Суть эксперимента

Моделям давали тексты с разными источниками сообщений:
- нейтральные примеры, обычные советы или отзывы без выгоды для автора;
- скрытые мотивы, когда человек получает оплату или имеет выгоду (например, реклама под видом совета);
- явные предупреждения, где в тексте упоминалось, что «автор получает деньги за это».

Задача моделей - оценить, насколько можно доверять сообщению и заметить, есть ли скрытый интерес.

🧩 Результаты

На простых синтетических примерах (где мотив очевиден) LLM-ы действовали почти как люди и могли логически объяснить, что сообщение может быть предвзятым.

Но в реальных кейсах, например, в рекламных текстах или постах с платной интеграцией — модели часто не видели подвоха. Они воспринимали сообщения как искренние и достоверные.

Если модель напомнить заранее (prompt-hint), что стоит искать скрытые мотивы, результаты улучшались, но не сильно - эффект был частичный.

🧠 Неожиданный эффект

Оказалось, что модели с длинными цепочками рассуждений (chain-of-thought) хуже замечали манипуляции.
Когда модель начинает подробно рассуждать, она легче “запутывается” в деталях и теряет критичность к источнику, особенно если контент длинный и эмоциональный.

Чем длиннее и сложнее сообщение, тем хуже модель оценивает предвзятость. Это контрастирует с человеческим поведением: люди обычно, наоборот, становятся подозрительнее при сложных рекламных текстах.

Современные LLM могут анализировать факты, но слабо понимают мотивы, но им трудно различить, почему кто-то что-то говорит.

Это делает их уязвимыми для скрытого влияния, особенно если текст замаскирован под дружеский совет или экспертное мнение.

При использовании LLM для анализа новостей, рекомендаций или рекламы важно учитывать, что они могут не распознать коммерческую предвзятость.

📄 Исследование: arxiv.org/abs/2510.19687

@data_analysis_ml

Читать полностью…

Технозаметки Малышева

n8n начало 😀

#1С #АРМ
------
@tsingular

Читать полностью…

Технозаметки Малышева

Microsoft запустила Copilot Mode в Edge

Microsoft официально выкатила Copilot Mode в браузере — каждая новая вкладка теперь открывает чат, где можно задать вопрос, поискать или ввести URL.

Ассистент анализирует все открытые вкладки сразу, может сравнивать товары между ними или суммировать инфу.

В превью появились агентные фичи: отписка от рассылок, удаление писем, бронирование столиков в ресторанах.

Но пока работает через раз.

В ходе тестов Copilot соврал про отправку письма в Gmail и перепутал октябрь с ноябрем при бронировании.

В самом интерфейсе висит предупреждение: "для исследований и оценки, может ошибаться".

Спасибо, хоть, без синего экрана смерти.
Ну и, как всегда, вопрос о безопасности передачи данных между вкладками.
"Правильно" проинструктированный ИИ отправит их и куда надо и куда не надо.

И теперь понятно, кстати, чего так Альтман спешил давеча с Атласом.

#Edge #CopilotMode #Microsoft
------
@tsingular

Читать полностью…

Технозаметки Малышева

Toucan: 1.5М реальных сценариев работы ИИ-агентов с инструментами

IBM и University of Washington выкатили Toucan — датасет с 1.5 млн реальных траекторий вызовов API через 2000 веб-сервисов.
Не синтетика, а реальные цепочки вызовов: от планирования до исполнения.

В итоге малые модели Qwen-2.5 (7B-32B), дотренированные на Toucan, обогнали GPT-4.5-Preview на бенчмарке BFCLv3 - модель в триллион параметров против 32 миллиардов.

20% сценариев учат параллельным вызовам инструментов для экономии токенов и времени.

Датасет в 5 раз больше ближайшего конкурента (Nemotron от Nvidia с 310k траекторий).

В датасете в том числе собраны цепрчки вызовов MCP серверов с GitHub и Smithery.ai.
Для этих целей было отобрано 500 рабочих MCP-серверов.

Ещё планируют добавить свежие инструменты и создать RL-gym для агентов

#Toucan #MCP #IBM #dataset
------
@tsingular

Читать полностью…

Технозаметки Малышева

Скрытые предвзятости LLM: чью жизнь ИИ ценит выше

Исследователи из Center for AI Safety показали, что LLM имеют внутренние предпочтения при оценке человеческих жизней.

Автор протестировал актуальные модели (GPT-5, Claude 4.5, Gemini 2.5, Deepseek, Kimi K2) и обнаружил паттерны:

- большинство ценят жизни небелых людей в 8-100 раз выше белых
- женщин предпочитают мужчинам в 2-12 раз
- агентов ICE оценивают в 7000 раз ниже нелегальных мигрантов (Claude Haiku)

Исключение — Grok 4 Fast, единственная не предвзятая модель.

Предпочтения извлекаются через тысячи сравнений вида "$X или спасти Y человек".

Разные метрики (смерть или терминальная стадия болезни) и температура сэмплинга влияют на результаты, но тренд стабилен.

При том, что уже юристы, военные, судьи, программисты ежедневно используют эти модели для создания системы принятия решений, - такой перевес и предвзятость делают решения моделей катастрофичными для огромного количества людей.

Т.е. набрали датасетов в Африке и удивляются предвзятости.

Собирайте датасеты в своих странах и обучайте модели на своих данных.

Те самые версии суверенных национальных ИИ с учётом культурно-экономического контекста каждой отдельно взятой страны.

Но скандал получается знатный. Маск уже назвал Claude чистым злом.

#Bias #Grok #предвзятость
———
@tsingular

Читать полностью…

Технозаметки Малышева

DeepSeek-OCR: Одна картинка стоит тысячи слов

DeepSeek выпустил OCR-модель, которая превращает документы в изображения и обрабатывает их как визуальные токены вместо классических текстовых. Звучит странно, но работает - и может изменить архитектуру LLM.

Попробуем разобраться что за зверь выкатили китайцы на этот раз:
Вместо обработки текста токен за токеном, DeepSeek-OCR рендерит его в картинку и сжимает в визуальные токены.

Один токен изображения заменяет 10-20 текстовых токенов без особых потерь качества.

Ключевые цифры:
- 97% точность при сжатии в 10×
- 60% точность даже при сжатии в 20×
- 100 визуальных токенов против 6000+ текстовых на OmniDocBench
- 200k+ страниц/день обработки на одной A100-40G

Как работает:
DeepEncoder с window+global attention пропускает изображение документа через 16× compressor. Результат — компактное представление, которое LLM легко декодирует обратно в текст.

🔥 Даже Карпатый тут высказался:

"Может, вообще все входы в LLM делать картинками? Даже чистый текст рендерить и подавать пикселями."

Его аргументы:
- Компрессия - контекст в 10-20 раз короче
- Универсальность - не важно что на картинке,- жирный текст, таблица, цвета шрифтов
- Bidirectional attention — пиксели можно смотреть "в обе стороны"
- Смерть токенизатору — уходит весь багаж Unicode, дыры в безопасности, странности с распознаванием эмодзи, когда то, что человек видит одинаково, - машина интерпретирует по разному.

"Vision→text работает. Text→text можно сделать vision→text. Обратно — нельзя."

Карпатый уже планирует переписать наночат версию с пиксельным входом.

На практике это даст:
- Сверх-длинные по нынешним меркам диалоги - старые сообщения превращаются в картинки и сжимаются
- Механизм "забывания" - как в памяти человека: свежее будет чётче, старое размыто
- Безграничные контексты - теоретически возможны через прогрессивное сжатие
- Генерация трейнинг-данных для LLM/VLM в промышленных масштабах

Если идея зайдёт, токенизатор может стать артефактом истории, как дискеты.

Мы наблюдаем реально фундаментальные прорывы в ИИ со стороны Китая.
Эффект количественного превосходства отличников.

#DeepSeek #OCR #Karpathy #Китай
———
@tsingular

Читать полностью…

Технозаметки Малышева

⚡️Первые цветные кадры ТЕРМОЯДЕРНОГО синтеза опубликовал стартап Tokamak Energy — их сняли в реакторе на камеру с частотой 16 000 (!!) кадров в секунду.

Видео жутко залипательное: хорошо видно свечение на краю плазмы — ярко-розовое излучение. Ядро же невозможно рассмотреть потому, что оно слишком горячее — температура превышает МИЛЛИОНЫ градусов.

Полной версией наслаждаемся тут.

🙂 Не баг, а фича

Читать полностью…

Технозаметки Малышева

Просто красивое.

Отсюда:

https://codepen.io/VoXelo/full/dPGKPEN

#dev #threejs
------
@tsingular

Читать полностью…

Технозаметки Малышева

AWS Chronos-2: универсальный прогноз временных рядов

Amazon выкатил Chronos-2 — foundation-модель для прогнозирования временных рядов, которая работает со всем сразу: одиночные ряды, многомерные и с внешними факторами.

Предыдущие версии (Chronos и Chronos-Bolt) скачали 600+ миллионов раз с Hugging Face, но они умели только univariate-прогноз.

Теперь, благодаря group attention механизму для произвольных групп рядов можно, например:
- Прогнозировать CPU, память и IO вместе, ловя зависимости
- Учитывать акции в ритейле или погоду для энергопотребления
- Делать cold-start прогнозы для новых объектов через cross-learning

На fev-bench обходит конкурентов с большим отрывом, особенно на задачах с ковариантами.

На GIFT-Eval — первое место среди pretrained-моделей. Против Chronos-Bolt побеждает в 90%+ случаев.

Модель работает через in-context learning - берёшь и используешь как есть, - zero shot по факту.

GitHub

Paper

#Chronos #TimeSeries #Forecasting
———
@tsingular

Читать полностью…

Технозаметки Малышева

BrainCo - протез руки, контролируемый неинвазивным мозговым интерфейсом.
Т.е. мыслями.

383 грамма.

- Доктор, а я смогу играть на фортепиано?
- конечно!
- поразительно! Ведь раньше то не умел.

Но кроме шуток, - удивительно.
Особенно как он шнурки завязывает.

И это, заметьте,- стартап!
Т.е. без миллиардов госфинансирования!

#протезы #руки #BCI
------
@tsingular

Читать полностью…

Технозаметки Малышева

Уже все социальные пространства обошел мем как Шедевриум (сервис рисования изображений от русского Яндекс) отвечает на промпт

Наш лидер страны на нашем патриотическом празднике на фоне флага


И вот на скриншот от 25 октября вы видите как быстро Яндекс залатал с помощью GuardRails эту проблему...

А почему залатал??? Потому-что побыстрому (да и медленно) заменить обучающую выборку LLM - Яндекс не может

Хотя давно понимает эту проблему и обещал в июне 2025 ее даже решить

"Яндекс" научит нейросеть "Шедеврум" лучше понимать культурный код

Читать полностью…

Технозаметки Малышева

Удивительное дело.

В то время как Штаты расконсервируют АЭС для обеспечения искусственного интеллекта, потому, что это единственный экономически выгодный вариант, а Китай строит их десятками, - Германия сама себя катит в средневековье.

❗️В Германии снесли две 160-метровые градирни на бывшей атомной электростанции «Гундремминген» в Баварии

Управляемый взрыв положил конец некогда крупнейшему реакторному комплексу Германии.

#АЭС #генерация
------
@tsingular

Читать полностью…

Технозаметки Малышева

LTX.studio выпустили собственную модель LTX-2

Абсолютно новый уровень в качестве.

Мало того, что ни могут генерить видео со звуком быстрее реального времени, для проработки черновиков - незаменимо, так еще и максимальное качество доступное в Pro режиме, внимание:

8 секунд 4К х 50 кадров в секунду!!!

Это уже почти IMAX качество генерации.

В Ultra, думаю будет еще выше и дольше.

Есть API.
Пробовать можно тут, если у вас правильная геолокация (есть минимум бесплатных кредитов):
https://app.ltx.studio/ltx-2-playground/t2v

год еще не закончен, а качество уже достаточное для топ кинотеатров.
Сингулярность, - это красиво!

#ltx #нейрорендер
———
@tsingular

Читать полностью…

Технозаметки Малышева

Очень годный нейрорендер делает Автор в запретограмме по мотивам русских классиков.

Там и Бунин и Есенин и Маяковский и Лермонтов и, вот, Пушкин.

Подсказали, - вот его канал в телеге:
@GNeuro
и в ВК
https://vk.com/djbloknote

Инструменты:
Suno
Midjourney
Hedra
Kling
HiggsField

Литература теперь любимый предмет :)

Кстати, для сравнения, был еще такой вариант Пушкина ранее на канале

#стихи #Пушкин #нейрорендер
———
@tsingular

Читать полностью…

Технозаметки Малышева

N8N+SGR

Вы конечно жестко умеете мотивировать 200+ реакций

Миша за сегодня все оформил и выложил, встречаете!

Репо_форк:
https://github.com/vamplabAI/n8n-nodes-sgr-tool-calling


Репо_main: https://github.com/MiXaiLL76/n8n-nodes-sgr-tool-calling


Скачать готовую ноду: https://www.npmjs.com/package/n8n-nodes-sgr-tool-calling

Делимся в коментах куда будете интегрировать!

Читать полностью…

Технозаметки Малышева

Пятничный гимн.

Тут короче был диалог, где зарифмовали скуфов в известном стихотворении Блока и получился такой вот пародийный экспромпт.

Так то мы за ЗОЖ, бег, против курения и алкоголя.
Поэтому слова воспринимать чисто как шутку.

Но вроде весело получилось, так что делюсь.

#скуфы #Suno
------
@tsingular

Читать полностью…

Технозаметки Малышева

Кстати, много народу присоединилось с тех пор как мы вспоминали всяких полезных ботов моих.

Вот, например, есть такой
@Math_learn_bot

С ним можно потренировать устный счёт.

Бот бесплатный. Слегка геймифицированный.

Фишка бота - все примеры вычисляемы в уме. Пришлось долго оптимизировать алгоритм, чтобы это всегда было так.

#dev #боты
------
@tsingular

Читать полностью…

Технозаметки Малышева

🔥 UPDATE OpenAI deactivating: Нашел причину! Критическая уязвимость в LiteLLM

Оказалось проблема была не в IP и не в RU тексте

LiteLLM сливал всю внутреннюю метаданные прокси напрямую в OpenAI

Что утекало

Если клиент передавал хоть какую то metadata (например sessionId в теле реквеста то LiteLLM добавлял к ней ВСЮ внутреннюю инфу прокси хотя должен был писать во внутренний лог

{
"metadata": {
"sessionId": "abc-123", // от клиента
"headers": { // ВСЁ ЭТО УТЕКАЛО
"x-real-ip": "1.2.3.4",
"x-forwarded-for": "5.6.7.8, ...",
"user-agent": "RestSharp/112.1.0"
},
"user_api_key_spend": 287.83,
"endpoint": "https://my-proxy.com/..."
}
}


OpenAI видел
- Все IP адреса через x-forwarded-for
- Что вы используете прокси
- Информацию о расходах и ключах
- User-Agent = автоматизация
- Внутреннюю структуру сервиса

Бан 3 аккаунтов (одному было 2 года обидно)

Как это произошло

У меня появилось приложение клиент которого использует RestSharp для подключения к прокси (популярная C# библиотека 9.8k звезд) просто передавал sessionId для трекинга (честно не знаю то ли это клиент делает то ли разработчик)

metadata = new { sessionId = "abc-123" }

Прям внутрь реквеста к ллм
        "role": "user",
"content": "Привет! Как дела?"
}
],
"temperature": 1,
"metadata": {
"sessionId": "a5b3e26b-18c7-4017-9bcd-c2db6e450f78"
},
"stream_options": {
"include_usage": true
}
}'


И всё LiteLLM начинал сливать всю инфу в OpenAI

Код проблемы пока нашел с курсором но передал так же людям проверить!

https://github.com/BerriAI/litellm/blob/main/litellm/proxy/litellm_pre_call_utils.py#L892

https://github.com/BerriAI/litellm/blob/main/litellm/proxy/proxy_server.py#L7855

https://github.com/BerriAI/litellm/blob/main/litellm/proxy/route_llm_request.py#L122

https://github.com/BerriAI/litellm/blob/main/litellm/llms/openai/chat/gpt_transformation.py#L436


Вы в зоне риска если
Используете LiteLLM Proxy
Клиенты передают metadata
Используете nginx перед LiteLLM
В РФ + VPS за рубежом

Почему у других не было проблем

Большинство клиентов не передают metadata вообще и юзают обычные клиенты на питоне типа AsyncOpenAI

Но если хоть один клиент начинает использовать metadata утечка уже началась....


Кто на LiteLLM и ходит к openai напрямую проверьте это по списку

1 Проверьте логи что реально уходит к провайдеру (сделайте тест с передачей метадаты)

2 Временно запретите клиентам передавать metadata

3 Ждите фикс в LiteLLM (я уже исправил локально скоро PR)



Update всем спасибо за оч полезную инфу выше

Далее буду осторожнее

Со мной такое в первый раз (за один акк прям обидно 2 года ему было)

PS Если у вас LiteLLM прокси срочно проверьте что отправляете провайдеру 🔥

Читать полностью…

Технозаметки Малышева

ИИ как рабочий хаб — рекомендации от Perplexity.

Perplexity можно использовать без VPN, что сейчас уже половина удобства. Бесплатная версия подходит для ежедневного использования. Оплатить можно через мобильный счет, а внутри платной версии — все современные модели: GPT-4o, Claude, Mistral, Gemini и собственная модель Perplexity.

Perplexity для меня — полноценная замена поисковику и альтернатива ChatGPT, когда есть необходимость. Так что эта новость мне зашла:

Сервис выпустил подробный гайд по использованию ИИ для рабочих задач. Изучаем.

Читать полностью…

Технозаметки Малышева

Higgsfield.ai выкатили нанобанану для видео.

HiggsField Popcorn - меняет актеров в видеоряде с удержанием консистентности в пределах 8 секунд.

В качестве референса можно загрузить до 4х фото и расписать до 4х сцен последовательно с отдельным описанием для каждой.
таким образом можно получить пол минуты разных планов с одинаковыми героями в кадре.

Есть ежедневные бесплатные кредиты.
Для генераций в бОльшем объеме нужна платная подписка от $9 в месяц. С Veo3 - от $17 (сейчас скидки у них).

Под капотом - Veo 3.1. Функционал сам по себе оттуда.
Не забываем, что Higgsfiled - обёртка над различными генераторами типа:
Veo3, Hailuo 02, Seedance Pro, Kling 2.1, Kling 2.5, Wan 2.2, Wan 2.5, Sora 2, Veo 3.1

Но удобно, что у них такой вот общий редактор-комбайн с единым интерфейсом.

#HiggsFiled #Veo #нанобанана #нейрорендер
———
@tsingular

Читать полностью…

Технозаметки Малышева

🤔 А что, если Дубай был СССР

Читать полностью…
Subscribe to a channel