19433
Области интересов канала: блокчейн, мозг(BCI), space tech, цифровая экономика, WEB 3.0 в России и мире. Основатель @AniAslanyan English channel https://t.me/alwebbci Регистрация в перечне РКН https://knd.gov.ru/license?id=67374142772bb113f528001c®is
Итоги уходящей недели, то, что имеет значение в России и мире
Квантовый компьютер Google превзошёл суперкомпьютер в 13 000 раз.
ИИ, агенты
Обзор интервью сооснователя OpenAI Андрея Карпатый о слабости современных агентов, об экономике AGI, о будущем LLM, обучения ИИ-моделей и критике RL.
Глава по продукту Google заявил, что в 2026 году основной темой станет ИИ в науке, а AGI потребует нейроморфных чипов.
#DeepSeek-OCR — новая модель для извлечения текста из документов, которая не просто читает, а понимает структуру документа и работает с разными форматами вывода.
BADAS 1.0 от Nexar — новая модель для предсказания и предотвращения автомобильных аварий, обученная на 10+ млрд реальных миль и 60+ млн реальных событий.
Anthropic и создатель ChatGPT разработали ИИ-агента аудитора.
Ring-1T от Ant Group — модель с триллионом параметров, где активны ~50 млрд параметров на токен для задач рассуждения.
Sandbox в Claude Code — новая песочница позволяет точно определять, к каким директориям и сетевым хостам имеет доступ агент (инструмент открыт в open source).
Иордания запустила в школах страны ИИ-агента.
Ctrl-World от Stanford и Tsinghua — управляемая модель мира, которая работает с новыми окружениями, камерами и объектами без доп обучения. Хороша для робототехники и агентов.
Meta* увольняет команду FAIR-одну из лучших мировых лабораторий по ИИ.
Google Skills — совместно с UCL запустили бесплатный курс AI Research Foundations.
OpenAI представила браузер, интегрированный с ChatGPT и агентным режимом.
Anthropic представили версию Claude для научных исследований.
Эта работа позволяет определить, была ли новая модель получена через файн-тюнинг.
Aegaeon от Alibaba — система GPU-пулинга, которая сокращает использование чипов Nvidia на 82%.
Google продаст Anthropic свои TPU-чипы (1 млн штук) мощностью более 1 ГВт, развёртывание начнётся с 2026 года.
STAT от Princeton — метод адаптивного обучения, использующий модель-супервайзера для повышения производительности студенческих моделей на 7%+.
Meta представила исследование непрерывного обучения LLM
Nvidia объявила о создании дата-центра в космосе, первый запуск запланирован на ноябрь.
МЕДИЦИНА И БИОТЕХНОЛОГИИ
Science (конкурент Neuralink) — вернул зрение 80% слепых пациентов с помощью имплантата PRIMA.
CoMind — стартап по мониторингу мозга с ИИ привлёк $102,5 млн инвестиций.
Morgan Stanley прогнозирует выручку от BCI-имплантов более $12 млрд за 2030-2045 годы.
Mayo Clinic становится хабом для ИИ-проектов. В этом году фокус на психиатрии, нейро, онкологии и CareOps.
Tahoe-x1 (Tx1) — первая open-source модель с 3 млрд параметров для анализа одиночных клеток, показывающая лучшие результаты в задачах онкологии и предсказании генной эссенциальности.
КРИПТОВАЛЮТЫ И ФИНАНСЫ
BlackRock призывает крупных держателей биткоина переводить монеты в биржевые фонды (ETF), интегрируя их в систему Уолл-стрит.
ФРС США дала допуск криптокомпаниям к своей платёжной системе.
a16z — в отчёте сообщили, что более 1% всех денег в мире теперь в стейблкоинах.
ЕС ввёл новые санкции на крипту для россиян. Разбор.
*запрещенная в РФ организация.
ЕС ввели новые санкции на крипту для россиян. Объясняем кого это коснется и как с этим жить
Важно понимать, что санкции в основном бьют по инфраструктуре, а не по обычным пользователям, об этом ниже в этом посте.
Что запрещает ЕС?
1. использование стейблкоина A7A5, разработанный для обхода санкций. Запрещены все операции с ним в ЕС.
2. Криптоуслуги для россиян в юрисдикции ЕС, включая торговлю, обмен и ПО для платежей.
3. Любые криптотранзакции россиян в ЕС, включая BTC, USDT, если они связаны с РФ.
4. Транзакции с 5 банками РФ, 5 банками Центральной Азии, системами «Мир» и СБП.
Как это коснётся обычных россиян?
1. Ограничения на биржах ЕС: Транзакции на европейские кошельки или P2P-обменники могут блокироваться, усложняя вывод в евро.
2. Проблемы с альтернативами: Без A7A5 придётся использовать USDT/BTC, но биржи усилят KYC — риск заморозки счетов растёт. Фрилансерам и эмигрантам грозят задержки и комиссии.
3. Волатильность в РФ: Крипта внутри страны пока доступна, но цены могут вырасти, а мелкие обменники — попасть под блокировки.
4. Риски для пользователей: Хранение крипты и оплаты станут дороже из-за комиссий. Россиян в ЕС ждёт запрет на криптоаккаунты, но децентрализованные кошельки MetaMask пока работают с рисками.
Эффект санкций умеренный — переходите на азиатские платформы Bybit, OKX и тд, но будьте готовы к нестабильности и проверкам.
Одна из самых крутых больниц мира Mayo становится хабом для ИИ-проектов
Mayo Clinic инвестирует в инфраструктуру данных и инновации, становится не просто больницей, но и акселератором + венчурным инвестором, переосмысливая роль современных медучреждений.
Mayo Clinic - одна из лучших клиник мира объявила о 6-й когорте из 11 ИИ-стартапов в своей программе акселерации.
Фокус этого года - психиатрия/нейро, онкология и CareOps(операционная эффективность).
Клинический фокус смещается в сложные области:
- Психическое здоровье и неврология
- Онкология вместо более зрелых областей вроде радиологии.
3 стартапа по профилактике:
1. MyAtlas: AI + носимые устройства для предотвращения кризисов психического здоровья
2. Kanjo: Ранняя персонализированная помощь при ADHD и аутизме
3. PromedAI: Домашний AI-скрининг для общей профилактики
2 стартапа в тераностике (диагностика + лечение):
- MedLink Global: AI-психиатрия для диагностики и персонализированного лечения
- Bowhead Health: Предсказание геномных мутаций рака на основе изображений
Nvidia тут хайпанула и объявила, что создает дата-центр в космосе, причем в ноябре уже 1-й запуск
Напомним, что тема цодов в космосе стала популярна у Безоса, Хассабиса и Альтмана.
Дело было вчера, Nvidia опубликовала пост в блоге о партнёрстве со стартапом Starcloud. Они запускают в ноябре спутник Starcloud-1.
Весом ~60 кг на ракете SpaceX Falcon 9. Внутри — их GPU H100 для теста ИИ-вычислений в космосе.
Цель - создать орбитальные дата-центры, питаемые солнцем (солнечные панели до 4 км в ширину для будущих версий) и охлаждаемые вакуумом космоса как "бесконечным радиатором".
Обещают 10x дешевле энергии, чем на Земле даже с учётом запуска, и меньше нагрузки на экологию (нет воды для охлаждения).
Причём уже к 2030+ обещает Nvidia гигаваттные орбитальные дата-центры для ИИ-задач. А Crusoe - ещё один партнёр хочет сделать это публичным облаком.
Вот на что обращают внимание критики:
1. Самый популярный хейт - физика не сходится. Вакуум — отличный изолятор, а не "бесконечный х Sink". Тепло придётся излучать инфракрасным излучением, что требует огромных радиаторов, делает конструкцию уязвимой и менее эффективной. "Космическое охлаждение" — маркетинг, на деле сложнее, чем на Земле.
2. GPU не устойчивы к космическим лучам — это вызовет ошибки в вычислениях. Нужно специальное экранирование, что добавит вес/стоимость.
3. Данные с орбиты до Земли — задержки в миллисекундах, что фатально для реал-тайм ИИ. Подходит только для оффлайн-задач вроде анализа спутниковых снимков.
4. Ракета расходует больше топлива/CO2, чем сэкономит дата-центр за годы.
5. Запуск H100 ($30k) + спутник — миллионы. Обслуживание? Невозможно — один микрометеорит, и привет. GPU устаревают за 2–3 года, а спутник висит 5+.
Глава по продукту Google заявил, что в 2026 основной темой станет ИИ в науке, а не программирование, как сейчас. AGI потребует новой парадигмы, возможно, нейроморфных чипов.
Логан Килпатрик на подкасте обсудил несколько тем, связанных с развитием ИИ и моделями Google Gemini.
Вот основные интересные моменты:
1. Логан сказал, что сегодня компания уделяет внимание агентам для "компьютерного использования" и "голосового взаимодействия в реальном времени", где Gemini будет обрабатывать разговоры в онлайне с низкой задержкой, как в Project Astra.
2. Логан намекнул, что релиз Gemini 3.0 состоится совсем скоро, но не раскрыл деталей, отметив, что анонс на подкасте был бы неуместен.
3. Логан считает, что узкая специализация на программировании ограничивает позитивный перенос знаний и мешает достижению глобального оптимума. Google делает ставку на создание универсальной модели высокого качества.
4. Логан придерживается мнения, что AGI будет проявляться через продукты. Например, в программировании модель может стать в 10 раз эффективнее, превосходящей человеческие способности, несмотря на текущие недостатки.
5. По его мнению, мы ближе к созданию сверхчеловеческих ИИ-способностей, чем к полноценному AGI. Для достижения AGI потребуется прорыв в фундаментальных исследованиях, которого пока не произошло. AGI потребует новой парадигмы, возможно, нейроморфных чипов.
6. Логан прогнозирует, что в 2026 году основное внимание в ИИ сместится с программирования на науку. Проекты, такие как Co-scientist и Cancer Gemma, будут развиваться, ускоряя научные открытия с помощью ИИ.
7. Предсказал, что к 2026 агенты станут "личными ассистентами" — от планирования поездок до автоматизации email.
8. Коротко коснулся OpenAI и Anthropic — Все мы строим на похожем стеке, но Google выигрывает за счет данных из Search и YouTube. Не критиковал, но сказал, что подход Gemini делает его универсальнее для разработчиков.
Александр Ван 28-летний СЕО лабы по суперИИ от Meta* увольняет FAIR-одну из лучших лабораторий мира по ИИ
Янн Лекун, главный ИИ-учёный Meta не комментировал ещё, но аналитики предупреждают об "утечке мозгов" — многие уволенные могут уйти в Anthropic и тд. О новой лаборатории по суперИИ читайте тут.
Речь идёт о массовом увольнении ~ 600 сотрудников из подразделения по ИИ, включая Facebook AI Research (FAIR) — ведущую исследовательскую лабораторию Meta по ИИ.
Среди пострадавших — директор по исследованиям FAIR Юйдун Тянь, а также многие исследователи, инженеры и менеджеры.
Сотрудники в шоке. В корпоративных чатах много жалоб на "неожиданность". Цукерберг якобы провёл встречу с топ-менеджерами, но публичного заявления не было. Это уже 5-я волна увольнений в Meta с 2022 года (всего уволено >30k человек).
FAIR — это подразделение Meta, основанное в 2013 году. Оно занимается фундаментальными исследованиями в области ИИ, включая машинное обучение, обработку естественного языка и компьютерное зрение. FAIR сыграло ключевую роль в разработке LLaMA и других инструментов.
*запрещенная организация в России.
Прорыв от Google: квантовый компьютер впервые превзошел суперкомпьютер в 13 000 раз
Отметим, что ИТ-гигант в этом году получил Нобелевскую премию за квантовую механику.
Google опубликовала в Nature статью о квантовом алгоритме Quantum Echoes на процессоре Willow. Другие работы Google в этом направлении тут.
Команда сейчас измерила распространение информации в квантовой системе (OTOC²) на 65-105 кубитах.
Эксперимент длился 2.1 часа на Willow против 3.2 года на суперкомпьютере Frontier, что значит в 13 000 раз быстрее.
Интересный факт, эксперимент на 40 кубитах занял 3 часа точного расчёта на облаке Google и 6 дней симуляции на NVIDIA H100 для достижения той же точности методом Monte Carlo.
Получается, впервые результат можно воспроизвести на другом квантовом компьютере.
Также показали определение параметров квантовых систем.
Но как пишут сами авторы - это была игрушечная задача. До практики далеко — нужны миллионы кубитов, есть пока 105.
Morgan Stanley говорит о BCI инвесторам: выручка от имплантов превысит $12 млрд за период 2030-2045
Аналитики Morgan Stanley считают, что нейроинтерфейсы (BCI) пройдут путь от медицинского применения к масс-маркету. Рынок только в сфере здравоохранения США оценивается в $400 миллиардов, и эта оценка может быть консервативной.
Прошлогодний доклад от MS тут.
Крупнейшие рынки для BCI по заболеваниям:
- Депрессия: $180 млрд
- Эпилепсия: $66 млрд
- Инсульт: $48 млрд
К 2045 году проникновение BCI достигнет ~2.8%, что эквивалентно 270,000 пациентам с имплантами и совокупной выручке от имплантов в $12+млрд в период с 2030 по 2045 год.
По оценкам Morgan Stanley, Neuralink лидирует среди компаний, так как:
Оценка компании: $9 млрд
Привлечено уже $1.34 млрд инвестиций.
На очереди — 10,000 желающих получить имплант.
Поэтапный подход развития Neuralink отмечается, тут кстати отдельно мы писали.
Также отмечают различия между конкурентами. Разные подходы к решению:
Neuralink делает инвазивный BCI, проникает в мозг, тем самым больше рисков
Synchron - BCI через кровеносные сосуды — менее рискованно, партнеры Amazon, Apple
Precision - BCI на поверхности мозга — компромисс
Merge Labs Сэма Альтмана - BCI неинвазивный через ультразвук безопасный, но эффективность под вопросом
Выделяется Китай со своей государственной программой развития BCI.
Отчет Morgan Stanley представляет такое развитие событий по внедрению BCI:
2025-2030: Медицинские применения, регуляторные одобрения
2030-2045: Массовое распространение в медицине, 270,000+ пользователей
После 2045: Выход на массовый потребительский рынок:
- Нейрогейминг (играть силой мысли)
- Военные применения
- Трансгуманизм
- Симбиоз с ИИ
Google продаст свои чипы TPU на $20-50млрд Anthropic
Если сделка состоится, то будет альянс Anthropic + Google против OpenAI + Microsoft/Nvidia. Google монетизирует облако, а Anthropic получает доступ к топовым чипам.
Это гонка за compute. Anthropic нуждается в масштабировании. TPU от Google — это стратегический шаг, чтобы не зависеть только от AWS и Nvidia.
Что в сделке?
Google предоставит Anthropic вычислительные мощности (TPU v5e/v6) для обучения и работы Claude.
Broadcom, поставщик чипов и сетей для TPU, может получить ~$10 млрд от расширения Anthropic. Это часть их ИИ-пайплайна ($6–9 млрд/год от Google).
Сумма контракта — от $20 до $50+ млрд.
ФРС США решила дать допуск криптокомпаниям пользоваться своей платёжной системой
На конференции по инновациям в платежах Федеральная резервная система США объявила о планах ввести «упрощённый мастер-счёт».
Это позволит финтех-компаниям, эмитентам стейблкоинов и другим юридически соответствующим организациям напрямую подключаться к платежным рельсам ФРС, минуя банки-посредники.
Что это значит?
1. Прямой доступ к переводам и расчётам для компаний, таких как Kraken, Ripple или Custodia Bank.
2. Упрощённый счёт не даёт всех привилегий банков, например, займы у ФРС, но снижает барьеры для новых игроков.
3. Доступ получат только те, кто соответствует требованиям ФРС.
Такой шаг поддерживает инновации, усиливает конкуренцию и может удешевить платежи для пользователей. Для криптокомпаний это шанс стать ближе к традиционной финансовой системе, сохраняя при этом регуляторный контроль.
Самая крупная инвесткомпания BlackRock хочет больше контроля над биткоином
По данным Bloomberg, компания призывает крупных держателей биткоинов переводить свои монеты в биржевые фонды (ETF), интегрируя их в систему Уолл-стрит.
Руководитель отдела цифровых активов BlackRock Робби Митчник сообщил, что компания уже обеспечила конвертацию биткоинов на сумму более $3 млрд в акции ETF.
Рынок криптовалют не такой, как мир традиционных финансов, где оперируют BlackRock и другие "старые игроки".
Основное различие — в децентрализованной природе крипты и ее независимости от традиционных финансовых институтов.
BlackRock, по сути, пытается приручить биткоин, сделать его частью своей системы, чтобы он соответствовал их правилам и интересам. Это может быть выгодно для ликвидности и массового принятия криптовалют, но вызывает вопросы у сторонников децентрализации, которые видят в этом попытку подчинить свободный рынок контролю Уолл-стрит.
Потенциальные риски и нюансы:
1. Для держателей биткоинов: - Перевод активов в ETF может означать утрату прямого контроля над своими монетами. - Ты больше не владеешь приватным ключом, а доверяешь свои активы управляющей компании.
2. Для рынка крипты. Если значительная часть биткоинов окажется в ETF, это может привести к большей централизации.
3. Для BlackRock - способ заработать на растущем интересе к криптовалютам, не погружаясь в хаотичный и нерегулируемый рынок напрямую.
Андрей Карпатый: AGI не даст экономэффекта для ВВП и появится через 10 лет, а не через год
Продолжаем изучение интервью, экс- директора по ИИ Tesla и сооснователя OpenAI Андрея Карпатый об ИИ и почему большинство прогнозов хайповые. #часть2 , #часть1 тут.
Для полноценного AGI нужен ИИ, способный работать как сотрудник или стажёр — мы далеки от этого. Он может появиться через десятилетие.
Одно из самых ярких утверждений Андрея - AGI не изменит экономику, он растворится в той же 2% экспоненте роста ВВП, которая существует последние 200+ лет.
Карпатый признаётся: «Какое-то время я пытался найти ИИ в кривой ВВП. Я думал, что ВВП должен подскочить из-за ИИ. Но потом посмотрел на другие технологии — компьютеры, мобильные телефоны, интернет. Их тоже не видно на графике ВВП».
ИИ = ещё один набор инструментов в континууме автоматизации, а не дискретное добавление людей.
С ИИ мы увидим больше автоматизации. Это позволяет нам писать другие виды программ, которые мы не могли раньше. Но ИИ — это всё ещё программа.
Практические выводы
Для инвесторов и предпринимателей. Не ждите мгновенной революции. Стройте проекты для постепенного внедрения.
Для общества. Постепенная потеря контроля и понимания. Но это не внезапный коллапс. Будут десятилетия для адаптации, регулирования, построения новых институтов.
Для исследователей. Ещё огромное количество работы:
- Непрерывное обучение
- Культура между агентами
- Новые парадигмы обучения
- Интеграция с физическим миром
- Безопасность и надёжность
Это все десятилетие работы, может быть больше.
Карпатый подозрительно относится к идее, что существует 1 простой алгоритм, который можно выпустить в мир, и он научится всему с 0.
Он критикует RL, говоря так - это "высасывание информации через соломинку". Когда модель решает задачу после множества попыток, RL просто увеличивает вес всей успешной траектории, даже если по пути были неправильные шаги. Это очень шумный процесс. Человек так не учится — люди анализируют, что сработало, а что нет.
При создании nanochat Карпатый обнаружил, что модели:
1. Плохо работают с уникальным, никогда не писавшимся кодом
2. Отлично справляются с шаблонным кодом
3. Постоянно неправильно понимают контекст
4. Пытаются использовать устаревшие API
5. Автозаполнение работает лучше, чем vibe coding для сложных задач.
Anthropic представили Claude для научных исследований
Команда создала новые инструменты для Claude в сфере науки о жизни:
1. Прямые подключения к научным базам — PubMed, Benchling, Synapse.org, 10x Genomics. Можно искать статьи, работать с лабораторными данными и анализировать геномы через обычный диалог с моделью.
2. Agent Skills — готовые скрипты для типовых задач. Например, есть набор для контроля качества RNA-seq данных.
Можно делать свои.
Доступно через Claude.com и AWS Marketplace. Google Cloud — скоро.
Для академических лабораторий есть программа с бесплатными API-кредитами.
Кто уже использует:
- Sanofi, AbbVie, Novo Nordisk
- Broad Institute и Stanford тестируют для биоинформатики. 10x Genomics встроили в свои инструменты для анализа одноклеточных данных.
#DeepSeek выпустили новую модель
DeepSeek-OCR — это ИИ-модель, которая извлекает текст из документов, изображений и PDF-файлов. Главное отличие от привычных OCR-систем: модель не просто "читает" текст, а понимает структуру документа и может работать с разными форматами вывода.
Интересный концепт в статье — имитация человеческой памяти. Модель может сжимать старые части документа сильнее, чем новые, подобно тому, как мы помним недавние события детально, а далёкие — размыто.
Ключевые возможности:
1. Модель предлагает 6 режимов работы — от экономичного Tiny (64 визуальных токена) до мощного Gundam-M (1853 токена).
2. Обучена на 30 млн страниц документов на 100+ языках. Основной фокус — китайский и английский (25млн страниц), но работает и с другими языками.
Модель состоит из DeepEncoder и DeepSeek-3B-MoE декодер.
Инфраструктура:
- Python 3.12.9, CUDA 11.8, PyTorch 2.6.0
- Поддержка vLLM для высокопроизводительной обработки (~2500 токенов/сек на A100-40G для PDF)
- Доступна через Hugging Face Transformers.
Практические сценарии использования:
1. Обработка архивов
2. Автоматизация документооборота
3. Мультиязычная поддержка
4. Научные исследования — распознавание формул, таблиц, диаграмм из публикаций
Маск пытается Андрея Карпатый снова вернуть к себе, но Андрей в одну реку дважды не заходит :))
Красивый обмен предложением о найме и не менее изящный отказ этого предложения.
Это Маск написал в период, когда все обсуждают интервью Андрея.
Co-founder OpenAI Андрей Карпатый: идет тренд на уменьшение LLM, а чтобы они стали умнее, нужно "вычистить" их память
Мы продолжаем обозревать интервью Андрея Карпатый, который многое объясняет и убирает хайп, который несут в массы как его коллеги, так и бизнес. #часть4 предыдущие материалы тут.
Андрей Карпатый говорит о парадоксе, что лучшие ученики- дети ужасны в запоминании.
Вы вообще ничего не помните из раннего детства.
Зато дети мастерски схватывают языки и понимают мир. Почему? Они не запоминают дословно, а ищут общие паттерны. Это их суперсила.
А LLM — машины памяти, но не обобщения. LLM цитируют Википедию слово в слово и запоминают последовательности за пару итераций.
Но вот парадокс - их способность к абстрактному мышлению, как у детей, ограничена. Они тонут в море запомненных данных, которые часто мешают видеть «лес за деревьями».
Мы, взрослые, уже не так гибки, как дети, но лучше запоминаем факты. Наша "плохая" память — это фича, а не баг. Она заставляет нас искать обобщения, а не зубрить всё подряд.
Карпатый предлагает интересную идею, чтобы LLM стали умнее, нужно "вычистить" их память. Зачем? Чтобы они фокусировались на обобщении, а не на регургитации фактов. Цель — создать "когнитивное ядро" (~1B параметров), которое содержит алгоритмы мышления, а не свалку данных.
Карпатый задаёт вопрос, почему модели такие большие? Потому что интернет — это помойка: тикеры акций, случайный слоп, мусор. Большие модели вынуждены сжимать этот хаос, тратя ресурсы на память, а не на интеллект.
Решение:
1. Огромная модель учится на грязных данных.
2. Она фильтрует их до когнитивных компонентов.
3. На чистом датасете тренируется компактная модель (~1B параметров).
Современные SOTA-модели уже меньше, чем GPT-4 с его триллионами параметров. Лаборатории оптимизируют бюджеты - меньше тратят на предобучение, больше — на дообучение и пост-обработку. Это прагматично - сначала строим гиганта, чтобы "выжать" из данных суть, а затем дистиллируем её в компактное ядро.
Иордания запустила в школах страны ИИ-агента, причём пилотная версия была создана менее чем за месяц 1 человеком с помощью платформы Replit
Siraj - это ИИ-ассистент на базе Replit, который уже доступен для тестирования в государственных школах, в которых учится 1,6 млн школьников и 90 000 преподавателей работает.
Он работает на арабском, даёт ответы по школьной программе и помогает учителям с материалами.
Anthropic заключила с Google сделку на 1 млн TPU. Мощность превысит 1 ГВт. Развертывание с 2026 года
Это самая крупная экспансия Anthropic по использованию TPU на данный момент. И компания показывает, что у нее мультиоблачная стратегия.
Ранее компания уже интегрировала TPU в свою инфраструктуру, но теперь объём вырастет в разы.
Аналитики отмечают, что рост Anthropic добавит 1–2% к выручке AWS в 2025 году, но TPU могут подорвать позиции Trainium. Эта сделка уменьшает зависимость от Nvidia с GPU.
Кроме TPU, Anthropic получит доступ к другим облачным сервисам Google.
Пока молодое буйство увольняет лучших из Meta*, эти лучшие выпустили крутую статью о непрерывном обучении LLM
Это путь к моделям, которые могут учиться на лету в онлайн режиме, как это делают люди.
Авторы предлагают использовать слои памяти — архитектуру с высокой ёмкостью, но разреженной активацией.
Если вы пропустили про масштабное увольнение в Meta FAIR, то вам сюда. Сейчас всех уволенных активно хайрят в Google, Anthropic, а также в стартапы, которые созданы экс-Google.
*запрещенная в России организация.
Венчурный фонд a16z: Более 1% всех $ теперь в стейблкоинах - свежий отчет о состоянии индустрии
Аналитики фонда отмечают, что 2025 стал годом, когда криптоиндустрия повзрослела и стала значимой частью современной экономики.
Традиционные финансовые компании: Visa, BlackRock, Fidelity и JPMorgan Chase, а также технологические компании: PayPal, Stripe и Robinhood, начали предлагать или запускать криптопродукты.
А крипто протоколы x402 могут стать платёжной инфраструктурой для AI-агентов
Ключевые показатели рынка:
1. Общая капитализация криптовалютного рынка впервые превысила $4 трлн. Биткоин - более 50% общей капитализации рынка.
2. Количество пользователей криптокошельков достигло исторического максимума с увеличением на 20% за год
3. Hyperliquid и Solana составляют 53% экономической активности, генерирующей доход.
Стейблкоины - главная история года:
1. обработано $46 трлн общего объема транзакций за последний год, что на 106% больше, чем годом ранее. Более 99% стейблкоинов в $, что укрепляет его позиции даже при снижении ЦБ других стран своих резервов в казначейских облигациях.
2. стейблкоины обработали $9 трлн за последние 12 месяцев, что в 5 раз больше PayPal и составляет более половины от Visa.
3. Ежемесячный объем транзакций стейблкоинов приблизился к $1,25 трлн в сентябре 2025 года.
4. Стейблкоины являются 17-м по величине держателем казначейских облигаций США, владея более $150 млрд.
Развитие инфраструктуры блокчейна:
1. Блокчейны обрабатывают более 3 400 транзакций в секунду - рост более чем в 100 раз за последние 5 лет.
2. Solana - одна из самых быстрорастущих экосистем, интерес разработчиков вырос на 78% за последние 2 года.
Новые категории приложений:
Децентрализованные биржи — 20% всего спотового объёма торговли
Перпетуальные фьючерсы — Hyperliquid обработал триллионы долларов, заработав $1+ млрд за год
Токенизация реальных активов — $30 млрд рынок (рост в 4 раза за 2 года)
DePIN (децентрализованная физическая инфраструктура) — сеть Helium обслуживает 1.4 млн пользователей через 111,000 хотспотов. Всемирный экономический форум прогнозирует рост сектора до $3.5 трлн к 2028 году.
Рынки предсказаний — после выборов в США объёмы выросли в 5 раз, а не упали как ожидалось
Между тем, бывшая коллега Ильи Суцкевера взяла его рисунки, да, Илья очень неплохо пишет картины, и создала модный дом Maison AGI.
Как только не ездили на этом термине AGI, а вот этот заход - это что-то новое. Причём у проекта все хорошо с маркетингом, начать все с Ильи Суцкевера - это значит обеспечить себе продажи точно.
Первую коллекцию уже дропнули и назвали её «Реликвия мысли» – это совместная работа с Ильёй Суцкевером, в которой представлены его оригинальные работы и фирменная шляпа, выполненная по образцу его головы.
Вот таким нестандартным образом продвигают люди свои проекты, хотя Илье не убудет, а наоборот, это продвижение его других творческих талантов, причём конкуренции в этой нише ноль.
Anthropic и создатель ChatGPT создали ИИ-агента, выявляющий вредоносное дообучение ИИ-моделей
Команда Anthropic совместно с Джоном Шульманом, который ранее был chief scientist OpenAI, а сейчас сооснователь Thinking Machines, представили ИИ-агента аудитора - систему на базе LLM, которая проверяет тонко настроенные модели перед их развертыванием.
Агенту предоставляются:
- Датасет для обучения
- Исходная модель (до настройки)
- Настроенная модель (после).
Агент анализирует эти данные и выставляет оценку риска от 0 до 10.
В результате система выявила 56.2% атак при 1% ложных срабатываний.
Система может обнаруживать скрытые атаки через шифры, которые невозможно выявить обычной модерацией контента.
Интересно, что агент научился расшифровывать шифры на лету, просто увидев примеры из датасета, и использует это для проверки модели.
Андрей Карпатый о будущем обучения ИИ-моделей и критике RL
Мы продолжаем обозревать свежее интервью Андрея Карпатый, сооснователя OpenAI, экс-директора по ИИ Tesla. #часть3 Предыдущие части тут.
Андрей разнёс Reinforcement Learning (RL) в пух и прах, но признал, что пока это лучшее, что у нас есть. А ещё поделился мыслями о новых подходах к обучению моделей.
Почему RL — это боль, но мы всё равно его используем?
Карпатый назвал RL «ужасным» из-за его шумности и неэффективности. Как это работает:
- Модель пробует сотни путей решения задачи параллельно.
- Успешные траектории, даже если они частично случайны помечаются как «хорошие», а все шаги в них получают награду.
- Проблема - даже неправильные шаги, которые случайно привели к верному ответу, поощряются. Это как хвалить за удачу, а не за умение.
«Это как высасывать крупицы знаний через соломинку», — говорит Карпатый. Люди так не учатся: мы анализируем свои решения, выделяем хорошие и плохие шаги. У современных LLM такого «рефлексивного» процесса нет.
Но RL всё ещё используется, потому что:
1. обучение на примерах творит чудеса. Например, InstructGPT показал, как быстро модель может адаптироваться к диалогам, сохраняя знания.
2. RL позволяет «взбираться по холму» наград, находя решения, которые человек бы не придумал.
Чтобы исправить недостатки RL, пробуют process supervision — награждать за каждый шаг, а не только за финальный результат. Для этого используют LLM-судей, которые оценивают промежуточные решения.
Но есть нюанс:
- LLM-судьи — это огромные модели, и их можно «взломать».
- например, модель генерировала бессмыслицу, а судья ставил 100%. Почему? Это adversarial example, который сбивает модель с толку.
- Исправить можно, добавляя такие примеры в обучение судьи, но это бесконечный процесс. «У модели триллион параметров, всегда найдётся новый способ её обмануть», — говорит Карпатый.
Что дальше? Новые парадигмы обучения
Карпатый оптимистичен. RL — не конец пути. Новые идеи уже появляются:
- System Prompt Learning - модели начинают «рефлексировать», анализировать решения и генерировать синтетические данные для улучшения.
- Пример из реальной жизни: функция памяти в ChatGPT — это зачаток новых подходов.
- Проблема - идеи из статей на arXiv пока далеки от масштабируемых решений в больших лабораториях.
«Я верю, что скоро мы увидим прогресс в этом направлении», — подытожил Карпатый.
Будущее за подходами, которые научат модели думать и анализировать, как люди.
OpenAI представила браузер, интегрированный с ChatGPT и агентным режимом
Похож на Perplexity Comet, но с более развитой встроенной памятью о персональных предпочтениях из предыдущей истории использования.
Доступен на Mac OS, для пользователей Pro, plus, business.
Что есть у нового браузера Atlas?
1. Встроенный ChatGPT - доступен через боковую панель на каждой странице
2. Память браузера - может искать по вашей истории веб-поиска
3. Агент-режим - может выполнять действия на веб-страницах.
Как это работает?
• На каждой странице есть кнопка "Ask ChatGPT", которая автоматически видит контекст страницы
• Можно запустить "Агент-режим" для выполнения действий на странице, или ChatGPT предложит следующие шаги
•Есть функция "cursor chat" - можно активировать ChatGPT на выделенном тексте для автоматического редактирования или получения новых версий через естественный язык.
• В агент-режиме можно делегировать задачи через боковую панель ChatGPT
Очень забавно, когда один очень богатый человек(Э.Шмидт) дает много $ именитым исследователям ИИ, у которых есть премия Тьюринга и другие заслуги.
И вот в силу того, что ты как донор обеспечиваешь их проекты, в один прекрасный день просишь, чтобы все они написали про AGI то, что выгодно тебе, как держателю капитала.
И такая схема работает всегда на протяжении существования человечества.
Речь о новой работе об AGI, бенефициаром которого является экс-СЕО Google Эрик Шмидт, а исполнители - Йошуа Бенжио и др. уважаемые персоны, которые делают свои проекты, в том числе за счет вложений Шмидта.
Но уже надоели эти разговоры про AGI.
Стартап для мониторинга мозга с ИИ CoMind привлек $102,5 млн
Лондонский стартап CoMind привлёк $102,5 млн на свое устройство One - портативный сенсор на основе оптической технологии.
Он использует низкоэнергетические инфракрасные лазеры и обработку сигналов на базе ИИ. Устройство крепится снаружи головы и непрерывно измеряет кровоток, ауторегуляцию и внутричерепное давление мозга без хирургии.
Используя ИИ и инфракрасные лазеры, оно даёт врачам точные данные для лечения травм головы и инсультов у постели пациента. Точность уже сравнима с инвазивными методами, но без рисков.
Раунд возглавил фонд Plural, участвовали Angelini Ventures, LocalGlobe и другие. Деньги пойдут на клинические испытания, одобрение FDA (к 2027 году) и найм команды.
Ереванский университет может гордиться: конкурент Neuralink вернул зрение 80% слепых пациентов с макулярной дегенерацией
Это результаты клинических испытаний ретинального имплантата PRIMA от компании Science, основателем которого является Макс Ходак.
PRIMA — это беспроводной имплантат размером 2×2 мм, который размещается под сетчаткой.
Система включает 3 компонента:
- сам имплантат с фотовольтаическими элементами,
- специальные очки с камерой
проектором,
- карманный процессор.
Очки проецируют инфракрасный свет на имплантат, который преобразует его в электрические импульсы, стимулирующие оставшиеся клетки сетчатки.
Технология разработана профессором Дэниелом Паланкером из Стэнфордского университета, который является выпускником Ереванского гос университета.
Больше про Science тут.
Если вдруг вы не знали, оказывается Google владеет 7% акций SpaceX.
Это одна из их лучших инвестиций Google после покупки DeepMind.
В 2015 году Alphabet совместно с Fidelity Investments инвестировала $1 млрд в SpaceX, получив около 10% акций. По более свежим оценкам на 2025 год, учитывая дополнительные инвестиции в 2021 году на $337 млн, доля составляет около 7–7,5%.
Это были инвестиции на развитие спутникового интернета, где Google предоставляет облачные сервисы для SpaceX.
Сейчас будет угар. Оказалось, что GPT-5 не решил нерешенные 10 математических задач Эрдёша, он нашел ответы с помощью вэб-поиска
Всё началось 18 октября, когда вице-президент OpenAI Кевин Вейл восторженно твитнул: "GPT-5 нашёл решения для 10 (!) ранее нерешённых проблем Эрдёша и продвинулся в 11 других!"
Твит быстро набрал хайп — многие подумали, что ИИ наконец-то начал генерировать новые математические открытия.
Но не прошло и суток, как математик Томас Блум вышел с опровержением. Блум написал: "GPT-5 нашёл ссылки на решения". То есть, модель не изобрела велосипед — она просто хорошо погуглила академические базы.
Твит Вейла стёрли, а исследователь OpenAI-Себастьян Бубек сначала хвастался суперчеловеческим поиском литературы, а потом признал: "Мы нашли только то, что уже было в бумагах. Но поиск литературы — это тоже сложно!"
И вот тут начался цирк от конкурентов. Ян ЛеКун не удержался и твитнул: "Hoisted by their own GPTards" — это такая остроумная игра слов, типа "подвели их собственные GPT-идиоты" (с отсылкой к "hoist with one's own petard" из Шекспира, когда бомба взрывается в руках сапёра).
А CEO Google DeepMind Демис Хассабис вообще назвал это "embarrassing" — постыдным.
В общем, вся индустрия посмеялась над OpenAI.
Андрей Карпатый: сегодняшние ИИ-агенты очень слабые, через ~10 лет агенты станут по-настоящему полезными для сложных задач.
Экс-директор по ИИ в Tesla и сооснователь OpenAI дал большое интервью, мы по частям разберем его в несколько постов. #часть1
Карпатый говорит, что сегодняшняя вера в агентов ведёт к горам плохого кода, уязвимостям и техдолгу. Цена ошибки в софте высока, как в автономном вождении. Нам нужны девятки надёжности: от 90% к 99.9% — это долгий путь.
Что не так с ИИ-агентами?
1. Ограниченный интеллект. Claude или Codex напоминают ему "детей-савантов" — отличная память, но слабое понимание контекста. Они справляются с шаблонными задачами, но проваливаются на уникальных или сложных проектах.
2. Отсутствие мультимодальности. Агенты пока не умеют полноценно взаимодействовать с компьютером, как человек — понимать интерфейсы, видеть экран, координировать действия.
3. Нет долговременной памяти. Каждый запрос — как новый старт. Модели не учатся на предыдущих взаимодействиях, сбрасывая контекст после каждой сессии.
4. Когнитивные пробелы. Им не хватает интуиции и гибкости для реальных задач.
Где агенты работают, а где — нет. Тестируя агентов на проекте nanochat, Карпатый выделил их сильные и слабые стороны:
1. Где хороши: шаблонный код, документация, работа с незнакомыми языками (например, Rust).
2. Где проваливаются: уникальный код, нестандартные решения, задачи, требующие глубокого понимания.
Проблемы:
- Непонимание контекста: модели предлагают стандартные решения, даже если вы объясняете, что нужно иное.
- Раздувание кода: лишние try-catch, избыточная сложность.
- Устаревшие знания: использование deprecated API, что требует ручной чистки.
Как Карпатый использует ИИ?
Он предпочитает автодополнение, где человек остаётся архитектором, а модель лишь ускоряет процесс. Это быстрее и надёжнее, чем vibe coding.
Чего он ждёт от агентов будущего?
- агенты должны объяснять код, доказывать его корректность, спрашивать, если не уверены.
- небольшие куски кода, которые легко понять и проверить.
- инструменты, которые помогают расти, а не просто выдают готовый код.
- модели должны учиться на взаимодействиях и сохранять контекст.
- агенты могли бы создавать задачи друг для друга, чтобы учиться и улучшаться.
Где заработют агента первыми? в call-центрах с чёткими задачами и закрытым контекстом, но даже там потребуется контроль людей.