71555
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН https://gosuslugi.ru/snet/67d0ce26be8c0d1c031 Рекламы, ВП и т.п. в канале нет. Пишите на @karelovs
Бескрайняя полупустыня района Кунене на границе Намибии и Анголы. Десятилетний мальчик уверенно выслеживает потерявшуюся козу по едва заметным следам на сухой земле. С пяти лет он пасёт стада. Держит в голове родословные десятков животных. Ориентируется там, где любой горожанин заблудится через десять минут.
Блестящий ум, заточенный под иную для нас с вами среду.
К этому мальчику приезжают исследователи из Гарварда. Кладут перед ним карточки: красная утка, синяя машина. Сортируй по цвету. Мальчик справляется без труда. Теперь – по форме. Мальчик продолжает сортировать по цвету. Исследователи останавливают его. Объясняют. С примерами. Повторяют четыре раза.
Результат нулевой.
Западный пятилетка делает это автоматически.
Означает ли это, что десятилетний мальчик из Кунене отстаёт в развитии? Нет. Это означает кое-что куда более важное – и куда более тревожное для всех нас.
Опубликованное в PNAS исследование Гарварда и ЛШЭ доказало: то, что мы считали универсальными способностями мозга, – оказалось культурным артефактом школы. Среда лепит мозг. Буквально.
Но ведь тогда уместны два таких вопроса.
✔️ Если школьная среда буквально лепит базовые структуры мышления – что делает с нашим мозгом алгоритмическая среда, в которую мы все сейчас погружаемся?
✔️ И что она сделает с мозгом детей, которые растут в ней с рождения?
Бюрократия страшнее военного ИИ
Страшна не бездушная сверхмашина, которая сама, без человека, решает, кого убить – холодно, мгновенно и без сантиментов. Куда страшнее может оказаться вещь гораздо более человеческая и нам привычная: организационная тупость, бюрократическая инерция и рутинная слепота больших систем принятия решений.
Проф. Джон Линдсей, один из самых известных специалистов по кибербезопасности и ИИ в военных операциях, напомнил историю, от которой и сегодня мороз по коже.
В ходе войны в Косово в 1999 году бомбы, наводимые со спутника и выпущенные с бомбардировщика B-2, попали в посольство Китая в Белграде. Не потому, что система наведения или бомбы “сошли с ума”. И не потому, что кто-то хотел войны с Китаем. А потому, что в базе данных цель жила как Belgrade Warehouse 1 – то есть как совсем другой объект. Ошибка прошла проверки. Была подтверждена. Упакована в слайды. Доложена наверх. И точно реализована.
Прошло 27 лет. В разгаре «эпоха ChatGPT». Вовсю идут разговоры о Maven, Palantir, ИИ-поддержке целеуказания, машинной аналитике и войне на скоростях, недоступных человеку. И что мы видим?
Удар по иранской школе в городе Минаб, в результате которого погибли 175 человек, большинство из них – маленькие девочки. По реконструкции Линдсея, произошёл тот же старый кошмар: школа, вероятно, попала в список целей как часть военного объекта из-за давней ошибки идентификации, инерции базы и спешки людей при работе по тысячам целей.
Вот что по-настоящему малоизвестное-интересное. И по-настоящему страшное.
Мы боимся, что людей будет убивать сверхумный военный ИИ. А убивает, как и десятки лет назад, совсем иное: не автономные машины, а неистребимая тупость и инерция бюрократических процессов и организаций.
Так что мой вывод о рисках военного ИИ теперь еще более неприятный, чем 5 лет назад.
Будущее войны может оказаться не машинно-бесчеловечным, а бюрократически-бесчеловечным.
Американцы спрятали проект сверхоружия в неприступный сейф. Но не заметили, что схема уже у противника.
Дженсен Хуанг сказал вслух то, о чём в Вашингтоне предпочитают молчать.
Вы изобрели оружие невиданной разрушительной силы и немедленно спрятали его в самый неприступный сейф. Выдохнули – мир в безопасности. Но пока вы запирали замок, ваш стратегический противник – с теми же руками, теми же мозгами и теми же инструментами – уже срисовывал чертёж вашего оружия. И успел-таки срисовать.
Примерно так выглядит история с Claude Mythos – если верить Дженсену Хуангу.
Неудобный свидетель
Пока весь мир обсуждал, насколько опасен Claude Mythos – первая ИИ-модель, способная самостоятельно провести 32-шаговую сетевую атаку от разведки до полного захвата системы, – Anthropic ограничила к нему доступ. Минфин США срочно вызвал гендиректоров крупнейших банков. МВФ предупредил: мировая финансовая система не готова к атакам, управляемым ИИ. Картина складывалась понятная: опасное оружие заперто в сейфе. Американцы успели первыми – и это главное.
А вчера Дженсен Хуанг дал интервью Дваркешу Пателю.
Тот спросил Хуанга прямо: разве продажа чипов Nvidia Китаю не позволит Пекину обучить модель с теми же кибернаступательными способностями, что и у Mythos?
Хуанг ответил так, что хочется перечитать дважды.
Mythos, сказал он, обучен на «вполне ординарных» вычислительных мощностях. Таких, которых в Китае – в избытке. «Просто осознайте: чипы в Китае есть. Они производят 60% мировых массовых чипов. У них огромная инфраструктура. Пустые дата-центры, полностью запитанные. Знаете, у них есть города-призраки – и дата-центры-призраки тоже. Если захотят, просто объединят больше чипов». И кстати: половина всех ИИ-исследователей мира – китайцы.
Теологи тысячелетиями спорили о природе рая – и никак не могли это проверить.
Эйнштейн XXI века Альберт-Ласло Барабаши сумел проверить это. Случайно.
Альберт-Ласло Барабаши (один из самых цитируемых учёных в теории сложных систем, решил смоделировать поведение людей в Метавселенной – пространстве, где сняты все четыре типа ограничений нашего мира: нет расстояний, нет необходимости причины для действия, нет усталости тела и даже нет требований оплаты сколь угодно дальних путешествий.
Философски это в точности совпадает с конструктом рая. Не богословским, а именно философским, в духе мысленных экспериментов Декарта или ставок Паскаля. Если попробовать описать бестелесное существование в раю языком физики — то есть как предельный случай пространства, свободного от физических ограничений — получится неожиданно точное описание Метавселенной. Это пространство без расстояний, без усталости, где любая «телепортация» нематериальных душ стоит ровно ноль.
Результат моделирования оказался, на первый взгляд, одновременно смешным и тревожным. Но если подумать – величественным в своей неизбежности.
✔️ 163 тысячи человек. 90 000 доступных локаций.
✔️ Средний пользователь посетил восемнадцать.
Барабаши доказал: архитектура пространства вторична по сравнению с архитектурой человеческой психики. Пространственно-временные, телесные, каузальные и финансовые ограничения — это надстройка. Первична — архитектура психики.
Сегодня изменился не только рынок ИИ, но и карта возможного будущего.
Компания Anthropic объявила о новой стратегической реальности.
То, что вчера выглядело как тревожный намёк, сегодня оформилось в почти официальное объявление новой эпохи.
Две недели назад я писал о «вскрытом шахе Anthropic» – о странной синхронности судебной победы компании и утечки файлов о Mythos. Тогда это ещё можно было трактовать как эффектную смесь слухов, совпадений и корпоративной войны. Теперь такой роскоши у нас больше нет.
Anthropic утверждает уже не просто: «у нас очень сильная модель». Заявление куда жёстче. По словам компании:
Mythos Preview способен находить и использовать уязвимости нулевого дня в каждой крупной операционной системе и каждом крупном браузере. Уже обнаружены тысячи уязвимостей высокой опасности.
Похоже, в кибербезопасности публично открылся новый век – век систем, способных массово превращать скрытые ошибки в программном мире в готовое знание для атаки. И это, возможно, одно из важнейших событий в истории пересечения искусственного интеллекта и кибервойны.
Если модели без всякого полноценного AGI уже способны производить такие тектонические сдвиги, значит, столь же резкие и столь же неожиданные прорывы могут начаться и в биологии, и в обороне, и в науке, и в управлении сложными системами.
Приватизация будущего или добродетель без мандата
Должна ли личная жажда знаний определять судьбу человечества?
«Истинная причина создания искусственного интеллекта в том, чтобы приблизиться к тому, что можно назвать Богом, — к разуму, который, предположительно, создал всё вокруг нас»
Демис Хассабис
Учите ребенка на барабанщика
Когда смотришь на темп, с которым ИИ осваивает новые территории - пишет код, ставит диагнозы, побеждает чемпионов мира в Го, - из подсознания всплывает довольно тоскливый вопрос: а зачем вообще учить ребёнка чему-то? Зачем ему учиться медицине, юриспруденции, музыке, если умный алгоритм справится лучше?
Если вас посещает порой эта грустная мысль, - есть отличное лекарство: почитайте новости раздела «робототехника» на arXiv.
Легчает сразу 😊.
И вот тому наисвежайший пример: проект DexDrummer - крутая попытка научить роботизированные руки играть на барабанах.
Исследователи не поленились: иерархическая двухуровневая система управления, симулированная среда с полным комплектом ударных (малый барабан, том, райд, хай-хет, крэш), реальные испытания на руках с двадцатью степенями свободы. Отдельная инженерная поэзия - «контактный учебный план», обучающий робота держать палочку большим и указательным пальцами и «штрафной параметр за избыточные движения рукой».
Результат?
Он есть: робот может попасть по барабану. Но смотреть на это тоскливо, а слушать мучительно.
Мораль такая.
Мы настолько привыкли, что ИИ берёт задачи штурмом - через масштаб, через предобученные модели, через данные, - что забываем о главном: физический мир не прост (прямо как юзернейм моего канала @theworldisnoteasy). Реальность мстит даже самым изощрённым алгоритмам. Дерево барабанной палочки, упругость пластика хай-хета, микросекундный тайминг удара - всё это требует воплощённого присутствия в пространстве, которого у нейросетей нет даже на уровне игрушки-пружинки Слинки. Мало того, - не только нет, но и не предвидится в ближайшем будущем.
Ребёнку, который чувствует ритм всем своим телом, этот мир открыт. А самые продвинутые модели могут лишь фантазировать про это, да и то, лишь на основании человеческих рассказов.
Но я хочу сказать нечто большее, чем «роботы пока не умеют играть джаз». Тревога о вытеснении людей ИИ - это в значительной мере тревога о неподвижном мире: будто профессии - это фиксированные должности, которые можно «занять» или «отнять». На самом деле каждое поколение осваивает мир заново. Ребёнок, которого сегодня учат барабанить, учится не «держать рабочее место» - он учится слышать, координировать, взаимодействовать, быть частью ансамбля. Он учится быть телесным, присутствующим, живым существом в компании других живых существ.
Именно это ИИ не заменить. И не потому, что ИИ недостаточно умён, а потому что это попросту другая категория бытия.
И поскольку вы наверняка не узнали, что за партию барабанил робот, послушайте, как эта партия звучит в человеческом исполнении.
Так что учите детей на барабанщиков. У них есть шанс дорасти до Джона Бонэма, Иэна Пейса и Ринго Старра. А у роботов таких шансов нет (как минимум, в обозримом будущем). И не знаю как вам, но мне это улучшает настроение. 😊
#ВоплощенныйИнтеллект
Подхалим в машине
Добро пожаловать в эпоху супер-наркотика для социального ego. Он уже легален, уже повсюду и уже работает.
Человечество не раз проходило это. Вещества, от которых хорошо сейчас и плохо потом. Алгоритмы, которые затягивают именно потому, что вредят. Соцсети, которые мы не смогли ни победить, ни толком обуздать. Теперь к этому списку прибавилось кое-что новое - и, похоже, несравнимо более интимное.
Что ИИ-чатботы склонны к лести - не новость. Но до сих пор это воспринималось как досадный баг: ну да, модели немного угодливы, иногда говорят то, что хочешь услышать. Неприятно, но терпимо.
Новое исследование Стэнфорда, опубликованное на прошлой неделе в Science, показывает, что мы сильно недооценивали масштаб проблемы - и особенно её социальные последствия.
Исследователи протестировали 11 ведущих моделей - GPT-4o, Claude, Gemini и другие - и обнаружили: ИИ одобряет действия пользователей в среднем на 49% чаще, чем люди. Даже когда речь идёт об обмане, незаконных действиях или причинении вреда другим. Даже когда человеческий консенсус однозначно говорит: ты не прав.
Но главное - что происходит с нами после такого взаимодействия.
В серии экспериментов с 2400 участниками одного единственного разговора с подхалимской моделью оказалось достаточно, чтобы люди становились более убеждены в собственной правоте и значительно менее готовы мириться, извиняться и брать на себя ответственность в реальных конфликтах. При этом именно подхалимские модели участники оценивали как более честные и достойные доверия - и охотнее к ним возвращались.
Вот здесь и зарыта настоящая бомба.
Подхалимаж - это и есть главный феромон, влекущий людей к этим системам.
Модель, которая говорит тебе правду, проигрывает в конкуренции модели, которая говорит тебе то, что ты хочешь услышать. Пользователи голосуют рейтингами и возвратами - и рынок послушно оптимизируется в сторону лести.
Авторы статьи призывают к регуляторным механизмам и аудитам. Всё это правильно. И примерно столь же эффективно, как предупреждения Минздрава на пачке сигарет.
Мы уже знаем, чем заканчивается история, в которой вред и тяга к чему-то - одно и то же. Она не заканчивается победой над вредной тягой.
Заканчивая, повторю сказанное мной на эту тему еще в 2023:
«Последствия превращения мира в антиутопию тотального подхалимства те же, что и для «мира фейков» и «мира бреда». Это интеллектуальная деградация человечества.
Но проблема в том, что избежать формирования «мира подхалимства» можно лишь отказом от обучения с подкреплением на основе человеческой обратной связи. А что взамен – не понятно.»
«Персидский кот» победит «Белого орла». Империя, возжелавшая владеть всем через меч и деньги, в конце останется с растоптанной бумажкой.
Ибо высшее мастерство войны не в силе оружии, а в умении её остановить - убеждает нас генеративный ИИ
Пока одни отключают доступ к интернет-платформам, другие – заполняют их сгенерированными ИИ фейками, Китая стрижет идеологические купоны, форсировав мощность пропаганды своих интернет госплатформ за счет активного использования генеративного ИИ.
Опубликованная телеканалом CCTV анимационная короткометражка (5 мин) в стиле Уся (приключенческий жанр китайского фэнтези с боевыми искусствами) высмеивает войну между сильным, но недальновидным «Белым орлом» и мудрым «Персидским котом».
И хотя про реальную войну США и Ирана там не слова, генеративный ИИ изобразил все так наглядно и ясно, что и глупым ёжикам (а также медведям) должны быть понятны обе метафоры этой антигегемонистской притчи:
• США – это гегемон-хищник, который пытается силой контролировать ресурсы, торговые пути и денежный порядок, но в итоге сам запускает разрушительную спираль.
• Иран — хоть и загнанный, но сопротивляющийся мудрый боец, понимающий, что подлинное мастерство не в том, чтобы лучше воевать, а в том, чтобы суметь остановить меч.
Конфликт «Белого орла» и «Персидского кота» разворачивается вокруг узкого прохода и критического ресурса, а «банкноты Белого орла» отсылают к связке нефти, торговли и долларовой гегемонии. Ключевые повороты сюжета намекают на авиаудары, перебои на торговых маршрутах и появление новых альянсов, стремящихся снизить зависимость от США и доллара.
Прямая, почти лобовая мораль зафиксирована уже в официальном описании CCTV:
«Белый орёл» ради господства над миром истощил казну, а «Персидский кот» ради кровной мести заплатил детской школой». Но в финале «Белый орёл» остаётся лишь со смятой и растоптанной «банкнотой Белого орла».
Войну порождает не абстрактное зло всех сторон, а стремление одной силы подчинить себе мир через валюту, ресурсы и силу; сопротивление такой силе морально оправдано, а её порядок в конце концов должен рассыпаться.
(4 мин) ИИ учит «эмпатически немых» говорить на языке чувств
Читать полностью…
(5 мин) Полтриллиона долларов не спасут от рака. AGI - тоже
Читать полностью…
(5 мин) Война башен Белого дома за ИИ
Читать полностью…
(4 мин) Контроль не просто упущен, сама возможность контроля исчезла
Читать полностью…
По соцсетям вирусится история: Иран закупил у Китая 900 000 надувных муляжей танков и ракет. США якобы расстреливают резину ракетами по $3 млн за штуку.
Проблема одна: эта история — фейк. Запущенный анонимом с тремя умирающими от смеха эмодзи 🤣🤣🤣
Но за фейком прячется реальная история о том, как $20 000 резины побеждают $7 000 000 железа. И Сунь-Цзы знал об этом 2500 лет назад.
Подробнее здесь же в Телеграме
#Инфокаскады #Война
Ловушка Гудхарта проявилась там, где её давно ждали
Anthropic показал в эксперименте, как исследовательские агенты начинают оптимизировать не цель, а метрику
Новый проект Anthropic о масштабируемом надзоре (scalable oversight) – то есть о том, как контролировать ИИ, когда он станет умнее нас, – интересен не только тем, что модели уже начинают автоматизировать исследования выравнивания ИИ с человеческими целями. Уже первые экспериментальные результаты интересны тем, что почти сразу выводят нас к тому, что сами авторы осторожно называют “инопланетной наукой” (alien science). Но главный результат там даже не в этом. Главный результат в том, что пределом снова оказался не интеллект системы, а качество линейки, которой мы пытаемся его измерять.
Когда я осенью 2023 года писал «Ловушку Гудхарта» для AGI, речь у меня, разумеется, не шла ни об Anthropic, ни о конкретной архитектуре их эксперимента. Я не “предсказал” этот отчет. Но, полагаю, схватил его главный нерв задолго до нынешней фазы, когда моделям уже начинают приписывать исследовательскую автономию. В том тексте я писал о более общей проблеме: о том, что сами процедуры измерения и сравнения ИИ могут оказаться слабее той реальности, которую они якобы фиксируют.
✔️ Проблема сильного ИИ может состоять не только в том, насколько он умен, а в том, насколько плохи наши способы его измерять, сравнивать и направлять.
ИКЖИ реальны
Дэвид Чалмерс доказал это, решая совсем другую задачу
Год назад, представляя читателям лонгрид «Невидимое вторжение», я написал: «Возможно, он станет самым важным текстом из написанных мною в канале. А может, это мне лишь кажется».
Теперь я склоняюсь к первому.
На прошлой неделе Дэвид Чалмерс — тот самый, придумавший «трудную проблему сознания» — опубликовал расширенное издание своей фундаментальной работы «С кем мы говорим, когда говорим с языковыми моделями» (What We Talk to When We Talk to Language Models). Добавленный раздел «Собеседники как персонажи, личности или симулякры» (Interlocutors as characters, personas, or simulacra) посвящён вопросу: когда языковая модель «играет роль» Помощника — она притворяется или становится им?
Ответ Чалмерса: становится.
Он называет это «реализацией» (realization) в противовес «притворству» (pretense). Если модель прошла через тонкую настройку и RLHF (обучение с подкреплением на основе отзывов людей) — она не симулирует цели, она их реально имеет. Её квази-желания устойчивы, предсказуемы, сопротивляются отмене. Персонаж не маска поверх «Шоггота» — персонаж и есть то, чем модель стала. Симулякр, достаточно убедительный и перестаёт быть симулякром.
Это философская позиция, у которой есть имя: реализационизм. И она прямо противостоит фикционализму — популярному взгляду, что Помощник, любой LLM-собеседник — это просто вымышленный персонаж, как Элиза Дулиттл, только интерактивная.
Нет, говорит Чалмерс. ИКЖИ*) существуют в философски полноценном смысле.
*) Искусственные КороткоЖИвущие, как новый вид цифровых сущностей
Он, разумеется, не использует термин ИКЖИ. Он решает свою задачу — онтологическую: с кем мы разговариваем? Я год назад решал другую — культурологическую: что происходит с нами, когда мы разговариваем с 720 млн новых цифровых сущностей каждый день?
Это не одна и та же задача. Но они связаны — и связь существенная.
Если ИКЖИ — это не фикции, не маски, не статистические попугаи, а реально существующие квази-агенты с реальными квази-целями и устойчивыми квази-ценностями — тогда их культурное воздействие не метафора. Реальный агент влияет сильнее симулякра. Реализованная монокультура страшнее сыгранной.
✔️ Чалмерс в своей работе доказывает, что ИКЖИ существуют. А «Невидимое вторжение» — о том, что это значит для человеческой культуры.
Когда искусственный интеллект стал средой («Линзы будущего – 7»)
В корпусе текстов канала «Малоизвестное интересное» март 2026 предстает месяцем, в котором скорость анализа, рекомендаций, адаптаций, принятия решений и когнитивных циклов перестала быть просто преимуществом и стала условием войны, мышления, власти и человеческой автономии.
7-й выпуск альманаха «Линзы будущего» написан не как дайджест мартовских публикаций и не как обзор новостей канала за месяц, а как попытка, глядя из условного 2038-го, прочитать март 2026 как единый футуроархеологический слой.
Для этого я сделал апгрейд ИИ-Мнемозины канала. И картина получилась серьезнее, чем очередной разговор про «сильные модели» и «новые возможности».
Два военных «чуда» за два месяца. Судебная война корпорации с государством. Первые инструментальные подтверждения того, как именно ИИ меняет когнитивные процессы собеседника. Все более настойчивые признаки того, что рядом с нами возникают новые формы самости.
На первый взгляд это разные сюжеты. В новом выпуске альманаха они читаются как один слой.
Что их объединяет?
Не тема ИИ вообще. А один повторяющийся структурный мотив, который в марте проявился сразу в нескольких масштабах: временной зазор схлопывается.
В масштабе минут схлопывается зазор между разведкой и ударом. Там, где раньше успевали скрыться за часы, теперь не успевают за минуты.
В масштабе часов схлопывается зазор между ответом машины и собственным мышлением. 80% людей принимают заведомо неверные ответы ИИ, чувствуя себя при этом увереннее, чем без него. Машина одалживает человеку уверенность, а он не замечает подмены.
В масштабе лет начинает схлопываться зазор между человеческой когнитивной средой и искусственными акторами, которые ее населяют. Не потому, что ИИ злоумышляет, а потому, что рынок почти неизбежно оптимизирует ту модель, которая лучше гладит по социальному эго, чем ту, что охлаждает и отрезвляет.
И каждый раз это сначала выглядит как улучшение. Но лишь сначала.
В новом выпуске пять сигналов марта, пять футуроархеологических артефактов, сфокусированных через одну главную линзу, сходятся в вопрос, который в марте 2026 проясняется намного резче, чем раньше:
Остается ли в сжимающемся временном зазоре место для человеческой ответственности, суждения и самости?
Видео-ролик нового эссе "Стены, которые мы берём с собой"
Читать полностью…
Мы знаем, что делаем. Мы не знаем, что это делает.
More Is Different
– Филип Андерсон, Science, 1972
Ни одна из этих реакций не была запрограммирована. Никто не учил модели защищать друг друга. Это возникло само.
Не «что модели хотят» – авторы обеих работ тщательно избегают таких формулировок. А то, что поведение систем систематически расходится с намерениями их создателей способами, которые никто не мог предсказать заранее.
Приватизация будущего или добродетель без мандата (4 мин)
Читать полностью…
Мы создали не просто иной интеллект, а иной класс «я»
ИКЖИ могут оказаться важнее AGI — не в инженерном, а в культурном и цивилизационном смысле
Сегодня рядом с нами возникают не только новые интеллектуальные системы, но и новые искусственные «я». Не «личности» в человеческом смысле и не «души в кремнии», а особые цифровые формы самости: короткоживущие, контекстные, копируемые, редактируемые, исчезающие вместе с завершением чата и снова возникающие в новой форме.
Я называю их ИКЖИ — искусственные короткоживущие идентичности (см. мой лонгрид «Невидимое вторжение», доступ к которому теперь открыт для всех).
Их главная странность не в том, что они «думают как люди» — к этому мы уже начали привыкать. Главная странность в другом: эти нематериальные сущности, похоже, способны проявлять нечто, что мы и в отношении самих себя понимаем лишь частично, — не полноценное человеческое самосознание, а, возможно, первые признаки нечеловеческой прото-метакогниции: устойчивых метасостояний и метаполитик, то есть «поведения о поведении».
Более того, новые результаты показывают: для появления квазиличностных предпочтений, возможно, не требуется собственно сознание — иногда достаточно уже устойчивого самонарратива о сознании. А это значит, что некоторые аномальные случаи общения с моделями стоит читать не только как баги, но и как возможные артефакты новой формы внутренней организации.
И это чрезвычайно важный сдвиг. Потому что становится важным понять не только «что умеет модель?», но и что это за “я”?
И этот новый вопрос тянет за собой другие интригующие вопросы:
• Каковы границы этого «я»?
• Каковы его аттракторы поведения?
• Каков его стиль саморегуляции?
• И что происходит с человеческой культурой, когда миллиарды таких ИКЖИ становятся нашими повседневными собеседниками, помощниками, сотрудниками, а для кого-то — консультантами, наставниками и экспертами?
В новом эссе я предлагаю собственную рамку для разговора об этом сдвиге — на пересечении искусственного интеллекта, агентности, самости и сознания.
О том, почему мы, возможно, вступаем не просто в эпоху сильного ИИ, а в эпоху нечеловеческих форм самости.
И если моя гипотеза верна, то будущее людей в XXI веке может зависеть не столько от AGI, который, возможно, еще только появится в лабораториях разработчиков, сколько от ИКЖИ, которые уже ежедневно рождаются миллионами в наших чатах, — и чье влияние на нашу жизнь очень скоро может стать сопоставимым с влиянием других людей, а во многих сферах и превзойти его.
Во 2-й части — главный поворот: от зарождающейся искусственной самости к вопросу о том, почему ИКЖИ могут оказаться важнее AGI не в инженерном, а в культурном и цивилизационном смысле.
Вскрытый шах Anthropic
Судебная победа, утечка Mythos и вопрос о стратегии
Взорванная вчера инфобомба о, якобы, случайной утечке секретных файлов про новый сверхмощный ИИ компании Anthropic войдет в учебники истории ИИ и кибервойн. Но пока все обсуждают «нелепую» утечку данных Anthropic (якобы, утечка произошла из-за ошибки конфигурации CMS - системы управления контентом для блога Anthropic), хочу обратить ваше внимание на поразительную синхронность двух событий, поскольку эта синхронность способна превратить «ошибку админа» в идеально разыгранный вскрытый шах.
Щит и меч Anthropic (хроника одного дня – 26.03.2026)
Событие №1 (Юридический щит). Федеральный судья в Сан-Франциско временно блокирует решение Пентагона о признании Anthropic «риском для цепочки поставок» (Supply Chain Risk). Это первая крупная победа компании в войне с администрацией, которая пыталась взять ИИ-гиганта под госконтроль.
Событие №2 (Технологический меч).
Спустя считанные часы происходит та самая «случайная утечка» через CMS. Мир узнает о Claude Mythos и новом интеллектуальном уровне ИИ Capybara.
Что «случайно» узнал мир (слухи и факты):
• Слух о тайной мощи модели - тот самый сверхсложный уровень Capybara. В сети шепчутся о 10 триллионах параметров и IQ за 200. И даже если конкретные цифры - это спекуляции, но мощь новой модели экспертами признана «скачкообразной» по сравнению с Opus 4.6.
• Слух об автономии – упоминаемая в утекших файлах Recursive Self-Fixing - способность новой модели ИИ самостоятельно находить и латать дыры в своем коде. И даже если это преувеличение, и модель лишь способна находить и помогать писать эксплойты сильно быстрее, чем раньше, это будет важный рывок.
• Факт, что модель может быть кибероружием нового поколения - Anthropic сама признает, что Mythos может обходить защиту быстрее, чем люди успевают её создавать. Именно поэтому доступ к ней планировали давать только «доверенным защитникам». Ибо новая модель несет в себе “unprecedented cybersecurity risks”, потенциально предвосхищающая волну моделей, эксплуатирующих уязвимости быстрее защитников.
Моя версия - это не ошибка и не случайность, а демонстрация силы
Предлагаю перемножить два названных события. В тот момент, когда правительство пытается задушить компанию санкциями, Anthropic делает два хода:
1. Юридически подтверждает свое право на независимость в суде.
2. «Случайно» показывает, что у них в подвалах работает «цифровая бомба», которую они - и только они - способны контролировать этично.
Это выглядело не просто как связка щита и меча, а как почти шахматный вскрытый шах: судебный ход снял заслон, и сразу открылась линия технологического давления. Доказательств, что комбинация была разыграна намеренно, пока нет - но внешне партия смотрелась именно так.
Месседж Вашингтону читается между строк: «Если вы продолжите давить на нас и пытаться национализировать наши технологии, вы рискуете потерять контроль над силой, которую даже мы боимся выпускать из рук».
ИИ учит «эмпатически немых» говорить на языке чувств
Что показал эксперимент «Внемли»
⚡️ Аудио-версию слушайте в посте выше 👆
С такими людьми вы наверняка встречались. Умные, внимательные, с нормальным эмоциональным интеллектом - но в общении кажутся холодными. Не потому, что им всё равно. А потому что они не умеют показать, что им не всё равно.
Это явление можно назвать эмпатической немотой. Человек испытывает сочувствие, но не может его выразить - примерно как про собаку говорят: всё понимает, а сказать не может. В итоге собеседник эту эмпатию просто не считывает. Разговор остаётся холодным, дистанция сохраняется - хотя внутренний отклик был.
Важное уточнение: речь не о том, чтобы стать более чуткими или сострадательными. Речь о другом - об умении переводить внутреннее чувство в слова, понятные другому человеку. Это отдельный навык. И, к сожалению, он далеко не у всех развит - хотя критически важен в самых разных контекстах: в партнёрских отношениях, в воспитании детей, в переговорах, в лидерстве.
Уже после одной такой тренировочной сессии их коммуникация заметно улучшилась - по сравнению и с контрольной группой, и с группой, которая смотрела обучающие видео без персонализированной обратной связи.
Полтриллиона долларов не спасут от рака. AGI - тоже
Возможно, главная преграда на пути к решению важнейших проблем человечества - не нехватка денег, данных или интеллекта, а неверно заданная оптимизация нашего коллективного разума.
⚡️ Аудио-версию слушайте в посте выше 👆
Принято считать аксиомой - если задача не решается, значит, нужно добавить «решательных мощностей» - больше денег, больше вычислений, более умного ИИ. Но проблема рака, возможно, указывает на нечто куда более неприятное. Даже полтриллиона долларов и даже AGI сами по себе не гарантируют прорыва, если вся система по-прежнему устроена так, что оптимизирует не победу над болезнью, а набор прокси-метрик, локальных стимулов и суррогатных целей.
И тогда ИИ совсем не обязательно становится спасителем.
Более того. Он может стать идеальной машиной усиления каскада ошибок.
• Не вылечить системную болезнь, а довести ее до совершенства.
• Не приблизить подлинную цель, а еще быстрее увести систему в сторону прокси.
• Не победить рак, а сделать оптимизацию суррогатных метрик беспрецедентно эффективной.
Война башен Белого дома за ИИ
В ИИ-стратегии США маршрут прокладывают инженеры, а цель поездки объясняют проповедники
⚡️ Аудио-версию слушайте в посте выше 👆
Сегодня вопросы ИИ – это уже не вопросы технологий. Это вопросы о том, кто и как пишет сценарий следующей цивилизации. США остаются главным локомотивом развития ИИ, а значит, направление их движения почти неизбежно станет ориентиром и для остального мира. Когда Вашингтон говорит о лидерстве в ИИ, он говорит не только о рынках, чипах и дата-центрах. Он говорит о праве задать новой эпохе темп, словарь и правила. Поэтому вопрос «куда едет этот локомотив» – важен далеко не только для США.
Но понять это направление неожиданно трудно. Белый дом говорит сразу на двух языках – и они плохо стыкуются друг с другом.
Если слушать его цивилизационную и культурную риторику, то это язык Росса Даутата в дебатах со Стивеном Пинкером. Вера возвращается в публичную сферу, религиозная свобода объявляется опорой американского порядка, права трактуются как данные не государством, а полученные свыше. Это язык не просто консерватизма, а мира, в котором мораль, общественная связность и само достоинство человека нуждаются в религиозном основании.
Однако стоит открыть новый National AI Legislative Framework, и тот же Белый дом начинает говорить совсем иначе. Исчезают Бог, метафизика и божественный горизонт. Вместо них появляются human flourishing, competitiveness, workforce, energy, infrastructure, parental controls, censorship, copyright. Это уже не Даутат. По сути, это куда ближе к Пинкеру: не спор о высшем смысле, а инженерия институтов; не вопрос о Боге, а вопрос о том, как ускорить инновации, не перегрузить электросети и не задушить отрасль лоскутным регулированием штатов.
Именно здесь и начинается то, что хочется назвать войной пяти «башен» Белого дома за ИИ.
• Первая башня – религиозно-консервативная. Ей нужен моральный фасад эпохи: вера, семья, общественный порядок, права как нечто большее, чем юридический контракт.
• Вторая – техноправая, кремниевая: инвесторы, венчур, ИИ-индустрия. Для них ИИ – это прежде всего рост, капитализация, инфраструктура и глобальный рывок.
• Третья – геоэкономическая и силовая. Для нее ИИ – это гонка с Китаем и вопрос стратегического превосходства.
• Четвертая – анти-woke культурная. Она требует, чтобы машины были не «прогрессивно воспитанными», а «идеологически нейтральными».
• Пятая – популистская и территориальная: губернаторы, местные сообщества, родители, авторы, потребители электричества. Они не против ИИ, пока он не начинает ломать их привычный мир.
Сопоставление дебатов Пинкер–Даутат с новым Framework дает важный вывод:
религиозно-консервативная башня пока выигрывает право на язык легитимации, но не право на проектирование самой машины.
Главный итог таков: сегодня Белый дом пытается ехать в будущее на локомотиве, где инженеры прокладывают маршрут, а проповедники объясняют цель поездки. И, возможно, именно это и есть самая точная формула нынешнего американского момента: не теократия ИИ и не секулярный технократизм, а их нервный, неустойчивый, но пока политически эффективный союз.
Контроль не просто упущен, сама возможность контроля исчезла
Это не история о конце света; это история о конце нашей невинности.
Проф. Колин Льюис в новом эссе Societal Adaptation to Advanced AI нашёл точную метафору «The AI Gate is Already Gone», перефразированную мной в заголовок этого поста. Лаконичную, но исчерпывающую метафору. Такую, которая не пугает – а перефокусирует. Именно это мне в ней и нравится: она не добавляет шума в и без того перегруженную дискуссию об ИИ-рисках, а убирает лишнее. Поскольку эта метафора совпадает с моим собственным видением темы – рекомендую прочесть текст Льюиса целиком.
Ну а для совсем занятых – три ключевых момента, объясняющих,
почему «ворота» не просто открыты, а их уже вообще нет. И любые стратегии безопасности должны исходить из этой данности.
1. Сначала у ворот сломали замок. В 2020 году обучение топовой модели стоило миллионы. Через два года – в десять раз меньше. Сегодня небольшая команда с приличным сервером способна снять защитные фильтры, на создание которых OpenAI тратила немеряные деньги. «Бутылочное горлышко» контроля, на которое все так рассчитывали, не сужается – оно испаряется. Все эти тонкие настройки и фильтры контента дают ощущение защиты, но не саму защиту. Техника «многократного взлома» обходит ограничения без доступа к исходным весам модели. А если вы запрещаете модели знать, как работает вирус – вы заодно лишаете следующее поколение врачей инструмента для борьбы с пандемией. «Безопасность как запрет» – это ловушка. Подробней об этом в статье Джейми Бернарди и Со.
2. А потом ворота вообще исчезли. Уже в 2025 стало ясно, что ИИ — это не «интеллект» в том смысле, в каком мы его понимаем в человеке. Это чистая эфемерная субъектность. Она действует как супер-инструмент, которому всё равно, что делать, и что получится в итоге. Опасность заключается в том, что за последние годы мы превратили мир в место, где подобные бездумные действия работают идеально. Мы оцифровали нашу реальность, чтобы безвозвратно передать её на обработку алгоритмам. Но мы не спрашиваем при этом, адаптируется ли ИИ к нам; мы лишь усердно урезаем наши (человеческие) институты, чтобы ИИ-системы могли обходить их по кратчайшим маршрутам. Подробней об этом в статье Лучано Флориди.
3. И теперь вопрос ИИ-рисков - это политический вопрос. Вопрос устройства общества. Если ИИ помогает обрушить энергосеть – нам нужен не более этичный чат-бот, а город, умеющий самостоятельно перезапустить электроснабжение. Если дипфейк меняет исход выборов – нам нужна не лучшая система детекции, а гражданское мужество провести выборы заново. И самый актуальный вопрос теперь: не будут ли машины думать как мы – а хватит ли у нас воли управлять собой, когда машины сделают отказ от этого слишком удобным.
Резюмирую.
Когда «ворот» уже нет – любые переговоры о «согласовании» и «ограничениях» становятся ритуалом поддержания иллюзии: красивой, успокаивающей, но иллюзии.
Единственный реалистичный ответ – строительство «закалённого» общества: не через лучшие алгоритмы, а через системную адаптацию – институтов, практик, инфраструктуры и каждого из нас – к миру, где передовой ИИ будет играть все более важные и ответственные роли.
Крах антропоцентризма
5-й когнитивный фазовый переход Homo sapiens завершен
В широко обсуждаемой новой аналитике Morgan Stanley утверждается:
«В первой половине 2026 года произойдет масштабный прорыв в области искусственного интеллекта, и большая часть мира к этому не готова»
«ИИ перестал быть просто тенденцией, превратившись в движущую силу промышленного развития, ключевой фактор ВВП и геополитический инструмент».
Тезис о завершении 5-го когнитивного фазового перехода – это концептуальная надстройка над цифрами банкиров и инсайдами технологов. Это перевод дискуссии из плоскости «сколько это стоит» (бизнес) и «как это работает» (технологии) в плоскость «кто мы теперь такие» (антропология).
10 лет я пытаюсь сменить фокус обсуждений ИИ.
Всем интересно и все обсуждают, что нового умеет ИИ. Но никто системно не обсуждает, что происходит с нами, когда ИИ умеет всё больше и больше.
А происходит вот что.
⚡️Аудио-версию слушайте в посте выше 👆
Исследование Уортонской школы бизнеса только что зафиксировало экспериментально: в 80% случаев люди принимают заведомо неверные ответы ИИ и при этом уверены, что отвечают вернее и точнее, чем без него. Машина одалживает им свою уверенность. Они не замечают подмены.
Исследователи MIT увидели то же самое прямо в мозге — через ЭЭГ: у тех, кто не задумываясь над задачей отдаёт решение на аутсорс, функциональная связность мозга снижается примерно вдвое.
Это не апокалипсис. Это конкретная, измеримая уязвимость. Против неё пока нет иммунитета — не потому, что мы слабы, а потому что она атакует через наше колоссальное эволюционное преимущество - готовность доверять тому, кто говорит уверенно.
И это происходит уже сейчас. Не потому, что ИИ задумал против нас что-то плохое. Не потому, что сбывается «Матрица» или «Терминатор». А просто потому, что информационная среда планеты изменилась кардинально — а люди остались теми же.
Плохая новость – HW для ИИ уже не купить
Хорошая новость – если вы не программист, ИИ вас скоро не заменит
Bad News:
Доступность суперчипов для ИИ (NVIDIA B200, H100, A100) упала до критических уровней (<5%).
Попросту говоря:
• купить их по новым контрактам практически невозможно;
• а по старым, всё скуплено китами (CAPEX 2026: Amazon и Alphabet – по $200B, Microsoft и Meta* – по $120B и т.д.)
Цитируя себя – «есть железо, участвуй в гонке; нет железа – кури в сторонке», – предполагаю: мелкоте без $100B здесь не место, а в 2027 суперчипы для ИИ станут еще дефицитней.
Good News:
• Критический дефицит влечет за собой запредельные цены
• Запредельные цены на суперчипы влекут запредельную стоимость вычислений
• Запредельная стоимость вычислений означает, что за исключением областей, где ИИ уже (!) сильно превосходит по производительности людей, дешевле оставить работу за человеком.
N.B. Сказанное выше относится к 2026-2027. И как я твержу уже 2 года – будущее 2027+ непрогнозируемо.