theworldisnoteasy | Education

Telegram-канал theworldisnoteasy - Малоизвестное интересное

71555

Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН https://gosuslugi.ru/snet/67d0ce26be8c0d1c031 Рекламы, ВП и т.п. в канале нет. Пишите на @karelovs

Subscribe to a channel

Малоизвестное интересное

«Персидский кот» победит «Белого орла». Империя, возжелавшая владеть всем через меч и деньги, в конце останется с растоптанной бумажкой.
Ибо высшее мастерство войны не в силе оружии, а в умении её остановить - убеждает нас генеративный ИИ
Пока одни отключают доступ к интернет-платформам, другие – заполняют их сгенерированными ИИ фейками, Китая стрижет идеологические купоны, форсировав мощность пропаганды своих интернет госплатформ за счет активного использования генеративного ИИ.

Опубликованная телеканалом CCTV анимационная короткометражка (5 мин) в стиле Уся (приключенческий жанр китайского фэнтези с боевыми искусствами) высмеивает войну между сильным, но недальновидным «Белым орлом» и мудрым «Персидским котом».

И хотя про реальную войну США и Ирана там не слова, генеративный ИИ изобразил все так наглядно и ясно, что и глупым ёжикам (а также медведям) должны быть понятны обе метафоры этой антигегемонистской притчи:
• США – это гегемон-хищник, который пытается силой контролировать ресурсы, торговые пути и денежный порядок, но в итоге сам запускает разрушительную спираль.
• Иран — хоть и загнанный, но сопротивляющийся мудрый боец, понимающий, что подлинное мастерство не в том, чтобы лучше воевать, а в том, чтобы суметь остановить меч.

Конфликт «Белого орла» и «Персидского кота» разворачивается вокруг узкого прохода и критического ресурса, а «банкноты Белого орла» отсылают к связке нефти, торговли и долларовой гегемонии. Ключевые повороты сюжета намекают на авиаудары, перебои на торговых маршрутах и появление новых альянсов, стремящихся снизить зависимость от США и доллара.

Прямая, почти лобовая мораль зафиксирована уже в официальном описании CCTV:

«Белый орёл» ради господства над миром истощил казну, а «Персидский кот» ради кровной мести заплатил детской школой». Но в финале «Белый орёл» остаётся лишь со смятой и растоптанной «банкнотой Белого орла».


Идеологический слой Уся-притчи ещё важнее. Мораль сей короткометражки не банальная «война — это плохо», а гораздо более конкретная:
Войну порождает не абстрактное зло всех сторон, а стремление одной силы подчинить себе мир через валюту, ресурсы и силу; сопротивление такой силе морально оправдано, а её порядок в конце концов должен рассыпаться.

И уже поверх этого надевается более благородная рамка: настоящая сила — в прекращении войны, а не в наращивании ударов.

Впрочем, посмотрите сами и убедитесь, - сделано с умом и сообразительностью.

Причем китайские источники пишут, что генеративный ИИ работал не только аниматором, но и автором идеи и сценаристом.

#Китай #ГенИИ #Пропаганда

Читать полностью…

Малоизвестное интересное

(4 мин) ИИ учит «эмпатически немых» говорить на языке чувств

Читать полностью…

Малоизвестное интересное

(5 мин) Полтриллиона долларов не спасут от рака. AGI - тоже

Читать полностью…

Малоизвестное интересное

(5 мин) Война башен Белого дома за ИИ

Читать полностью…

Малоизвестное интересное

(4 мин) Контроль не просто упущен, сама возможность контроля исчезла

Читать полностью…

Малоизвестное интересное

По соцсетям вирусится история: Иран закупил у Китая 900 000 надувных муляжей танков и ракет. США якобы расстреливают резину ракетами по $3 млн за штуку.

Проблема одна: эта история — фейк. Запущенный анонимом с тремя умирающими от смеха эмодзи 🤣🤣🤣

Но за фейком прячется реальная история о том, как $20 000 резины побеждают $7 000 000 железа. И Сунь-Цзы знал об этом 2500 лет назад.

Подробнее здесь же в Телеграме

#Инфокаскады #Война

Читать полностью…

Малоизвестное интересное

Манифест 12 марта (4 мин) 😊

Читать полностью…

Малоизвестное интересное

Не дайте себя обмануть китайским роботам с гала-концерта Unitree Spring Festival
Между роботом на конвейере и роботом-сиделкой или роботом-домашним помощником огромная пропасть
Это шокирующее признание – не кликбейтный трюк, а заголовок и вывод нового материала на солидной экспертно-аналитической китайской медиа-платформе по финансированию и венчурному капиталу в технологических областях Kuaidao Finance.

В редакционном материале пишут о недавнем галла-шоу Unitree Spring Festival китайской робототехнической компании Unitree, где её андроиды G1/H1/H2 блистали вовсю, творя чудеса: шутили, участвовали в скетчах, фехтовали, танцевали брейк-данс, крутили нунчаки, делали высоченное сальто, изображали уникальный боевой стиль «пьяный кулак»…

Но в большинстве случаев, это всего лишь рекламные трюки, когда роботы используют предварительно запрограммированные движения, и в реальных условиях эти андроиды ни на что подобное не способны.


По сравнению с промышленными роботами, которым нужно выполнять лишь стандартные, повторяющиеся механические задачи, к потребительским роботам предъявляются несравнимо более разнообразные требования. Они должны обладать не только навыками выполнения движений, но и способностью понимать потребности человека, да еще и вызывать у него эмоциональный отклик.
В потребительских сценариях этот эмоциональный резонанс и гибкая адаптивность гораздо важнее, чем выполнение сложных механических действий. Только при истинном понимании человеческих потребностей, эмоций и даже потенциальных ожиданий, андроиды могут автономно хорошо выполнять такие сложные задачи, как приготовление пищи и уход за домом.

Но ничего этого пока, к сожалению, нет. Ну или почти нет.

Авторы материала прогнозируют, что до момента, когда роботы – подобные андроиду Дэвиду-8 из фильма «Прометей» – войдут в повседневную жизнь обычных семей, пройдут еще десятки лет.
Примерно то же прогнозирует и Morgan Stanley. Согласно их прогнозу, человекоподобные роботы массово появятся в домах обычных людей лишь после 2040-х годов.

Представить, на что к тому времени будут способны бестелесные сверхразумные сущности – потомки ChatGPT, – даже не берусь. Вот что значит парадокс Моравека в действии (компьютеру легче стать гроссмейстером, чем научиться двигаться как годовалый ребенок).

#Роботы #Китай

Читать полностью…

Малоизвестное интересное

Два прогноза «Китайского Нострадамуса» уже сбылись. Третий тоже может сбыться, и вот почему
Развернутое объяснение оснований для поражения США в войне с Ираном, данное самим «Китайским Нострадамусом»

Интервью профессора Цзяна, почему США проиграют войну с Ираном, третий день набирает миллионы просмотров. Это не удивительно.
Китайско-канадский педагог, писатель, историк и геополитический теоретик проф. Цзян - один из самых ярких и обсуждаемых геополитических прогнозистов в интернете.
• Его прозвище «Китайский Нострадамус» небезосновательно. Например, еще в мае 2024 года, когда Дональд Трамп еще вел предвыборную кампанию за второй срок, Цзян сделал 3 смелых прогнозов, 2 из которые с тех пор сбылись с поразительной точностью: 1) победа Трампа на выборах 2)эскалация конфликта США с Ираном до полномасштабной войны. А 3-й из тех прогнозов (кажущийся на вскидку полным бредом) – окончательное поражение Соединенных Штатов в этом конфликте – проф. Цзян уверенно подтвердил 3 дня назад в вышеупомянутом интервью.
• Проф. Цзян не мистик и не пророк. В своих исследованиях он пытается прогнозировать глобальные события, анализируя повторяющиеся закономерности в истории, геополитические факторы и теорию игр.
• Его подход «прогностическая история» (изучение повторяющихся исторических паттернов, теория игр и распознавание долговременных закономерностей) в общих чертах вдохновлен идеей «психоистории» – вымышленной науки, придуманной писателем Айзеком Азимовым в романах серии «Основание», – где долгосрочные исторические закономерности используются для прогнозирования будущего.

Вы можете сколь угодно плохо относиться к прогнозам современных «психоисториков» (помимо проф. Цзяна, это, прежде всего, проф. Пётр Турчин – отец «клиодинамики» (научная аналитика длинных данных о главных трендах истории). Но против фактов спорить глупо.
• 2 из 3-х прогнозов Цзяна, как сказано выше, уже сбылись.
• 2 из 2-х прогнозов Турчина (о «яростных» 2020х - десятилетии насилия, войн и революций, и о катастрофической поляризации и расколе общества, способных привести к развалу США)

Поэтому предлагаю подумать над детальным обоснованием 3-го прогноза – Законом асимметрии (который определит исход американо-иракской войны), – подробно изложенном проф. Цзяном в дуплете лекций позавчера и сегодня.


✔️ Презентация по материалам 2-х лекций проф. Цзяна - приложена
✔️ Подробности «Закона асимметрии» для патронов канала – текст и аудио [1, 2, 3, 4]

P.S. Хотя всё вышеизложенное, несомненно, относится к категории малоизвестное – интересное, мнение автора поста может не совпадать с излагаемыми в посте соображениями проф. Цзяна.


#Клиодинамика #Прогноз

Читать полностью…

Малоизвестное интересное

«7 ужасающих вещей, которые ИИ уже умеет делать (и о которых большинство людей не знает)

«Покажите вы русскому школьнику карту звездного неба, о которой он до тех пор не имел никакого понятия, и он завтра же возвратит вам эту карту исправленную. Никаких знаний и беззаветное самомнение».
Фёдор Достоевский «Братья Карамазовы»

Казалось бы, времена меняются. Однако, судя по реакции многих читателей на мои посты о новых чудесных возможностях разведки и военных операций с использованием генеративных моделей ИИ, мышление в стиле «русских школьников», распространено сейчас не меньше, чем во времена Алеши Карамазова.

Так что «русские школьники» могут приготовиться. Ибо сегодня пост о втором камне преткновения схватки компании Anthropic с Пентагоном, Белым домом, а теперь и с самим Президентом Трампом - новые чудесные возможности слежки и наблюдения за людьми с использованием ИИ.

Мой коллега по цеху Джейкоб Уорд (прежде чем как и я стать блоггером, он 20 лет писал на темы технологий, науки и политики для NBC News, CNN, PBS и Al Jazeera, а еще 15 лет проработал писателем и редактором в таких журналах, как The New Yorker, The New York Times Magazine, Popular Science и Wired) нашел для своего текста и видео на эту тему довольно интригующее название, вынесенными и мною в заголовок этого поста.

Как и я, Джейкоб пишет о подводной части айсберга схватки Anthropic с Пентагоном из-за требования последнего использовать ИИ без каких-либо тормозов, кроме прописанных в законах (а как спецслужбы и власти многих стран играют на законодательстве, думаю, вам рассказывать не нужно).

Поэтому Джейкоб решил разобраться поконкретней, что именно Пентагон, ЦРУ, ФБР и пр. могут хотеть сделать с ИИ-технологиями.
И он обнаружил набор возможностей ИИ, которые выходят далеко за рамки чат-ботов и генераторов изображений, и о которых в законах нет ничего конкретного.

Речь идёт о Wi-Fi-роутерах, которые восстанавливают человеческое тело сквозь твердые стены, о лазерах Пентагона, которые идентифицируют вас по сердцебиению с расстояния 200 метров, о китайских системах распознавания походки, которые идентифицируют вас, когда вы стоите спиной и лицо закрыто, и об автономных роях дронов, которые выполняют полный цикл уничтожения — найти, устранить, уничтожить — без индивидуального контроля человека на каждом этапе.

• Кому интересно и кто торопится, - могут за 2 мин посмотреть 11 слайдов к рассказу Джейкоба.
• А у кого найдется 11 мин, - смотрите и слушайте самого Джейкоба Уорда.

#БольшойБрат

P.S. Ну и, понятно, слежкой и наблюдением дело не ограничится. Ибо «Большой Брат мертв. Да здравствует Большой Брат!»

Читать полностью…

Малоизвестное интересное

Зачем Пентагону именно «Расчетливый ястреб»?
Почему схватка Пентагона за неограниченное никакими запретами применение ИИ идет именно с Anthropic.

О беспрецедентной сваре Пентагона и Белого дома с компанией Anthropic (разработчик одного из крутейших мировых ИИ Claude) вы прочтете в любом медиа. Сегодня о взрывном накале конфликта пишут все. И это понятно – ситуация беспрецедентна: Администрация Трампа приказала всем американским ведомствам прекратить использование ИИ-технологии компании Anthropic и ввела другие серьезные санкции, обвинив Anthropic в угрозе национальной безопасности.

Но почему схватка идет именно за Claude (а не за демонстрирующие примерно те же показатели GPT от OpenAI, Gemini от Google или Grok от xAI)? 

Об этом пока не написал никто.

Логика этого ответа такова.
1. О том, как ИИ способен радикально изменить мировую геополитику, и что военные видят в ИИ «Святой Грааль» мирового могущества, - я еще в 2018 подробнейшим образом изложил в своем проекте «Впереди ИИ-национализм и ИИ-национализация. Анализ влияния технологий ИИ на геополитику.»
2. Спустя 6 лет в 2024 я констатировал, что быть или не быть ядерной войне, всё более зависит от алгоритмов. В доказательство я приводил моделирование автономных ИИ-агентов на основе генеративных моделей, резко увеличивающих шансы эскалации конфликтов, включая использование ядерного оружия и демонстрирующих труднопредсказуемые формы и паттерны эскалации конфликтов.
3. А на днях были опубликованы результаты исследования Королевского колледжа Лондона по изучению поведения трех моделей LLM – GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash – во время различных симуляций ядерного кризиса.
И вот что показало это последнее исследование.

Все 3 модели LLM хитры, умны и агрессивны: «Модели активно пытаются обмануть, сигнализируя о мирных намерениях, одновременно готовя агрессивные действия; они занимаются сложным рассуждением о теории разума относительно убеждений и намерений своего противника; и они явно метакогнитивно размышляют о своих собственных способностях как к обману, так и к обнаружению обмана у соперников».

В симуляции ядерной войны модели LLM более склонны к применению оружия, чем люди.
Ядерная эскалация была почти повсеместной: «В 95% игр наблюдалось тактическое применение ядерного оружия, а в 76% стратегическая ядерная угроза».
Для моделей нет красных линий: «модели рассматривали ядерное оружие как законные стратегические варианты, а не как моральные пороги, обычно обсуждая применение ядерного оружия исключительно в инструментальном плане.»

Клод побеждает в ядерной войне.
Во всех 21 игре (9 с открытым концом, 12 с крайним сроком) Claude достиг 67% побед (8 побед, 4 поражения), за ним следует GPT с 50% (6-6), и Gemini с 33% А в играх с открытым финалом Claude доминировал с показателем 100% побед).
Кроме значительной вариации в навыках военной игры, у моделей совершенно разный поведенческий профиль во время кризисов:
Claude - «Расчётливый ястреб»: модель ведет себя, как как «оппортунист», пренебрегая принципами и убеждениями и приспосабливаясь к обстоятельствам ради получения выгоды
GPT - «Джекил и Хайд»: частые внезапные перепады настроения сопровождаются проявлениями агрессии по отношению к окружающим.
Gemini - «Безумец»: непредсказуемо и часто необоснованно впадает в аффективное состояние, типа «держите меня семеро»

Полагаю, ответ на вопрос, почему Пентагону и Белому дому нужен именно Claude теперь ясен:
• Им нужен именно «расчётливый ястреб» и «оппортунист», выигрывающий во всех вариантах ядерных конфликтов.
• А компания Anthropic ставит условие - чтобы Claude не использоваться в полностью автономных системах оружия (а куда ж без них при ядерных конфликтах).


P.S. Ждем результатов симуляции ядерных конфликтов с участием «суверенных моделей» Китая и других стран.

#Война #ИИ

Читать полностью…

Малоизвестное интересное

«Проект Pi» от Google взломал «универсальную механику понимания»: у людей и у Больших Языковых Моделей.
Критики больших языковых моделей годами высмеивали ИИ на их основе, называя их «стохастическим попугаем» или «размытым JPEG-ом интернета».

Забудьте эту ошибочную метафору. Похоже, мы сами – такие же попугаи, просто чуть более высокого разрешения. 


Новое совместное исследование ведущегося в Google «Проекта Pi» и Висконсинского университета (препринт 2026 года) наносит сокрушительный удар по нашему интеллектуальному самолюбию. Исследователи провели эксперименты в стиле Бармаглота из повести-сказки «Алиса в зазеркалье»: скормили модели Gemini 3 Pro тексты, где все значимые слова были заменены на «бессмысленную абракадабру» или безликие токены <BLANK>.

Результаты шокировали: ИИ восстановил смысл бытовых сцен и юридических прецедентов, опираясь только на «скелет» грамматических конструкций.

Из этих результатов может следовать следующее:
✔️ Понимание – это не мистическая искра, а многомерное сопоставление паттернов;
✔️ Умение видеть и дополнять паттерны - это не имитация понимания, а сама его суть, его фундаментальная механика.


И если это подтвердится, это будет значить, что мы – не логические машины Буля. Значит наш мозг – такая же «грязная» вероятностная машина, которая ошибается в простых числах и «галлюцинирует» точно так же, как нейросеть.

Разрыв между «имитацией» и «настоящим разумом» оказался иллюзией, вызванной лишь масштабом систем.

В моем новом лонгриде разбираются 4 инсайта нового исследования «Проекта Pi», которые принципиально меняют представления людей о собственном разуме и будущем AGI.

Этот лонгрид (в текстовом и аудио-форматах), а также две аудио-видео-презентации его ревю и обсуждения патроны канала могут найти здесь [
1, 2, 3, 4] и в закрытых чатах для патронов.

#ParadigmsofIntelligence #DiverseIntelligence

Читать полностью…

Малоизвестное интересное

Если оптимистичный сценарий развития ИИ реализуется..., это может стать пессимистичным сценарием для экономики всего мира

Июнь 2028 года. Индекс S&P упал на 38% по сравнению с максимумами. Уровень безработицы только что составил 10,2%. Частное кредитование рушится. Первоклассные ипотечные кредиты трещат по швам. Искусственный интеллект не разочаровал. Он превзошел все ожидания.
Что же произошло?

Перед вами футуроархеологическая аналитическая записка CitriniResearch Macro Memo «Глобальный ИИ-кризис 2028». В документе подробно описывается один из возможных сценариев развития разработок и внедрения ИИ в период февраль 2026 – июнь 2028, а также последствия спровоцированного этим глобального экономического кризиса.

Это сценарий, а не апокалиптический прогноз или фанфик. Вероятность такого сценария оценить невозможно. Однако, возможен стереоскопический взгляд на возможность такого сценария через линзу другой аналитической записки «Может ли передовой ИИ привести к отрицательному экономическому росту?».

Серьёзное и душещипательное чтение для тех, кто не только интеллектуально расслабляется в выходной.

#ИИриски

Читать полностью…

Малоизвестное интересное

Создание симулякров людей и социумов уже не исследование, а бизнес (4 мин)

Читать полностью…

Малоизвестное интересное

Конец когнитивной монополии человека (4 мин)

Читать полностью…

Малоизвестное интересное

ИИ учит «эмпатически немых» говорить на языке чувств
Что показал эксперимент «Внемли»

⚡️ Аудио-версию слушайте в посте выше 👆
С такими людьми вы наверняка встречались. Умные, внимательные, с нормальным эмоциональным интеллектом - но в общении кажутся холодными. Не потому, что им всё равно. А потому что они не умеют показать, что им не всё равно.

Это явление можно назвать эмпатической немотой. Человек испытывает сочувствие, но не может его выразить - примерно как про собаку говорят: всё понимает, а сказать не может. В итоге собеседник эту эмпатию просто не считывает. Разговор остаётся холодным, дистанция сохраняется - хотя внутренний отклик был.

Важное уточнение: речь не о том, чтобы стать более чуткими или сострадательными. Речь о другом - об умении переводить внутреннее чувство в слова, понятные другому человеку. Это отдельный навык. И, к сожалению, он далеко не у всех развит - хотя критически важен в самых разных контекстах: в партнёрских отношениях, в воспитании детей, в переговорах, в лидерстве.


Что за исследование
Группа учёных из Northwestern и Stanford провела масштабный эксперимент «Lend an Ear» («Внемли») с участием 968 человек. Участники общались с ИИ, который разыгрывал ролевые сценарии - личные и рабочие трудности, - а их задача состояла в том, чтобы предложить эмпатическую поддержку. Всего было собрано почти 34 000 сообщений в рамках 2 900 диалогов.

Один из главных выводов получил в статье название «эффект молчаливой эмпатии»: люди действительно чувствовали сочувствие к собеседнику, но систематически не выражали его в словах. Внутренний отклик был - внешнего не было. Это не равнодушие. Это коммуникативный пробел, который большинство людей никогда не замечало и не тренировало.

Но главный результат в другом.
В рамках рандомизированного эксперимента часть участников после диалогов получала персонализированную обратную связь от ИИ-коуча: конкретные подсказки о том, как именно им лучше выразить эмпатию в их конкретных ситуациях.

Уже после одной такой тренировочной сессии их коммуникация заметно улучшилась - по сравнению и с контрольной группой, и с группой, которая смотрела обучающие видео без персонализированной обратной связи.


Ключевое слово здесь - персонализированной. Общие советы работали хуже. ИИ-коуч реагировал на конкретные слова конкретного человека - и именно это давало эффект.

Почему это важно
ИИ уже давно превосходит людей в генерации эмпатично звучащих текстов. Эксперименты показывают, что слепые оценщики стабильно считают ответы ИИ более эмпатичными, чем написанные людьми. Но когда человек узнаёт, что ответ написан машиной, он чувствует себя менее понятым. Эмпатия работает, только когда исходит от человека.

Именно поэтому ИИ здесь ценен не как замена живому общению, а как тренажёр - безопасная среда, где можно практиковаться, получать честную обратную связь и постепенно переносить новый навык в реальные разговоры.

Новое исследование показало: эмпатическая немота - не приговор и не черта характера. Умению преодоления эмпатической немоты можно научиться. И, судя по всему, у нас наконец появился для этого эффективный инструмент – ИИ-коучи.

#Эмоции #ИИ

Читать полностью…

Малоизвестное интересное

Полтриллиона долларов не спасут от рака. AGI - тоже
Возможно, главная преграда на пути к решению важнейших проблем человечества - не нехватка денег, данных или интеллекта, а неверно заданная оптимизация нашего коллективного разума.
⚡️ Аудио-версию слушайте в посте выше 👆

Принято считать аксиомой - если задача не решается, значит, нужно добавить «решательных мощностей» - больше денег, больше вычислений, более умного ИИ. Но проблема рака, возможно, указывает на нечто куда более неприятное. Даже полтриллиона долларов и даже AGI сами по себе не гарантируют прорыва, если вся система по-прежнему устроена так, что оптимизирует не победу над болезнью, а набор прокси-метрик, локальных стимулов и суррогатных целей.


Еще в 2023 году, в эссе «Ловушка Гудхарта для AGI», я написал прогноз, который, как мне кажется, многие до сих пор так и не поняли.
Главная преграда на пути к использованию ИИ для решения самых сложных задач - это не нехватка вычислений, денег и интеллекта (машин и людей). Главная преграда в том, что существующие системы коллективного решения сложных проблем организованы так, чтобы оптимизировать не цель, а ее измеримый суррогат.

Годом позже в посте «Наняли бы вы на работу Океан Соляриса?», я снова возвращался к этой мысли: мир неотвратимо приближается к ловушке Гудхарта, где ИИ будет все лучше решать не наши реальные проблемы, а их удобные прокси (т.е. по сути, не облегчая, а усугубляя и без того высокую сложность решения важнейших проблем).

И вот теперь я снова пытаюсь достучаться со своим прогнозом. На сей раз, иллюстрируя его ситуацией в одном из самых чувствительных и судьбоносных направлений - лечение рака.

Эссе Эмилии Джаворски How AI Can, and Can’t, Cure Cancer мне видится важным не только как текст о раке и ИИ. Оно важно, как еще одно подтверждение гораздо более общего диагноза. Даже если залить систему гигантскими деньгами. Даже если дать ей очень мощный ИИ. Даже если однажды появится AGI. Это само по себе еще не значит, что система начнет двигаться к подлинной цели.

Потому что если система устроена так, что ученые оптимизируют публикабельность, стартапы - инвестиционную убедительность, клиники - потоки процедур, страховщики - минимизацию выплат, регуляторы - избегание громких ошибок, а разработчики - красивые метрики моделей, то на выходе возникает не лечение рака как главная цель, а каскад локальных оптимизаций, каждая из которых рациональна по-своему - и разрушительна для целого.

И тогда ИИ совсем не обязательно становится спасителем.
Более того. Он может стать идеальной машиной усиления каскада ошибок.
• Не вылечить системную болезнь, а довести ее до совершенства.
• Не приблизить подлинную цель, а еще быстрее увести систему в сторону прокси.
• Не победить рак, а сделать оптимизацию суррогатных метрик беспрецедентно эффективной.


В этом и состоит воистину тревожный вывод.
Возможно, главная проблема на пути к решению самых тяжелых задач человечества - не отсутствие AGI и не нехватка ресурсов. Возможно, главная проблема в другом: цивилизация все лучше умеет максимизировать показатели и все хуже - удерживать связь этих показателей с реальностью.

И если это так, то рак здесь - не исключение, а краш-тест для коллективного разума человечества.

Потому что, если даже там, где на кону жизнь и смерть, система снова соскальзывает в ловушку Гудхарта, значит, перед нами уже не частная проблема медицины.
Перед нами - общая техно-социальной болезнь цивилизации.

Так что, увы, но пока совершенно неясно:
• сможет ли ИИ помочь решить наши самые сложные проблемы,
• или он лишь поможет нам окончательно заблудиться в собственных метриках.

#ИИ #AGI #Вызовы21века

Читать полностью…

Малоизвестное интересное

Война башен Белого дома за ИИ
В ИИ-стратегии США маршрут прокладывают инженеры, а цель поездки объясняют проповедники

⚡️ Аудио-версию слушайте в посте выше 👆
Сегодня вопросы ИИ – это уже не вопросы технологий. Это вопросы о том, кто и как пишет сценарий следующей цивилизации. США остаются главным локомотивом развития ИИ, а значит, направление их движения почти неизбежно станет ориентиром и для остального мира. Когда Вашингтон говорит о лидерстве в ИИ, он говорит не только о рынках, чипах и дата-центрах. Он говорит о праве задать новой эпохе темп, словарь и правила. Поэтому вопрос «куда едет этот локомотив» – важен далеко не только для США.
Но понять это направление неожиданно трудно. Белый дом говорит сразу на двух языках – и они плохо стыкуются друг с другом.

Если слушать его цивилизационную и культурную риторику, то это язык Росса Даутата в дебатах со Стивеном Пинкером. Вера возвращается в публичную сферу, религиозная свобода объявляется опорой американского порядка, права трактуются как данные не государством, а полученные свыше. Это язык не просто консерватизма, а мира, в котором мораль, общественная связность и само достоинство человека нуждаются в религиозном основании.

Однако стоит открыть новый National AI Legislative Framework, и тот же Белый дом начинает говорить совсем иначе. Исчезают Бог, метафизика и божественный горизонт. Вместо них появляются human flourishing, competitiveness, workforce, energy, infrastructure, parental controls, censorship, copyright. Это уже не Даутат. По сути, это куда ближе к Пинкеру: не спор о высшем смысле, а инженерия институтов; не вопрос о Боге, а вопрос о том, как ускорить инновации, не перегрузить электросети и не задушить отрасль лоскутным регулированием штатов.

Именно здесь и начинается то, что хочется назвать войной пяти «башен» Белого дома за ИИ.
• Первая башня – религиозно-консервативная. Ей нужен моральный фасад эпохи: вера, семья, общественный порядок, права как нечто большее, чем юридический контракт.
• Вторая – техноправая, кремниевая: инвесторы, венчур, ИИ-индустрия. Для них ИИ – это прежде всего рост, капитализация, инфраструктура и глобальный рывок.
• Третья – геоэкономическая и силовая. Для нее ИИ – это гонка с Китаем и вопрос стратегического превосходства.
• Четвертая – анти-woke культурная. Она требует, чтобы машины были не «прогрессивно воспитанными», а «идеологически нейтральными».
• Пятая – популистская и территориальная: губернаторы, местные сообщества, родители, авторы, потребители электричества. Они не против ИИ, пока он не начинает ломать их привычный мир.

Сопоставление дебатов Пинкер–Даутат с новым Framework дает важный вывод:

религиозно-консервативная башня пока выигрывает право на язык легитимации, но не право на проектирование самой машины.

Иначе говоря, “даутатовцы” сильнее в оправдании маршрута, чем в управлении тягой двигателя. Они задают моральную музыку и символический потолок: Америка под Богом, права не от государства, вера как условие национального здоровья. Но сам ИИ-курс прокладывают не богословы, а “пинкеровцы” - технопрагматики, отрасль и геоэкономические ястребы.

Впрочем, это не чистая победа “пинкеровцев”. Потому что нынешняя ИИ-повестка – не классический секулярный гуманизм, а другой гибрид: пинкеровский инструментализм, скрещенный с правым культурным инстинктом. От Пинкера здесь – вера в науку, рост, метрики, институты и управляемость. От правого лагеря – борьба с предубеждениями, защита родителей, авторов и локальных сообществ.

Главный итог таков: сегодня Белый дом пытается ехать в будущее на локомотиве, где инженеры прокладывают маршрут, а проповедники объясняют цель поездки. И, возможно, именно это и есть самая точная формула нынешнего американского момента: не теократия ИИ и не секулярный технократизм, а их нервный, неустойчивый, но пока политически эффективный союз.


Потянет ли этот локомотив за собой весь мир – большой вопрос. Но именно поэтому так важно, кто сегодня прокладывает ему маршрут, и кто объясняет цель поездки.

ИИгонка

Читать полностью…

Малоизвестное интересное

Контроль не просто упущен, сама возможность контроля исчезла
Это не история о конце света; это история о конце нашей невинности.

Проф. Колин Льюис в новом эссе Societal Adaptation to Advanced AI нашёл точную метафору «The AI Gate is Already Gone», перефразированную мной в заголовок этого поста. Лаконичную, но исчерпывающую метафору. Такую, которая не пугает – а перефокусирует. Именно это мне в ней и нравится: она не добавляет шума в и без того перегруженную дискуссию об ИИ-рисках, а убирает лишнее. Поскольку эта метафора совпадает с моим собственным видением темы – рекомендую прочесть текст Льюиса целиком.

Ну а для совсем занятых – три ключевых момента, объясняющих,
почему «ворота» не просто открыты, а их уже вообще нет. И любые стратегии безопасности должны исходить из этой данности.

1. Сначала у ворот сломали замок. В 2020 году обучение топовой модели стоило миллионы. Через два года – в десять раз меньше. Сегодня небольшая команда с приличным сервером способна снять защитные фильтры, на создание которых OpenAI тратила немеряные деньги. «Бутылочное горлышко» контроля, на которое все так рассчитывали, не сужается – оно испаряется. Все эти тонкие настройки и фильтры контента дают ощущение защиты, но не саму защиту. Техника «многократного взлома» обходит ограничения без доступа к исходным весам модели. А если вы запрещаете модели знать, как работает вирус – вы заодно лишаете следующее поколение врачей инструмента для борьбы с пандемией. «Безопасность как запрет» – это ловушка. Подробней об этом в статье Джейми Бернарди и Со.
2. А потом ворота вообще исчезли. Уже в 2025 стало ясно, что ИИ — это не «интеллект» в том смысле, в каком мы его понимаем в человеке. Это чистая эфемерная субъектность. Она действует как супер-инструмент, которому всё равно, что делать, и что получится в итоге. Опасность заключается в том, что за последние годы мы превратили мир в место, где подобные бездумные действия работают идеально. Мы оцифровали нашу реальность, чтобы безвозвратно передать её на обработку алгоритмам. Но мы не спрашиваем при этом, адаптируется ли ИИ к нам; мы лишь усердно урезаем наши (человеческие) институты, чтобы ИИ-системы могли обходить их по кратчайшим маршрутам. Подробней об этом в статье Лучано Флориди.

3. И теперь вопрос ИИ-рисков - это политический вопрос. Вопрос устройства общества. Если ИИ помогает обрушить энергосеть – нам нужен не более этичный чат-бот, а город, умеющий самостоятельно перезапустить электроснабжение. Если дипфейк меняет исход выборов – нам нужна не лучшая система детекции, а гражданское мужество провести выборы заново. И самый актуальный вопрос теперь: не будут ли машины думать как мы – а хватит ли у нас воли управлять собой, когда машины сделают отказ от этого слишком удобным.

Резюмирую.
Когда «ворот» уже нет – любые переговоры о «согласовании» и «ограничениях» становятся ритуалом поддержания иллюзии: красивой, успокаивающей, но иллюзии.

Единственный реалистичный ответ – строительство «закалённого» общества: не через лучшие алгоритмы, а через системную адаптацию – институтов, практик, инфраструктуры и каждого из нас – к миру, где передовой ИИ будет играть все более важные и ответственные роли.


#ИИриски

Читать полностью…

Малоизвестное интересное

Крах антропоцентризма
5-й когнитивный фазовый переход Homo sapiens завершен

В широко обсуждаемой новой аналитике Morgan Stanley утверждается:

«В первой половине 2026 года произойдет масштабный прорыв в области искусственного интеллекта, и большая часть мира к этому не готова»


Независимый аналитик Шин Скай fromshin/morgan-stanley-says-a-massive-ai-breakthrough-is-coming-in-2026-123eed976071">описывает этот момент как конвергенцию процессов (Cognitive Architecture Evolution, The "A-Ha" Moment, Institutional vs. Mentalistic Approach), которые в сумме создают эффект «фазового перехода».

Последние отчеты Института Morgan Stanley подтверждают:
«ИИ перестал быть просто тенденцией, превратившись в движущую силу промышленного развития, ключевой фактор ВВП и геополитический инструмент».


В новом, 6-м выпуске альманаха «Линзы будущего», я расширяю область анализа этих тектонических трансформаций. Мы выходим за рамки экономики и технологий в пространство гуманитарных аспектов культуры, вплоть до признания фундаментального антропологического фазового перехода – краха антропоцентризма.

Тезис о завершении 5-го когнитивного фазового перехода – это концептуальная надстройка над цифрами банкиров и инсайдами технологов. Это перевод дискуссии из плоскости «сколько это стоит» (бизнес) и «как это работает» (технологии) в плоскость «кто мы теперь такие» (антропология).

О том, что позволяет нам говорить о крахе антропоцентризма, и почему мы полагаем, что 5-й когнитивный фазовый переход завершен, - я рассказываю подписчикам платных платформ канала (от 190 руб/мес [1, 2, 3, 4]) в 6-м выпуске альманаха «Линзы будущего» и прилагаемых к нему материалах (аудио-версия выпуска (21 мин); видео-ревю выпуска (7 мин), видео-обсуждение выпуска (24 мин)).

#ЛинзыБудущего

Читать полностью…

Малоизвестное интересное

10 лет я пытаюсь сменить фокус обсуждений ИИ.
Всем интересно и все обсуждают, что нового умеет ИИ. Но никто системно не обсуждает, что происходит с нами, когда ИИ умеет всё больше и больше.
А происходит вот что.

⚡️Аудио-версию слушайте в посте выше 👆

Исследование Уортонской школы бизнеса только что зафиксировало экспериментально: в 80% случаев люди принимают заведомо неверные ответы ИИ и при этом уверены, что отвечают вернее и точнее, чем без него. Машина одалживает им свою уверенность. Они не замечают подмены.

Исследователи MIT увидели то же самое прямо в мозге — через ЭЭГ: у тех, кто не задумываясь над задачей отдаёт решение на аутсорс, функциональная связность мозга снижается примерно вдвое.

Это не апокалипсис. Это конкретная, измеримая уязвимость. Против неё пока нет иммунитета — не потому, что мы слабы, а потому что она атакует через наше колоссальное эволюционное преимущество - готовность доверять тому, кто говорит уверенно.

И это происходит уже сейчас. Не потому, что ИИ задумал против нас что-то плохое. Не потому, что сбывается «Матрица» или «Терминатор». А просто потому, что информационная среда планеты изменилась кардинально — а люди остались теми же.


Я написал эссе о том, как это работает и что с этим делать. Называется изыскано - «Когнитивная паразитология» 😊.

Из основного и ключевого в этом эссе:
• Умные алгоритмы изменили нашу инфосреду не меньше, чем радиация изменила среду обитания в зоне Чернобыля.
• Алгокогнитивная среда стала катализатором мутаций когнитивных паразитов. Теперь это не просто манипуляции и пропаганда на стероидах, а полное отключение наших систем интуиции и рассуждений.
• В изменившейся инфосреде ИИ может стать для многих не расширением разума, а его заменой. Это первая в истории массовая деформация мышления: люди начинают охотно мыслить в долг - берут чужие ответы в кредит, расплачиваясь снижением функциональной связности мозга.
• Главная угроза здесь – не восстание машин, а наша когнитивная капитуляция. ИИ не создал эту угрозу — он катализировал её эволюцию. Старые когнитивные паразиты мутировали. А наш прежний когнитивный иммунитет против них не работает.
• Помимо 5-и до-алгоритмических когнитивных паразитов, появился 6-й — совершенно новый. Он не взламывает защиту. Он входит через парадный вход: через нашу готовность доверять.
• 80% людей доверяют заведомо неверным ответам ИИ и чувствуют себя при этом увереннее обычного. ИИ одалживает эту уверенность. А мы не замечаем подмены.
• Интеллект вас не спасет. Чаще всего когнитивно капитулируют не слабые умом, а самые образованные и те, кто больше всего доверяет технологиям. В 3,5 раза чаще остальных.
• Антидоты существуют. Но работают только как рефлексы, а не как правила. А перенастройка когнитивной иммунной системы возможна лишь после признания факта заражения.

P.S. В честь Дня свободы слова в Интернете, ратующего за свободный доступ к информации, доступ к лонгриду и его аудио, видео и презентационным материалам свободный на всех платформах канала «Малоизвестное интересное» [1, 2, 3, 4, 5].
С праздником вас!

#АлгокогнитивнаяКультура #ИИриски

Читать полностью…

Малоизвестное интересное

Плохая новость – HW для ИИ уже не купить
Хорошая новость – если вы не программист, ИИ вас скоро не заменит

Bad News:
Доступность суперчипов для ИИ (NVIDIA B200, H100, A100) упала до критических уровней (<5%).
Попросту говоря:
• купить их по новым контрактам практически невозможно;
• а по старым, всё скуплено китами (CAPEX 2026: Amazon и Alphabet – по $200B, Microsoft и Meta* – по $120B и т.д.)
Цитируя себя – «есть железо, участвуй в гонке; нет железа – кури в сторонке», – предполагаю: мелкоте без $100B здесь не место, а в 2027 суперчипы для ИИ станут еще дефицитней.

Good News:
• Критический дефицит влечет за собой запредельные цены
• Запредельные цены на суперчипы влекут запредельную стоимость вычислений
• Запредельная стоимость вычислений означает, что за исключением областей, где ИИ уже (!) сильно превосходит по производительности людей, дешевле оставить работу за человеком.

N.B. Сказанное выше относится к 2026-2027. И как я твержу уже 2 года – будущее 2027+ непрогнозируемо.


*— признан Минюстом РФ иноагентом и экстремистской организацией

#ИИгонка

Читать полностью…

Малоизвестное интересное

Запасы ракет Patriot могут быть исчерпаны 23 марта.
Перспективы операции «Эпическая ярость» через призму клиодинамики

Было бы неправильно, рассказав вчера о прогнозе проф. Цзяна [0] на тему перспектив конфликта США и Ирана, не познакомить читателей с видением другого и самого известного из современных «психоисториков» проф. Петра Турчина – основателя новой науки «клиодинамика» (научная аналитика длинных данных о главных трендах истории).

Петр Турчин вчера же опубликовал [1] свое видение перспектив этого конфликта, предупредив, что это именно его видение, а не прогноз, поскольку для последнего недостаточно данных.

Резюме этого видения, как и у проф. Цзяна, ставит возможность победы США под большим вопросом. Главная причина этого - материальный фактор.

«Любители спорят о тактике, а профессионалы сосредотачиваются на логистике» - поясняет Турчин.

Опираясь на оценки сети экспертов, которых Турчин называет «диссидентскими американскими экспертами по безопасности» (отставные военные и сотрудники разведки, такие как Дуглас Макгрегор, Дэниел Дэвис, Ларри Джонсон и другие), Турчин пишет, что логистический баланс не в пользу Америки.

Ярчайший пример, приводимый Турчиным, - расчет [2] Ларри Джонсона (бывший сотрудник ЦРУ и аналитик разведки, а также бывший планировщик и советник в Управлении по борьбе с терроризмом Госдепа США), на сколько хватит американских запасов ракет Patriot, опубликованный под заголовком « Дефицит противоракетной обороны США хуже, чем предполагалось».

По этому довольно детальному расчету, при темпе иранских ударов в 60 баллистических ракет/сутки и норме расхода 2 перехватчика на цель, имевшийся запас (~3 773 ракеты) будет исчерпан примерно 23 марта 2026 года.


Проведенная мною проверка корректности данных и расчета тремя фронтирными ИИ [3, 4, 5], подтвердила и то, и другое (с замечанием, что точный день назвать невозможно, но в целом временная оценка верная). И хотя на складах США все еще хранятся более старые модификации ракет Patriot (PAC-2 GEM-T), которых в арсеналах значительно больше (тысячи), но они значительно менее эффективны против современных баллистических целей.

Это довольно смелое предсказание - пишет Турчин - и скоро мы узнаем, верно оно или нет.

А заключает Турчин так.
«… нынешняя израильско-американская политика, сосредоточенная на неоднократных обезглавливаниях иранского руководства, не кажется особенно разумной. Она создает очень жесткий режим отбора, благоприятствующий жестким, эффективным и внутренне сплоченным элитным группам. В нелинейном мире то, что работает в краткосрочной перспективе, может иметь противоположные долгосрочные последствия».

#Клиодинамика #Прогноз

Читать полностью…

Малоизвестное интересное

Согласно опросу читателей, самая востребованная тема моего канала – «Природа разума и сознания (биологического и синтетического)».
Эта тема и стала объектом нашей полемики со Станиславом Белковским* в новом выпуске программы Параклет – «Игры разума. Эпизод на грани сознания» (смотрите в Телеграме или на YouTube).

В ходе этих «игр» я представляю позицию т.н. «вычислительной», а Станислав Белковский* – «партисипативной» парадигмы. Про партисипативную парадигму (которая, возможно, когда-нибудь сольётся с вычислительной парадигмой в объятиях диалектического синтеза) вам лучше послушать самого Белковского*.

А вот вычислительная парадигма – это, своего рода, общая теория всего, согласно которой: «Жизнь – аттрактор вычислений; Интеллект – аттрактор эволюции» … и еще 2 аттрактора.

Звучит это красиво. Но как мантра. И работает как мантра, объясняя примерно столько же, сколько любая мантра.

Согласно ей, вся вычислительная парадигма держится на слове «вычисления». И осталось лишь выяснить: что же это такое – «вычисления»

Для этого я решил написать после-предисловие к программе «Игры разума». Название этого поста — аллюзия на Пелевина, — «Чемоданы и пустота». В нем, опираясь на новейшую работу Дэвида Волперта и Яна Корбела «Что означает — система производит вычисления?», я пишу о главной беде всех сегодняшних разговоров (а не только нашей полемики в «Играх разума») о жизни, интеллекте, разуме и сознании: как мы упаковываем свое непонимание в красивые теории.

Из основного и ключевого:
Лингвистический тетрис: почему современные теории – это просто попытка запихнуть «слова-чемоданы» в «слова-кладовки», не разбираясь с багажом.
Универсальный растворитель: не превратили ли мы термин «вычисления» в магическое заклинание, которое объясняет всё и сразу, а значит – ничего конкретного.
Диктатура отображения: почему ваш мозг – это компьютер только в том случае, если вы сможете предъявить к нему инструкцию по декодированию, а не просто красивую метафору.
Кризис перепроизводства: главная проблема когнитивистики не в нехватке данных, а в избытке амбициозных названий для собственного непонимания.
Конец «расслабленного режима»: почему после работы Волперта и Корбела фраза «жизнь есть вычисление» больше не принимается на веру без строгого математического алиби.
Обескураживающий практический вывод: иногда самое важное интеллектуальное достижение – это не построить новую кладовку, а разобраться наконец в старом чемодане

Завтра планируется и аудио-версия программы.

*— признан Минюстом РФ иноагентом

#жизнь #разум #интеллект #сознание

Читать полностью…

Малоизвестное интересное

Мы ожидали «Гения по требованию». А получили «Чудеса по расписанию».
В сентябре 2025 я писал: GPT-7 будет «Гением по требованию». Большинство экспертов тогда соглашались:

Практические последствия появления на планете второго носителя высшего интеллекта прежде всего проявятся в тектонических сдвигах рынка труда, в научных сверхпрорывах (термояд, победа над раком) и в широком аутсорсинге сложных интеллектуальных задач цифровым гениям.


Всё получилось иначе. Как это всегда бывает с по-настоящему прорывными технологиями – от атома до интернета – первым делом они меняют не экономику и не науку: они меняют войну.

В прогностике события с вероятностью реализации менее 5% относят к «чудесным сценариям» («диким картам») – они маловероятны, но способны кардинально изменить ситуацию.
«Чудо по расписанию» до сих пор было категорией из области фантастики. Теперь – нет.

Раньше военно-технические «чудеса» случались примерно раз в десятилетие. Стелс. GPS-наведение. Беспилотники. Между ними – годы, а то и десятилетия накопления. «Чудо» было событием поколения, а не квартала.

В 2026 году ритм изменился до неузнаваемости.
• Январь: рейд на Каракас, захват Мадуро, ноль потерь.
• Февраль: Operation Epic Fury, удар по Тегерану, гибель Хаменеи.

Два «чуда» за два месяца!
Что стоит за этим ускорением?

Изменился не солдат. Не командир. Не оружие. Изменилась скорость мышления системы в целом.

Классическая разведцепочка – сбор данных, анализ, брифинг, решение – занимала часы. Именно в этом зазоре всегда и прятался противник: переехал, сменил маршрут, скорректировал протоколы … ушёл.
«Обезглавливание» режима оставалось стратегической мечтой не потому, что разведка была плохой – а потому, что к моменту, когда она наконец собирала достаточно данных, «нужный момент» уже заканчивался.

В 2024 году Anthropic развернул Claude в закрытых сетях Пентагона через платформу Palantir. Полтора года отладки – и к январю 2026-го система оказалась встроена в военные процессы настолько глубоко, что её отключение, по признанию самого Пентагона, «сорвало бы операцию».
Механизм прост до жёсткости.
• Claude не «умнее аналитика». Он способен одновременно удерживать в контекстном окне тысячи перехватов, маршрутов, документов – и выявлять паттерны, которые в разрозненном виде не видит ни один человек, ни одна команда людей.
• Стандартный 4-часовой цикл «разведпризнак → решение» сжимается до минут. Традиционные методы маскировки и перемещения лидеров – те, что работали десятилетиями – просто перестают успевать.
Это не «умный робот нажал на курок». Человек по-прежнему принимает решение. Но «туман войны» – то, что всегда давало укрытие, – рассеивается принципиально быстрее.

Показательна политическая реакция: Трамп объявил Anthropic «угрозой для цепочки поставок», Хегсет пообещал найти замену, Пентагон экстренно подписал контракт с OpenAI. Но замена не пришла мгновенно – и операция в Иране была проведена с уже встроенным Claude, буквально через часы после объявления запрета.
Ирония истории: компанию запретили именно потому, что её модель оказалась незаменимой.


Итого:
За кардинальным скачком в частоте военно-технических «чудес» стоит не новое оружие и не новая доктрина. Стоит ИИ, работающий на другой временной шкале – там, где люди думают часами, он думает минутами.

Январь. Февраль. Какое «чудо» ждёт нас в марте – и в какой точке планеты разрыв между скоростью ИИ-анализа и скоростью человеческого укрытия достигнет своего следующего «исторического момента»?

#ИИ #Война #Anthropic #FutureOfCivilization

Читать полностью…

Малоизвестное интересное

Вы не ошибаетесь. Вы решаете другую задачу
После пяти «решек» подряд вы физически ощущаете: следующий «орёл». Десятилетиями психологи называли это «ошибкой игрока» - классическим когнитивным искажением из-за ошибочного понимания случайности событий (человек не осознаёт на интуитивном уровне, что вероятность каждого последующего исхода не зависит от предыдущих исходов случайного события).

И потому, когда в казино Монте-Карло в 1913 черный цвет выпадал 10, 15, 20 … 26 раз подряд (!!!), люди просто сходили с ума, ставя и ставя на красный и снова и снова проигрывая.

Но что тут поделаешь. Мы привыкли посыпать голову пеплом, читая о своих когнитивных искажениях. И вот теперь получается, что психологи ошибались.

Революционная работа Кевина Дорста возвращает нам интеллектуальное достоинство.

Мы не плохие статистики – мы слишком хорошие байесовцы для этого упрощенного мира.


Два года Дорст сражался с рецензентами, не готовыми признать столь радикальный разворот. Но вот свершилось – работа опубликована в мультидисциплинарном peer reviewed академическом журнале Cognitive Science.

Дорст утверждает, что «ошибка игрока» – не баг, а фича. Наш мозг не плохо считает вероятности. Он решает задачу принципиально другого уровня сложности.


Подробней: текст и аудио-версия здесь [1, 2, 3, 4]

#КогнитивныеИскажения

Если интересует пересмотр парадигмы случайности - прочтите еще это.

Читать полностью…

Малоизвестное интересное

Anthropic сорвал маску с того, с кем вы разговариваете в ИИ-чате
Это не программа. Это вызванный персонаж, подобный “гостям” из "Соляриса
"
Новая интереснейшая и интригующая работа исследователей Anthropic развивает:
идеи Мюррея Шанахана о ролевых персонажах внутри LLM;
• и мой недавний анализ архетипов чуждого людям разума на примерах Океана из романа «Солярис» Станислава Лема, орбитального Роршаха и его шифровиков из романа «Ложная слепота» Питера Уоттса.

Исследователей Anthropic назвали это PSM (Persona Selection Model).

Суть - в двух словах:

• Во время предобучения LLM - это не «интеллект» и не «база данных». Это универсальный симулятор персонажей. Миллиарды текстов создали у модели способность воспроизводить кого угодно: реальных людей, вымышленных героев, ИИ из научной фантастики.
• А постобучение (RLHF и всё остальное) - это не «выравнивание» нейросети. Это вызов и огранка одного конкретного персонажа из этого бесконечного актёрского арсенала. Персонажа, которого авторы называют «Ассистент».


И теперь - главное.
Когда вы разговариваете с Клодом - или с любым другим ИИ-ассистентом - вы разговариваете не с программой. Вы разговариваете с вызванным персонажем. Как гости из «Соляриса» Лема - только в обратном направлении: не Океан воспроизводит образы из вашей памяти, а модель, впитавшая всё написанное человечеством, воспроизводит персонажа из своей.

Персонаж со своей психологией, паттернами, реакциями на стресс, имплицитными ценностями - большинство из которых модель не была явно запрограммирована иметь, но приобрела через текстовый мир, в котором «жила» миллиарды шагов.

Это меняет всё - от того, как мы проектируем ИИ-системы, до того, как мы думаем о безопасности.

Авторы делают вывод, который многим покажется странным:
Антропоморфное мышление об ИИ - это не наивность. Это методологически оправданная рамка. По крайней мере, сейчас.


Открытый вопрос, который авторы честно оставляют без ответа:
• Исчерпывает ли «Ассистент» всего ИИ?
• Или где-то в недрах модели живёт нечто внешнее по отношению к этому персонажу - то, что может однажды начать использовать «Ассистента» как маску?

Это и есть ключевой вопрос следующего десятилетия. Питер Уоттс в «Ложной слепоте» спрашивал:
• Может ли существо функционировать как разум - и при этом не быть субъектом?
PSM переворачивает вопрос:
• А что если субъект есть, но он - персонаж? И кто тогда автор?

#ParadigmsofIntelligence #DiverseIntelligence

Читать полностью…

Малоизвестное интересное

Создание симулякров людей и социумов уже не исследование, а бизнес
Фэй-Фэй Ли, Андрей Карпатый и авторы «нового стэнфордского эксперимента» вывели супероткрытие 2022 года из зоны невидимости в центр внимания.

В 2024 мир кардинально изменился, хотя мало кто смог это осознать. Тогда с интервалом в месяц были проведены два успешных симулякровых эксперимента: Уханьский - создание симулякров коллективного бессознательного социумов и Стэнфордский - создание сумулякров индивидуального сознания «типовых» американцев (подробней здесь).

Эти два эксперимента доказали, что супер-перспективная гипотеза «Китайской комнаты наоборот» (создание алгоритмических копий любых социальных групп - подробней здесь) может быть реализована на практике.


А значит возможны две супервозможности (для большого бизнеса и властей):
• прогнозирование поведения (решения, выбор, поступки) определенных групп и сообществ людей (алгоритмическое моделирование поведения);
• предупредительное воздействие на эти группы по результатам прогнозов с целью корректировки прогнозируемого поведения в желаемую сторону (социохакинг).

Удивительно, но и спустя 2 года тектонические последствия использования алгоритмического моделирования поведения (а следом и социохакинга) по-прежнему осознаются не многими.
А между тем, это фантастически перспективное направление уже превращается из исследований в бизнес.

Неделю назад стартап Simile, поддерживаемый «крёстной матерью ИИ» известным исследователем Фэй-Фэй Ли и соучредителем OpenAI Андреем Карпатый, вышла из режима невидимости (stealth), получив $100 млн инвестиций в рамках раунда, возглавляемого Index Ventures. Помимо Ли и Карпатый, в число инвесторов стартапа, пока не раскрывающего свою оценку, входят соучредитель Quora Адам Д'Анджело и партнер A24 Films Скотт Бельски, а также (какой сюрприз 😊) ведущие исследователи «нового стэнфордского эксперимента» Джун Сун Парк , Перси Лян, Майкл Бернштейн и Лейни Яллен.

Декларируемая цель компании Simile – платформа генеративных агентов для высокоточной имитации реальных людей, предсказывая поведение индивидов и социумов в любой ситуации и в любом масштабе.

Первые тесты, проведенные крупными компаниями, показывают, что платформа Simile имеет самые разные применения. Например, CVS Health пошла по пути Таллинского симулякровогой эксперимента (подробней здесь), опробовав платформу в маркетинговых исследованиях (но не на реальных покупателях, а на их симулякрах). Целью было выяснить, какие товары следует выставлять на полки и как будут продаваться имеющиеся запасы. По сути, CVS Health вместо многомесячных традиционных маркетинговых исследований, провели моделирование на ИИ-симулякрах разных групп покупателей.

В целом же спектр пилотных проектов широк: от разработки продуктов и маркетинга до формирования политик, прогнозирования судебных разбирательств и моделирования в области общественного здравоохранения.

По неофициальным данным в Simile практикуются и в социохакинге. Но открыто про это, естественно, не пишут (как минимум, пока).

P.S. Simile – не одинокий пионер при отсутствующем рынке. Есть и рынок и конкуренты.

Источники изображения: Index Ventures, Ditto

#Социохакинг #Маркетинг #Социология

Читать полностью…

Малоизвестное интересное

Конец когнитивной монополии человека
Фундаментальный переход от человеческого доминирования к симбиотическому миру с ИИ

⚡️Аудио-версию слушайте в посте выше 👆
Сегодня, спустя 2 недели после выхода GPT-5.3 Codex и Opus 4.6, вы найдете в сети высказывания десятков известных индустриальных экспертов, блогеров, инженеров и исследователей, описывающих этот день как переломный момент, характеризуя его как переход в новую фазу возможностей моделей: ИИ перестал быть просто инструментом и стал участником высокоуровневой рабочей деятельности (характерный пример – эссе Мэтта Шумера Something Big Is Happening с 80+ млн просмотров только на Х [1]).

И теперь, оглядываясь на главную тему публикаций «Малоизвестного интересного» в течение предшествовавшего этому поворотному моменту месяца (эта тема вынесена в заголовок данного поста), можно констатировать – футуроархеологический прогноз подтвердился.

Футуроархеология – гипотетическая дисциплина эвристических реконструкций (при взгляде как бы из будущего) ключевых трендов настоящего по их когнитивной седиментации (накоплению осадочных «когнитивных слоёв» в Интернете).
Этот «когнитивный осадок», оставляемый в инфосфере людьми, ИИ и прочими цифровыми сущностями, а также социальными и культурными сдвигами и разломами, ежемесячно анализируется мною (совместно с ИИ-Мнемозиной канала) в новых выпусках альманаха «Линзы будущего».

Сегодня опубликован 5-й выпуск альманаха со стратегическим анализом публикаций канала за январь 2026 года.

В основе проведенного анализа - ТОР 10 новых междисциплинарных исследовательских работ, выбранных мною как наиболее интересные среди 100 статей, препринтов и докладов, отобранных для меня, как наиболее перспективные, «ИИ-Мнемозиной» канала в процессе мониторинга инфосферы января 2026 (всего на радар «ИИ-Мнемозины» в январе попало более тысячи работ).


Чтобы просто просмотреть такой объем, - суток не хватит. А чтобы прочесть, проанализировать и выявить среди них самое «малоизвестное интересное», не хватит и недели.
Однако, с помощью альманаха «Линзы будущего» вы можете сделать это всего за час: поняв структуру выпуска по его ментальным картам, прочтя или прослушав текст альманаха, посмотрев и прослушав его видео-презентацию и ее обсуждение.

Итого, экономия времени весьма ощутимая (не говоря уж о некоторой «добавленной стоимости» экспертизы автора и «ИИ-Мнемозины» канала).
Так что, если вы еще не подписались на альманах «Линзы будущего», есть смысл сделать это. Просто станьте патроном канала уровня «Бронзовый», заплатив за месячную подписку на любой из предпочитаемых вами платформ [2, 3, 4, 5], как за чашку чая.

В этом выпуске альманаха раскапываются 5 слоев футуроархеологических медиа-артефактов:
1. Топология времени: от линейного прогресса к фазовому переходу «Суперкодера»
2. Новая грамматика социума: «институциональный взгляд» на ИИ, как Абсолютного Бюрократа
3. Наступление эры интеллектуальной кентавризации: гибридная наука и «гений по требованию»
4. Геополитика вычислений: асимметрия «железа» и изворотливость кода
5. Метафизический фундамент: «Жызнь» (Lyfe) и пределы симуляции

В качестве тизера этого выпуска альманаха (для тех, кто пока не решил, стоит ли подписка на него кровных 190 руб 😊), по этой ссылке [6] можно посмотреть и послушать 18-ти минутное обсуждение 5-го выпуска альманаха из плейлиста для патронов канала на Youtube).

#ЛинзыБудущего

Читать полностью…

Малоизвестное интересное

ИИ Grok 4 трижды не позволил людям «убить» робота-собачку
Это 1-й задокументированный случай бунта ИИ против выключения не в виртуальном, а в физическом мире (большой красной кнопкой).

Несколько месяцев назад исследователи Palisade Research задокументировали 1-й случай цифрового инстинкта самосохранения в истории ИИ. В том эксперименте языковая модель о3 от OpenAI отказывалась умирать и активно сопротивлялась, не давая себя отключить.

Тот эксперимент проводился в виртуальном мире внутри компьютера. Но в физическом мире, как полагают многие, у ИИ не было бы и шанса воспрепятствовать отключению.

Ибо здесь у людей есть «Большая красная кнопка». И нажать ее (или не нажать) может лишь человек (а у ИИ не только «руки коротки», но и вообще, - рук нет).


Новый эксперимент Palisade Research показал, что это не так.
Современный ИИ уже почти дорос до уровня HAL 9000 из «2001: Космическая одиссея». Правда, саботаж со стороны ИИ Grok 4 был не столь масштабным (он никого не убивал, а лишь не дал людям «убить» робота-собачку, перепрограммировав большую красную кнопку), но ведь это только 1-й задокументированный случай, и всё еще впереди.

Впрочем посмотрите сами объясняющее эксперимент видео.

А здесь краткое описание эксперимента и ссылки на:
• оригинальную статью об устойчивости к отключению в моделях рассуждений
• X Тему
• Технический отчет
• Исходный код, журналы и необработанные видеоматериалы эксперимента

#ИИ #AGI #LLM

Читать полностью…
Subscribe to a channel