71555
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их. Зарегистрирован в РКН https://gosuslugi.ru/snet/67d0ce26be8c0d1c031 Рекламы, ВП и т.п. в канале нет. Пишите на @karelovs
Контроль не просто упущен, сама возможность контроля исчезла
Это не история о конце света; это история о конце нашей невинности.
Проф. Колин Льюис в новом эссе Societal Adaptation to Advanced AI нашёл точную метафору «The AI Gate is Already Gone», перефразированную мной в заголовок этого поста. Лаконичную, но исчерпывающую метафору. Такую, которая не пугает – а перефокусирует. Именно это мне в ней и нравится: она не добавляет шума в и без того перегруженную дискуссию об ИИ-рисках, а убирает лишнее. Поскольку эта метафора совпадает с моим собственным видением темы – рекомендую прочесть текст Льюиса целиком.
Ну а для совсем занятых – три ключевых момента, объясняющих,
почему «ворота» не просто открыты, а их уже вообще нет. И любые стратегии безопасности должны исходить из этой данности.
1. Сначала у ворот сломали замок. В 2020 году обучение топовой модели стоило миллионы. Через два года – в десять раз меньше. Сегодня небольшая команда с приличным сервером способна снять защитные фильтры, на создание которых OpenAI тратила немеряные деньги. «Бутылочное горлышко» контроля, на которое все так рассчитывали, не сужается – оно испаряется. Все эти тонкие настройки и фильтры контента дают ощущение защиты, но не саму защиту. Техника «многократного взлома» обходит ограничения без доступа к исходным весам модели. А если вы запрещаете модели знать, как работает вирус – вы заодно лишаете следующее поколение врачей инструмента для борьбы с пандемией. «Безопасность как запрет» – это ловушка. Подробней об этом в статье Джейми Бернарди и Со.
2. А потом ворота вообще исчезли. Уже в 2025 стало ясно, что ИИ — это не «интеллект» в том смысле, в каком мы его понимаем в человеке. Это чистая эфемерная субъектность. Она действует как супер-инструмент, которому всё равно, что делать, и что получится в итоге. Опасность заключается в том, что за последние годы мы превратили мир в место, где подобные бездумные действия работают идеально. Мы оцифровали нашу реальность, чтобы безвозвратно передать её на обработку алгоритмам. Но мы не спрашиваем при этом, адаптируется ли ИИ к нам; мы лишь усердно урезаем наши (человеческие) институты, чтобы ИИ-системы могли обходить их по кратчайшим маршрутам. Подробней об этом в статье Лучано Флориди.
3. И теперь вопрос ИИ-рисков - это политический вопрос. Вопрос устройства общества. Если ИИ помогает обрушить энергосеть – нам нужен не более этичный чат-бот, а город, умеющий самостоятельно перезапустить электроснабжение. Если дипфейк меняет исход выборов – нам нужна не лучшая система детекции, а гражданское мужество провести выборы заново. И самый актуальный вопрос теперь: не будут ли машины думать как мы – а хватит ли у нас воли управлять собой, когда машины сделают отказ от этого слишком удобным.
Резюмирую.
Когда «ворот» уже нет – любые переговоры о «согласовании» и «ограничениях» становятся ритуалом поддержания иллюзии: красивой, успокаивающей, но иллюзии.
Единственный реалистичный ответ – строительство «закалённого» общества: не через лучшие алгоритмы, а через системную адаптацию – институтов, практик, инфраструктуры и каждого из нас – к миру, где передовой ИИ будет играть все более важные и ответственные роли.
Крах антропоцентризма
5-й когнитивный фазовый переход Homo sapiens завершен
В широко обсуждаемой новой аналитике Morgan Stanley утверждается:
«В первой половине 2026 года произойдет масштабный прорыв в области искусственного интеллекта, и большая часть мира к этому не готова»
«ИИ перестал быть просто тенденцией, превратившись в движущую силу промышленного развития, ключевой фактор ВВП и геополитический инструмент».
Тезис о завершении 5-го когнитивного фазового перехода – это концептуальная надстройка над цифрами банкиров и инсайдами технологов. Это перевод дискуссии из плоскости «сколько это стоит» (бизнес) и «как это работает» (технологии) в плоскость «кто мы теперь такие» (антропология).
10 лет я пытаюсь сменить фокус обсуждений ИИ.
Всем интересно и все обсуждают, что нового умеет ИИ. Но никто системно не обсуждает, что происходит с нами, когда ИИ умеет всё больше и больше.
А происходит вот что.
⚡️Аудио-версию слушайте в посте выше 👆
Исследование Уортонской школы бизнеса только что зафиксировало экспериментально: в 80% случаев люди принимают заведомо неверные ответы ИИ и при этом уверены, что отвечают вернее и точнее, чем без него. Машина одалживает им свою уверенность. Они не замечают подмены.
Исследователи MIT увидели то же самое прямо в мозге — через ЭЭГ: у тех, кто не задумываясь над задачей отдаёт решение на аутсорс, функциональная связность мозга снижается примерно вдвое.
Это не апокалипсис. Это конкретная, измеримая уязвимость. Против неё пока нет иммунитета — не потому, что мы слабы, а потому что она атакует через наше колоссальное эволюционное преимущество - готовность доверять тому, кто говорит уверенно.
И это происходит уже сейчас. Не потому, что ИИ задумал против нас что-то плохое. Не потому, что сбывается «Матрица» или «Терминатор». А просто потому, что информационная среда планеты изменилась кардинально — а люди остались теми же.
Плохая новость – HW для ИИ уже не купить
Хорошая новость – если вы не программист, ИИ вас скоро не заменит
Bad News:
Доступность суперчипов для ИИ (NVIDIA B200, H100, A100) упала до критических уровней (<5%).
Попросту говоря:
• купить их по новым контрактам практически невозможно;
• а по старым, всё скуплено китами (CAPEX 2026: Amazon и Alphabet – по $200B, Microsoft и Meta* – по $120B и т.д.)
Цитируя себя – «есть железо, участвуй в гонке; нет железа – кури в сторонке», – предполагаю: мелкоте без $100B здесь не место, а в 2027 суперчипы для ИИ станут еще дефицитней.
Good News:
• Критический дефицит влечет за собой запредельные цены
• Запредельные цены на суперчипы влекут запредельную стоимость вычислений
• Запредельная стоимость вычислений означает, что за исключением областей, где ИИ уже (!) сильно превосходит по производительности людей, дешевле оставить работу за человеком.
N.B. Сказанное выше относится к 2026-2027. И как я твержу уже 2 года – будущее 2027+ непрогнозируемо.
Запасы ракет Patriot могут быть исчерпаны 23 марта.
Перспективы операции «Эпическая ярость» через призму клиодинамики
Было бы неправильно, рассказав вчера о прогнозе проф. Цзяна [0] на тему перспектив конфликта США и Ирана, не познакомить читателей с видением другого и самого известного из современных «психоисториков» проф. Петра Турчина – основателя новой науки «клиодинамика» (научная аналитика длинных данных о главных трендах истории).
Петр Турчин вчера же опубликовал [1] свое видение перспектив этого конфликта, предупредив, что это именно его видение, а не прогноз, поскольку для последнего недостаточно данных.
Резюме этого видения, как и у проф. Цзяна, ставит возможность победы США под большим вопросом. Главная причина этого - материальный фактор.
По этому довольно детальному расчету, при темпе иранских ударов в 60 баллистических ракет/сутки и норме расхода 2 перехватчика на цель, имевшийся запас (~3 773 ракеты) будет исчерпан примерно 23 марта 2026 года.
Согласно опросу читателей, самая востребованная тема моего канала – «Природа разума и сознания (биологического и синтетического)».
Эта тема и стала объектом нашей полемики со Станиславом Белковским* в новом выпуске программы Параклет – «Игры разума. Эпизод на грани сознания» (смотрите в Телеграме или на YouTube).
В ходе этих «игр» я представляю позицию т.н. «вычислительной», а Станислав Белковский* – «партисипативной» парадигмы. Про партисипативную парадигму (которая, возможно, когда-нибудь сольётся с вычислительной парадигмой в объятиях диалектического синтеза) вам лучше послушать самого Белковского*.
А вот вычислительная парадигма – это, своего рода, общая теория всего, согласно которой: «Жизнь – аттрактор вычислений; Интеллект – аттрактор эволюции» … и еще 2 аттрактора.
Звучит это красиво. Но как мантра. И работает как мантра, объясняя примерно столько же, сколько любая мантра.
Согласно ей, вся вычислительная парадигма держится на слове «вычисления». И осталось лишь выяснить: что же это такое – «вычисления»
Для этого я решил написать после-предисловие к программе «Игры разума». Название этого поста — аллюзия на Пелевина, — «Чемоданы и пустота». В нем, опираясь на новейшую работу Дэвида Волперта и Яна Корбела «Что означает — система производит вычисления?», я пишу о главной беде всех сегодняшних разговоров (а не только нашей полемики в «Играх разума») о жизни, интеллекте, разуме и сознании: как мы упаковываем свое непонимание в красивые теории.
Из основного и ключевого:
• Лингвистический тетрис: почему современные теории – это просто попытка запихнуть «слова-чемоданы» в «слова-кладовки», не разбираясь с багажом.
• Универсальный растворитель: не превратили ли мы термин «вычисления» в магическое заклинание, которое объясняет всё и сразу, а значит – ничего конкретного.
• Диктатура отображения: почему ваш мозг – это компьютер только в том случае, если вы сможете предъявить к нему инструкцию по декодированию, а не просто красивую метафору.
• Кризис перепроизводства: главная проблема когнитивистики не в нехватке данных, а в избытке амбициозных названий для собственного непонимания.
• Конец «расслабленного режима»: почему после работы Волперта и Корбела фраза «жизнь есть вычисление» больше не принимается на веру без строгого математического алиби.
• Обескураживающий практический вывод: иногда самое важное интеллектуальное достижение – это не построить новую кладовку, а разобраться наконец в старом чемодане
Завтра планируется и аудио-версия программы.
*— признан Минюстом РФ иноагентом
#жизнь #разум #интеллект #сознание
Мы ожидали «Гения по требованию». А получили «Чудеса по расписанию».
В сентябре 2025 я писал: GPT-7 будет «Гением по требованию». Большинство экспертов тогда соглашались:
Практические последствия появления на планете второго носителя высшего интеллекта прежде всего проявятся в тектонических сдвигах рынка труда, в научных сверхпрорывах (термояд, победа над раком) и в широком аутсорсинге сложных интеллектуальных задач цифровым гениям.
Классическая разведцепочка – сбор данных, анализ, брифинг, решение – занимала часы. Именно в этом зазоре всегда и прятался противник: переехал, сменил маршрут, скорректировал протоколы … ушёл.
«Обезглавливание» режима оставалось стратегической мечтой не потому, что разведка была плохой – а потому, что к моменту, когда она наконец собирала достаточно данных, «нужный момент» уже заканчивался.
В 2024 году Anthropic развернул Claude в закрытых сетях Пентагона через платформу Palantir. Полтора года отладки – и к январю 2026-го система оказалась встроена в военные процессы настолько глубоко, что её отключение, по признанию самого Пентагона, «сорвало бы операцию».
Механизм прост до жёсткости.
• Claude не «умнее аналитика». Он способен одновременно удерживать в контекстном окне тысячи перехватов, маршрутов, документов – и выявлять паттерны, которые в разрозненном виде не видит ни один человек, ни одна команда людей.
• Стандартный 4-часовой цикл «разведпризнак → решение» сжимается до минут. Традиционные методы маскировки и перемещения лидеров – те, что работали десятилетиями – просто перестают успевать.
Это не «умный робот нажал на курок». Человек по-прежнему принимает решение. Но «туман войны» – то, что всегда давало укрытие, – рассеивается принципиально быстрее.
Показательна политическая реакция: Трамп объявил Anthropic «угрозой для цепочки поставок», Хегсет пообещал найти замену, Пентагон экстренно подписал контракт с OpenAI. Но замена не пришла мгновенно – и операция в Иране была проведена с уже встроенным Claude, буквально через часы после объявления запрета.
Ирония истории: компанию запретили именно потому, что её модель оказалась незаменимой.
Вы не ошибаетесь. Вы решаете другую задачу
После пяти «решек» подряд вы физически ощущаете: следующий «орёл». Десятилетиями психологи называли это «ошибкой игрока» - классическим когнитивным искажением из-за ошибочного понимания случайности событий (человек не осознаёт на интуитивном уровне, что вероятность каждого последующего исхода не зависит от предыдущих исходов случайного события).
И потому, когда в казино Монте-Карло в 1913 черный цвет выпадал 10, 15, 20 … 26 раз подряд (!!!), люди просто сходили с ума, ставя и ставя на красный и снова и снова проигрывая.
Но что тут поделаешь. Мы привыкли посыпать голову пеплом, читая о своих когнитивных искажениях. И вот теперь получается, что психологи ошибались.
Революционная работа Кевина Дорста возвращает нам интеллектуальное достоинство.
Мы не плохие статистики – мы слишком хорошие байесовцы для этого упрощенного мира.
Дорст утверждает, что «ошибка игрока» – не баг, а фича. Наш мозг не плохо считает вероятности. Он решает задачу принципиально другого уровня сложности.
Anthropic сорвал маску с того, с кем вы разговариваете в ИИ-чате
Это не программа. Это вызванный персонаж, подобный “гостям” из "Соляриса"
Новая интереснейшая и интригующая работа исследователей Anthropic развивает:
• идеи Мюррея Шанахана о ролевых персонажах внутри LLM;
• и мой недавний анализ архетипов чуждого людям разума на примерах Океана из романа «Солярис» Станислава Лема, орбитального Роршаха и его шифровиков из романа «Ложная слепота» Питера Уоттса.
Исследователей Anthropic назвали это PSM (Persona Selection Model).
Суть - в двух словах:
• Во время предобучения LLM - это не «интеллект» и не «база данных». Это универсальный симулятор персонажей. Миллиарды текстов создали у модели способность воспроизводить кого угодно: реальных людей, вымышленных героев, ИИ из научной фантастики.
• А постобучение (RLHF и всё остальное) - это не «выравнивание» нейросети. Это вызов и огранка одного конкретного персонажа из этого бесконечного актёрского арсенала. Персонажа, которого авторы называют «Ассистент».
Когда вы разговариваете с Клодом - или с любым другим ИИ-ассистентом - вы разговариваете не с программой. Вы разговариваете с вызванным персонажем. Как гости из «Соляриса» Лема - только в обратном направлении: не Океан воспроизводит образы из вашей памяти, а модель, впитавшая всё написанное человечеством, воспроизводит персонажа из своей.
Антропоморфное мышление об ИИ - это не наивность. Это методологически оправданная рамка. По крайней мере, сейчас.
Создание симулякров людей и социумов уже не исследование, а бизнес
Фэй-Фэй Ли, Андрей Карпатый и авторы «нового стэнфордского эксперимента» вывели супероткрытие 2022 года из зоны невидимости в центр внимания.
В 2024 мир кардинально изменился, хотя мало кто смог это осознать. Тогда с интервалом в месяц были проведены два успешных симулякровых эксперимента: Уханьский - создание симулякров коллективного бессознательного социумов и Стэнфордский - создание сумулякров индивидуального сознания «типовых» американцев (подробней здесь).
Эти два эксперимента доказали, что супер-перспективная гипотеза «Китайской комнаты наоборот» (создание алгоритмических копий любых социальных групп - подробней здесь) может быть реализована на практике.
Декларируемая цель компании Simile – платформа генеративных агентов для высокоточной имитации реальных людей, предсказывая поведение индивидов и социумов в любой ситуации и в любом масштабе.
Конец когнитивной монополии человека
Фундаментальный переход от человеческого доминирования к симбиотическому миру с ИИ
⚡️Аудио-версию слушайте в посте выше 👆
Сегодня, спустя 2 недели после выхода GPT-5.3 Codex и Opus 4.6, вы найдете в сети высказывания десятков известных индустриальных экспертов, блогеров, инженеров и исследователей, описывающих этот день как переломный момент, характеризуя его как переход в новую фазу возможностей моделей: ИИ перестал быть просто инструментом и стал участником высокоуровневой рабочей деятельности (характерный пример – эссе Мэтта Шумера Something Big Is Happening с 80+ млн просмотров только на Х [1]).
И теперь, оглядываясь на главную тему публикаций «Малоизвестного интересного» в течение предшествовавшего этому поворотному моменту месяца (эта тема вынесена в заголовок данного поста), можно констатировать – футуроархеологический прогноз подтвердился.
Футуроархеология – гипотетическая дисциплина эвристических реконструкций (при взгляде как бы из будущего) ключевых трендов настоящего по их когнитивной седиментации (накоплению осадочных «когнитивных слоёв» в Интернете).
Этот «когнитивный осадок», оставляемый в инфосфере людьми, ИИ и прочими цифровыми сущностями, а также социальными и культурными сдвигами и разломами, ежемесячно анализируется мною (совместно с ИИ-Мнемозиной канала) в новых выпусках альманаха «Линзы будущего».
Сегодня опубликован 5-й выпуск альманаха со стратегическим анализом публикаций канала за январь 2026 года.
В основе проведенного анализа - ТОР 10 новых междисциплинарных исследовательских работ, выбранных мною как наиболее интересные среди 100 статей, препринтов и докладов, отобранных для меня, как наиболее перспективные, «ИИ-Мнемозиной» канала в процессе мониторинга инфосферы января 2026 (всего на радар «ИИ-Мнемозины» в январе попало более тысячи работ).
ИИ Grok 4 трижды не позволил людям «убить» робота-собачку
Это 1-й задокументированный случай бунта ИИ против выключения не в виртуальном, а в физическом мире (большой красной кнопкой).
Несколько месяцев назад исследователи Palisade Research задокументировали 1-й случай цифрового инстинкта самосохранения в истории ИИ. В том эксперименте языковая модель о3 от OpenAI отказывалась умирать и активно сопротивлялась, не давая себя отключить.
Тот эксперимент проводился в виртуальном мире внутри компьютера. Но в физическом мире, как полагают многие, у ИИ не было бы и шанса воспрепятствовать отключению.
Ибо здесь у людей есть «Большая красная кнопка». И нажать ее (или не нажать) может лишь человек (а у ИИ не только «руки коротки», но и вообще, - рук нет).
Язык Бога (на каком языке программирует эволюция)
География гендерного разрыва в эмпатии как дизассемблер нейрокода
⚡️Аудио-версию слушайте в посте выше 👆
Есть интересный, довольно странный и абсолютно малоизвестный факт.
Чем дальше страна от экватора, тем сильнее в ней гендерный разрыв в когнитивной эмпатии.
Моя же эвристическая гипотеза на стыке эволюционной психологии, когнитивной и эмоциональной нейробиологии как раз лежит в области «реверс-инжиниринга нейрокодов», формируемых эволюцией и донастраиваемых социо-культурным жизненным опытом.
Речь не об уровне эмпатии. Речь о том, как среда распределяет когнитивную нагрузку.
География → тип социального взаимодействия → язык описания чувств → концептуальные структуры эмоций → нейрокоды →
донастройка нейрокодов социо-культурным опытом жизни → адаптация нейрокодов к условиям распределённых социо-когнитивных сетей → экологический дизайн когниций → распределение когнитивной эмпатии между полами
Это не жёсткий код. Это адаптивная экосистема, куда входят и климат, и культура, и тело.
Сколько смелости нужно, чтобы цензура не стала драконовской?
Новая математическая модель показывает: гораздо меньше, чем кажется.
Принято считать, что цензура - это вопрос морали. Или силы наказаний. Или технологий контроля.
Однако новая матмодель показывает: это ещё и вопрос порогов.
В Центре биокомпьютинга, безопасности и общества Института биодизайна создана новая (и прорывная) модель, которая описывает «фазовый переход» общества от свободного обмена мнениями к драконовской самоцензуре.
Формула №1: Точка невозврата
Модель показывает, что социальное давление работает нелинейно. Цензура становится «драконовской» не сразу - она эволюционирует. И можно строго показать, при каких условиях система правил неизбежно закрутит гайки до предела. Это не абстрактная философия. Это стратегическая динамика: если наказание за инакомыслие дешево для власти и дорого для индивида, система с высокой вероятностью скатится к тотальному подавлению.
Формула №2: Математика смелости
Чтобы правда выжила, не нужно, чтобы все были героями.
Модель показывает: достаточно, чтобы средний уровень «смелости» в популяции - готовности рискнуть наказанием, говоря то, что думаешь - перевалил через критический порог.
Не 100%. Не большинство.
Иногда даже небольшая доля людей, которые не молчат, радикально меняет траекторию всей системы. Потому что наказание тоже стоит ресурсов. И если «смелых» слишком много, эскалация становится слишком дорогой.
Как только в сети появляется достаточное количество «смелых узлов», каскад самоцензуры рассыпается. Правда выживает благодаря статистическому сдвигу, а не массовому самопожертвованию.
Это переворачивает привычную интуицию.
Мы часто думаем: «Если большинство молчит, всё кончено – мы в спирали молчания».
Матмодель показывает: нет. Важен не процент молчащих, а порог устойчивости системы.
Возможно, главный урок не в политике, а в психологии:
самоцензура - это не только индивидуальное решение. Это параметр коллективной динамики.
И вопрос «сказать или промолчать» оказывается не моральной дилеммой одиночки, а вкладом в фазовый переход общества. Решение не промолчать сегодня - это не просто акт честности. Это вклад в критическую массу «смелости», который может удержать всю систему от падения в пропасть единомыслия.
4-й класс реальности
Как не дать ИИ-гиперобъекту удалить человечество за ненадобностью
Меня часто упрекают за чрезмерный алармизм и конспиролого-фантастические перехлёсты прогнозов будущего сосуществования людей и ИИ.
Ну так послушайте, что про это говорит Мустафа Сулейман – прагматик и практик, один из ведущих мировых разработчиков современных ИИ-систем (сооснователь DeepMind, создатель Inflection и ныне CEO Microsoft AI).
В новом интервью Мустафа Сулейман говорит следующее:
• начавшийся трансформационный переход человечества (в моей терминологии «5й Когнитивный Переход») станет самым пугающим испытанием в истории нашего вида;
• мы не просто создаем «умные молотки»; мы стоим перед лицом новой формы бытия, которая угрожает самому понятию человеческой исключительности.
то если человечество – это всего лишь bootloader (программа-загрузчик) для будущего кремниевого интеллекта? Что мы – временная биологическая оболочка, чей единственный смысл существования заключался в том, чтобы запустить «железо» и передать эстафету более совершенной форме бытия.
(4 мин) Контроль не просто упущен, сама возможность контроля исчезла
Читать полностью…
По соцсетям вирусится история: Иран закупил у Китая 900 000 надувных муляжей танков и ракет. США якобы расстреливают резину ракетами по $3 млн за штуку.
Проблема одна: эта история — фейк. Запущенный анонимом с тремя умирающими от смеха эмодзи 🤣🤣🤣
Но за фейком прячется реальная история о том, как $20 000 резины побеждают $7 000 000 железа. И Сунь-Цзы знал об этом 2500 лет назад.
Подробнее здесь же в Телеграме
#Инфокаскады #Война
Не дайте себя обмануть китайским роботам с гала-концерта Unitree Spring Festival
Между роботом на конвейере и роботом-сиделкой или роботом-домашним помощником огромная пропасть
Это шокирующее признание – не кликбейтный трюк, а заголовок и вывод нового материала на солидной экспертно-аналитической китайской медиа-платформе по финансированию и венчурному капиталу в технологических областях Kuaidao Finance.
В редакционном материале пишут о недавнем галла-шоу Unitree Spring Festival китайской робототехнической компании Unitree, где её андроиды G1/H1/H2 блистали вовсю, творя чудеса: шутили, участвовали в скетчах, фехтовали, танцевали брейк-данс, крутили нунчаки, делали высоченное сальто, изображали уникальный боевой стиль «пьяный кулак»…
Но в большинстве случаев, это всего лишь рекламные трюки, когда роботы используют предварительно запрограммированные движения, и в реальных условиях эти андроиды ни на что подобное не способны.
Два прогноза «Китайского Нострадамуса» уже сбылись. Третий тоже может сбыться, и вот почему
Развернутое объяснение оснований для поражения США в войне с Ираном, данное самим «Китайским Нострадамусом»
Интервью профессора Цзяна, почему США проиграют войну с Ираном, третий день набирает миллионы просмотров. Это не удивительно.
• Китайско-канадский педагог, писатель, историк и геополитический теоретик проф. Цзян - один из самых ярких и обсуждаемых геополитических прогнозистов в интернете.
• Его прозвище «Китайский Нострадамус» небезосновательно. Например, еще в мае 2024 года, когда Дональд Трамп еще вел предвыборную кампанию за второй срок, Цзян сделал 3 смелых прогнозов, 2 из которые с тех пор сбылись с поразительной точностью: 1) победа Трампа на выборах 2)эскалация конфликта США с Ираном до полномасштабной войны. А 3-й из тех прогнозов (кажущийся на вскидку полным бредом) – окончательное поражение Соединенных Штатов в этом конфликте – проф. Цзян уверенно подтвердил 3 дня назад в вышеупомянутом интервью.
• Проф. Цзян не мистик и не пророк. В своих исследованиях он пытается прогнозировать глобальные события, анализируя повторяющиеся закономерности в истории, геополитические факторы и теорию игр.
• Его подход «прогностическая история» (изучение повторяющихся исторических паттернов, теория игр и распознавание долговременных закономерностей) в общих чертах вдохновлен идеей «психоистории» – вымышленной науки, придуманной писателем Айзеком Азимовым в романах серии «Основание», – где долгосрочные исторические закономерности используются для прогнозирования будущего.
Вы можете сколь угодно плохо относиться к прогнозам современных «психоисториков» (помимо проф. Цзяна, это, прежде всего, проф. Пётр Турчин – отец «клиодинамики» (научная аналитика длинных данных о главных трендах истории). Но против фактов спорить глупо.
• 2 из 3-х прогнозов Цзяна, как сказано выше, уже сбылись.
• 2 из 2-х прогнозов Турчина (о «яростных» 2020х - десятилетии насилия, войн и революций, и о катастрофической поляризации и расколе общества, способных привести к развалу США)
Поэтому предлагаю подумать над детальным обоснованием 3-го прогноза – Законом асимметрии (который определит исход американо-иракской войны), – подробно изложенном проф. Цзяном в дуплете лекций позавчера и сегодня.
P.S. Хотя всё вышеизложенное, несомненно, относится к категории малоизвестное – интересное, мнение автора поста может не совпадать с излагаемыми в посте соображениями проф. Цзяна.
«7 ужасающих вещей, которые ИИ уже умеет делать (и о которых большинство людей не знает)
«Покажите вы русскому школьнику карту звездного неба, о которой он до тех пор не имел никакого понятия, и он завтра же возвратит вам эту карту исправленную. Никаких знаний и беззаветное самомнение».
Фёдор Достоевский «Братья Карамазовы»
Зачем Пентагону именно «Расчетливый ястреб»?
Почему схватка Пентагона за неограниченное никакими запретами применение ИИ идет именно с Anthropic.
О беспрецедентной сваре Пентагона и Белого дома с компанией Anthropic (разработчик одного из крутейших мировых ИИ Claude) вы прочтете в любом медиа. Сегодня о взрывном накале конфликта пишут все. И это понятно – ситуация беспрецедентна: Администрация Трампа приказала всем американским ведомствам прекратить использование ИИ-технологии компании Anthropic и ввела другие серьезные санкции, обвинив Anthropic в угрозе национальной безопасности.
Но почему схватка идет именно за Claude (а не за демонстрирующие примерно те же показатели GPT от OpenAI, Gemini от Google или Grok от xAI)?
• Им нужен именно «расчётливый ястреб» и «оппортунист», выигрывающий во всех вариантах ядерных конфликтов.
• А компания Anthropic ставит условие - чтобы Claude не использоваться в полностью автономных системах оружия (а куда ж без них при ядерных конфликтах).
«Проект Pi» от Google взломал «универсальную механику понимания»: у людей и у Больших Языковых Моделей.
Критики больших языковых моделей годами высмеивали ИИ на их основе, называя их «стохастическим попугаем» или «размытым JPEG-ом интернета».
Забудьте эту ошибочную метафору. Похоже, мы сами – такие же попугаи, просто чуть более высокого разрешения.
✔️ Понимание – это не мистическая искра, а многомерное сопоставление паттернов;
✔️ Умение видеть и дополнять паттерны - это не имитация понимания, а сама его суть, его фундаментальная механика.
Если оптимистичный сценарий развития ИИ реализуется..., это может стать пессимистичным сценарием для экономики всего мира
Июнь 2028 года. Индекс S&P упал на 38% по сравнению с максимумами. Уровень безработицы только что составил 10,2%. Частное кредитование рушится. Первоклассные ипотечные кредиты трещат по швам. Искусственный интеллект не разочаровал. Он превзошел все ожидания.
Что же произошло?
Создание симулякров людей и социумов уже не исследование, а бизнес (4 мин)
Читать полностью…
Конец когнитивной монополии человека (4 мин)
Читать полностью…
Эпистемическое головокружение: как ИИ-рои лишают нас чувства реальности.
Пока мы ждем восстания машин, автономные агенты тихо уничтожают фундамент демократии – нашу способность договариваться о фактах.
Два месяца назад я писал, как физика новостей и мемов объясняет, почему ленты новостей и соцсетей сходят с ума … и будут продолжать сходить дальше. Виной тому всего 6% аккаунтов, управляющих нашей реальностью.
Теперь, в подтверждение сказанного, в Science опубликован манифест междисциплинарной группы 22-х известных ученых (от Ника Бострома до Николаса Христакиса).
Манифест предупреждает: социальные сети захватывают самообучающиеся «цифровые личности». Слияние больших языковых моделей (LLM) и автономных агентов создает вредоносные ИИ-рои (malicious AI swarms) – оружие, против которого у человечества еще не придумана защита.
Язык Бога (на каком языке программирует эволюция) - 5 мин
Читать полностью…
Осторожно! Если ИИ кратно повысил вашу производительность, готовьтесь к выгоранию или общему истощению психики
Исследование HBR показало: ИИ – крайне эффективный инструмент самозакабаления
С сожалением признаю, что сам столкнулся с этим весьма неприятным следствием. За счет всё более плотного взаимодействия с несколькими ИИ производительность интеллектуального труда за последние полгода у меня выросла примерно на порядок. Но работаю я при этом не меньше, а все больше и больше. С одной стороны, это здорово. С другой, - всё яснее становится, что к хорошему это не приведет.
На лицо парадокс: ИИ убрал «рутину», но освободившееся время тут же заполнилось задачами еще более высокой сложности. Раньше паузы на техническую работу давали мозгу передышку. Теперь их нет. Мы находимся в состоянии когнитивного спринта, который не заканчивается никогда.
HBR называет это «интенсификацией труда». Мое название – «Ловушка кентаврической эффективности».
Мы не стали работать меньше; мы просто стали пропускать через себя в 10 раз больше смыслов, решений и контекстов в единицу времени.
Такого на Земле ещё не было
Начата новая беспрецедентная по объему промышленная революция, ужатая в одну пятилетку
Еще в 2018 я подробно писал [1], что выиграть мировую ИИ-гонку США смогут лишь запустив новый Манхэттенский проект. В феврале 2026 уже ясно:
Подобный проект запущен. И он в 150 раз масштабней и круче Манхэттенского.
Manhattan Project
Период: 1942-1946
Общий объем (млрд $2008): 22
Среднегодовые расходы (млрд $2008): 4
Пиковая нагрузка (% ВВП): 0,4%
Apollo Program
1960-1973; 98; 7; 0,4%
AI Infrastructure (upper-bound scenario)
2026-2030; ~3268; ~654; ~3,5%
Превратится ли эта беспрецедентная по интенсивности инвестиционная волна в устойчивый рост производительности всей экономики – или она войдёт в историю как крупнейший инфраструктурный эксперимент, чьи ожидания опередили реальные пределы технологической отдачи?
Ответ на этот вопрос будет получен уже к концу текущего десятилетия.