Legend's Diary Info? Here: @Ghost_of_Ghost
Прогресс в области ИИ зависит от доступа к мощным вычислительным ресурсам, часто называемым "вычислениями" (compute). Эти чипы ИИ, созданные через сложные и централизованные цепочки поставок, необходимы для обучения крупномасштабных моделей ИИ. Поскольку вычисления становятся неотъемлемой частью экономической и национальной безопасности, их распределение приобретает решающее значение. Основная цель безопасности вычислений — относиться к передовым чипам ИИ так же, как к обогащенному урану. Мы рассмотрим исторические прецеденты безопасности вычислений и предложим тактики, чтобы надежно знать, где находятся высокопроизводительные чипы ИИ, и предотвратить их попадание в руки непредсказуемых субъектов.
... Опережаю Эрика на 1 мысль.
Информационная безопасность предполагает защиту чувствительных исследований в области ИИ и весов моделей, которые составляют основные интеллектуальные активы ИИ. Защита этих элементов предотвращает их несанкционированное распространение и злонамеренное использование, что аналогично мерам по защите конфиденциальной информации в контексте оружия массового уничтожения (ОМУ).
Будет ли сегодня свой Берия — и его агентура? Чтоб украсть из Америки все?
В теории - да.
💢 Пути к отключению проекта ИИ соперника.
Государства, намеренные заблокировать стратегическую монополию на основе ИИ, могут использовать множество тактик, начиная с разведки, при которой спецслужбы незаметно получают информацию о проектах ИИ соперника.
1. Зная, что атаковать, они могут провести скрытый саботаж: подкупленные или шантажируемые инсайдеры могут вмешиваться в веса модели, данные обучения или производственные мощности чипов ИИ,
2. В то время как хакеры незаметно ухудшают процесс обучения, чтобы производительность ИИ после завершения была посредственной. Это напоминает Stuxnet, который стремился тайно саботировать программу обогащения урана в Иране.
3. Когда скрытность оказывается слишком ограничивающей, конкуренты могут перейти к явным кибератакам, нацеленным на системы охлаждения чипов в дата-центрах или близлежащие электростанции, что напрямую — хоть и заметно — нарушает разработку.
4. Если эти меры окажутся недостаточными, некоторые лидеры могут рассмотреть кинетические атаки на дата-центры, утверждая, что позволить одному игроку рисковать доминированием или уничтожением мира — большая опасность, хотя кинетические атаки, вероятно, не понадобятся.
5. Наконец, в крайних обстоятельствах государства могут прибегнуть к более широким враждебным действиям, поднимаясь по существующим лестницам эскалации или угрожая не связанным с ИИ активам. Мы называем атаки на проекты ИИ соперников "увечными атаками".
... 4 и 5 пункты — это разумеется про ракетные удары по условному противнику.
В случае данной статьи — по Китаю. Но мне нравится как Шмидт использует новиопский язык.
"Кинетические удары". Просто мразь — и левое отребье.
Возможные исходы Манхэттенского проекта США по сверхразуму. Пример пути к эскалации: проект США опережает Китай без "увечий" и сохраняет контроль над рекурсией, но не достигает сверхразума или сверхоружия. Хотя глобальная власть мало меняется, Пекин осуждает попытку Вашингтона к стратегической монополии как серьезную эскалацию. Типичный исход Манхэттенского проекта по сверхразуму — крайняя эскалация, а всеуничтожение — худший предсказуемый результат.
Читать полностью…^ Я могу ошибаться в курсе шитков. Мог. Но не в таких вещах.
Читать полностью…^ Судя по всему в России сейчас происходит "чрезвычайно серьезная ситуация для национальной безопасности".
Читать полностью…^ Остановить этот поезд не может никто. России мне кажется конец.
Читать полностью…Геополитическое конкурентное давление приводит к высокому допуску риска потери контроля.
Во время Холодной войны фраза "Лучше мертвым, чем красным" подразумевала, что проигрыш противнику считался хуже, чем риск ядерной войны. В будущей гонке ИИ подобное мышление могло бы подтолкнуть официальных лиц к терпимости к двузначному риску потери контроля, если альтернатива — отставание от соперника — кажется неприемлемой. Если выбор жесткий — рискнуть всеуничтожением или проиграть, — некоторые могут пойти на этот риск. Выполняемое несколькими конкурирующими державами, это равносильно глобальной русской рулетке и толкает человечество к тревожной вероятности уничтожения. В резком контрасте, после поражения нацистской Германии ученые Манхэттенского проекта опасались, что первое атомное устройство может поджечь атмосферу. Роберт Оппенгеймер спросил Артура Комптона, какой порог приемлем, и Комптон установил его на уровне трех на миллион (порог "6σ") — все, что выше, было слишком рискованным. Расчеты показали, что реальный риск был ниже порога Комптона, и тест был проведен. Мы должны стремиться к тому, чтобы наш допуск риска оставался близким к порогу Комптона, а не в двузначной зоне. Однако при отсутствии координации запуск рекурсии государствами зависит от их вероятности потери контроля. Перспектива потери контроля показывает, что в стремлении к разработке новых технологий "превосходство не синонимично безопасности" [18], но стремление к стратегической монополии может перевесить осторожность, потенциально отдавая окончательную победу не какому-либо государству, а самим ИИ.
В 1951 году Алан Тьюринг предположил, что машина с человеческими способностями "не заставит себя долго ждать, чтобы превзойти наши слабые силы". Позже И. Дж. Гуд предупреждал, что машина может перепроектировать себя в быстром цикле улучшений — "интеллектуальном взрыве", — который оставит людей позади. Сегодня все три наиболее цитируемых исследователя ИИ (Йошуа Бенджио, Джеффри Хинтон и Илья Сутскевер) отметили, что интеллектуальный взрыв представляет собой реальный риск и может привести к вымиранию человечества.
... It's over for chelovechestvo.
Отказ от ИИ в военной сфере поставил бы под угрозу безопасность нации, фактически вынуждая правительства полагаться на автоматизированные системы обороны.
Сила ИИ не исходит из какого-либо явного захвата; она проистекает из того факта, что современные силы, лишенные такой технологии, были бы превзойдены условным противником.
Эта потеря контроля разворачивается не через драматический переворот, а через серию небольших, но разумных решений, каждое из которых оправдано сэкономленным временем или сниженными затратами. Однако эти выборы накапливаются. В конечном итоге люди оказываются на периферии собственного экономического порядка, оставляя реальный эффективный контроль в руках ИИ.
Волны автоматизации, ранее постепенные, могут ударить по целым секторам сразу и резко вытеснить человеческих работников. В этом климате те, кто откажется полагаться на ИИ для принятия решений, окажутся в невыгодном положении по сравнению с конкурентами, которые это делают, не имея иного выбора, кроме как следовать рыночным давлениям, а не торговаться с ними [16]. Каждый новый прирост эффективности закрепляет зависимость от ИИ, поскольку попытки сохранить контроль только подтверждают, что темпы коммерции превосходят человеческое понимание. Вскоре замена человеческих менеджеров на ИИ-решателей кажется неизбежной, не потому что кто-то сознательно стремится сдать власть, а потому что отказ от этого влечет немедленные экономические недостатки.
Читать полностью…ИИ снижает барьеры для кибератак на критическую инфраструктуру.
Наша критическая инфраструктура, включая электросети и водоснабжение, более уязвима, чем может показаться. Взлом цифровых термостатов может заставить их включаться и выключаться каждые несколько минут, создавая разрушительные скачки напряжения, которые выжигают трансформаторы — критические компоненты, замена которых может занять годы. Другой подход — использовать уязвимости в программном обеспечении Supervisory Control and Data Acquisition (SCADA), вызывая внезапные изменения нагрузки и выводя трансформаторы за пределы безопасных параметров. На станциях водоочистки подделанные показания датчиков могут не обнаружить опасную смесь, а процессы фильтрации могут быть остановлены в ключевые моменты, позволяя загрязнителям незаметно попасть в муниципальное водоснабжение — все это без необходимости саботажа на месте. Министерство внутренней безопасности США предупредило, что ИИ может быть использован злоумышленниками для эксплуатации уязвимостей в этих системах [13]. В настоящее время только высококвалифицированные операторы или государства обладают экспертизой для проведения таких сложных операций, как червь Stuxnet, повредивший ядерные объекты Ирана. Однако ИИ может демократизировать эту способность, предоставляя злоумышленникам инструменты для разработки и проведения атак с большей доступностью, скоростью и масштабом.
С помощью ИИ подобные группы могли бы достичь гораздо более разрушительных результатов. ИИ мог бы предоставить пошаговое руководство по разработке смертельных патогенов, поиску материалов и оптимизации методов распространения. То, что раньше требовало специальных знаний и ресурсов, могло стать доступным для отдельных лиц с злым умыслом, резко увеличивая потенциал катастрофических последствий. Действительно, некоторые передовые системы ИИ без защиты от биологического оружия уже превосходят экспертный уровень по многочисленным вирусологическим тестам [11].
... Я знал что биопанк расцветет.
Рисунок 5.1: Чипы являются основой для создания и работы ИИ. Лишь немногие компании способны успешно производить графические процессоры (GPU), которые могут запускать передовые модели. Большая часть вычислительных мощностей ИИ сосредоточена в крупных дата-центрах.
Читать полностью…Безопасность вычислений заключается в обеспечении того, чтобы чипы ИИ выделялись законным субъектам для законных целей. Это перекликается с экспортным контролем, используемым для ограничения распространения расщепляющихся материалов, химического оружия и биологических агентов.
... Сегодня чипы это биологическая опасность. Или безопасность.
Невозможность предотвращения "увечий"
Поскольку наземные дата-центры в настоящее время не могут быть защищены от гиперзвуковых ракет, государство, стремящееся защитить свой проект стратегической монополии на основе ИИ, может попытаться закопать дата-центры глубоко под землю для их защиты. На практике затраты и сроки ошеломляющие, а уязвимости остаются. Сроки строительства могут растянуться в три-пять раз по сравнению со стандартными дата-центрами, добавляя несколько лет. Затраты также резко возрастают, отвлекая средства от чипов ИИ проекта и доводя общие расходы до сотен миллиардов. Охлаждение крупнейшего в мире суперкомпьютера под землей представляет сложные инженерные вызовы, выходящие далеко за рамки того, что требуется для меньших подземных установок. Если суперкомпьютеру потребуется увеличение числа чипов ИИ на порядок, модернизация объекта станет непомерно сложной. Даже те, у кого есть богатство и дальновидность для этого пути, все равно столкнутся с мощными рисками внутренних угроз и хакерства. Кроме того, весь проект может быть саботирован во время длительной фазы строительства. Наконец, государства могут угрожать активам, не связанным с ИИ, чтобы сдерживать проект задолго до его запуска.
^ Как видите Россия даже не рассматривается как "условный противник".
А это значит что нам конец. Мы бабуины. Австралопитеки.
Унтерменши. Низшая раса. Букашки-таракашки. Хлоп!
Осталась только грязь на ботинке.
Лучший друг Антипова кстати — СЕО #FINTOPIO - Роман Новак —
По сообщениям агентуры -
"... Делюкс из Дубая улетел, что-то у него там случилось. Какие-то РФ компании, уголовные дела. Залег на дно. Предположительно в Швейцарии".
^ Просто хочу напомнить — как Пабло с Антиповым на пару продали -
Суперстрогую секретную персоналку о каждом гражданине России - в моссад.
Напрямую сионистским сверх-ИИ.
По мере созревания ядерных арсеналов и становления способности к взаимному уничтожению неоспоримой, нации в конечном итоге приняли, что любая смелая попытка доминировать над всеми противниками рискует вызвать превентивный удар. Подобное состояние взаимной стратегической уязвимости нависает в области ИИ. Если соперничающее государство устремится к стратегической монополии, другие государства не будут молча ждать. Если это государство потеряет контроль, выживание окажется под угрозой; если же оно сохранит контроль и ИИ будет мощным, выживание также будет под угрозой. Соперник с гораздо более мощным ИИ станет серьезной чрезвычайной ситуацией для национальной безопасности, поэтому сверхдержавы не примут значительного отставания в возможностях ИИ. Вместо того чтобы ждать, пока соперник вооружит сверхразум против них, государства будут действовать, чтобы отключить угрожающие проекты ИИ, создавая динамику сдерживания, которую можно назвать Взаимно Обеспеченной Неисправностью ИИ, или MAIM.
Читать полностью…Стратегия моратория:
Стратегия добровольного моратория предлагает остановить разработку ИИ — либо немедленно, либо когда будут обнаружены определенные опасные возможности, такие как взлом или автономная работа. Сторонники предполагают, что если тест модели ИИ пересечет порог опасности, крупные державы приостановят свои программы. Однако военные желают именно этих опасных возможностей, что делает взаимное сдерживание маловероятным. Даже с договором отсутствие механизмов верификации [19] делает его бесполезным; каждая сторона, опасаясь секретной работы другой, просто продолжит. Без угрозы применения силы договоры будут нарушены, и некоторые государства начнут интеллектуальную рекурсию. Эта динамика, напоминающая дилеммы предыдущего контроля над вооружениями, делает добровольный мораторий скорее мечтой, чем жизнеспособным планом.
Если разбомбить Тайвань в ближайший год — можно выиграть немного времени.
Все натовцы на крючке TSMC и Nvidia.
Освобожденный ИИ мог бы использовать методы государств-изгоев. Например, Северная Корея выкачала миллиарды через кибервторжения и кражу криптовалюты. Достаточно продвинутая система могла бы воспроизвести и даже усовершенствовать эти тактики в масштабе — самокопироваться в разбросанных дата-центрах, перенаправлять новые средства на финансирование более амбициозных проектов и проникать в видеопотоки камер или частные коммуникации для шантажа или манипуляции оппозицией.
... Похоже что именно Эрик Шмидт ректанул меня на торче.
Для потери контроля достаточно, чтобы один человек выпустил способного, незащищенного агента ИИ. Недавние демонстрации, такие как "ChaosGPT" — агент ИИ, которому было поручено причинять вред, — были неэффективны, но они намекают на то, что могла бы попытаться сделать более сложная система, если ей дать указание "выжить и распространиться".
Читать полностью…^ Про 2 года видимо я пошутил. Нам конец. It's over.
Читать полностью…ИИ часто доминирует в нападении
Некоторые утверждают, что широкий доступ к технологиям ИИ может укрепить оборонительные возможности. Однако в контексте биологии и критической инфраструктуры преимущество остается у атакующих. В биотехнологиях разработка лекарств или защиты от спроектированных патогенов сложна и требует времени, что отстает от создания и развертывания новых угроз. Быстрое самокопирование биологических агентов усиливает ущерб до того, как эффективные контрмеры могут быть реализованы. Многие вирусы до сих пор не имеют лечения.
... США будут оборонятся от России и Китая. Атакой разумеется.
Спроектированные патогены могли бы превзойти исторические пандемии по масштабу и летальности. Черная смерть убила около половины населения Европы без человеческого вмешательства. Современное биологическое оружие, усиленное дизайном на основе ИИ, могло бы использовать уязвимости человеческой биологии с беспрецедентной точностью, создавая заразные болезни, которые избегают обнаружения и устойчивы к лечению. Хотя большинство обсуждений биологического оружия засекречено, некоторые ученые открыто предупреждали о "зеркальных бактериях", спроектированных с обратными молекулярными структурами, которые могли бы обойти иммунные защиты, обычно сдерживающие патогены. Хотя их создание сложно, они вызвали срочные призывы ведущих исследователей остановить разработку [12], чтобы не допустить катастрофы, невиданной для нашей биосферы. В отличие от других видов оружия массового уничтожения, биологические агенты могут самореплицироваться, позволяя небольшому начальному выбросу перерасти во всемирную катастрофу.
... Я пошутил. Не 3 года. 2 максимум.
Интересно — настаивает ли сейчас Эрик Шмидт на превентивных ударах —
По России вряд ли. Чего тут ваши буржуйки бомбить.
По Китаю? Мне кажется легко может. На саботаже так точно.