Legend's Diary Info? Here: @Ghost_of_Ghost
Незарегистрированные дата-центры легко обнаруживаются с помощью спутниковых снимков и становятся целью для проверки. Любой чип, обнаруженный в неавторизованных руках, повлечет за собой штрафы, уголовные обвинения или запрет на будущие поставки нарушителю. Кроме того, любой чип ИИ, объявленный неработоспособным или устаревшим, должен пройти проверенную утилизацию, подобно утилизации химических или ядерных материалов, гарантируя, что эти якобы вышедшие из строя чипы не будут тихо перепроданы. Усиливая проверки и вводя значимые последствия за нарушения, государства повышают стоимость тайных передач и ограничивают распространение передовых вычислений среди групп, которые могут угрожать безопасности.
Читать полностью…^ Все теперь измеряется во флопсах. Включая и Россию.
Читать полностью…Вычисления как ключевой входной ресурс, подобный расщепляющимся материалам или химическим прекурсорам. Чипы ИИ имеют сходство с другими входными данными для ОМУ. Чипы ИИ требуют сложных производственных процессов и значительных ресурсов, подобно обогащению урана. Точно так же объем вычислений существенно определяет возможности ИИ, как количество расщепляющегося материала влияет на мощность ядерного оружия.
Читать полностью…Рисунок 5.1: Чипы являются основой для создания и работы ИИ. Лишь немногие компании способны успешно производить графические процессоры (GPU), которые могут запускать передовые модели. Большая часть вычислительных мощностей ИИ сосредоточена в крупных дата-центрах.
Читать полностью…Безопасность вычислений заключается в обеспечении того, чтобы чипы ИИ выделялись законным субъектам для законных целей. Это перекликается с экспортным контролем, используемым для ограничения распространения расщепляющихся материалов, химического оружия и биологических агентов.
... Сегодня чипы это биологическая опасность. Или безопасность.
Невозможность предотвращения "увечий"
Поскольку наземные дата-центры в настоящее время не могут быть защищены от гиперзвуковых ракет, государство, стремящееся защитить свой проект стратегической монополии на основе ИИ, может попытаться закопать дата-центры глубоко под землю для их защиты. На практике затраты и сроки ошеломляющие, а уязвимости остаются. Сроки строительства могут растянуться в три-пять раз по сравнению со стандартными дата-центрами, добавляя несколько лет. Затраты также резко возрастают, отвлекая средства от чипов ИИ проекта и доводя общие расходы до сотен миллиардов. Охлаждение крупнейшего в мире суперкомпьютера под землей представляет сложные инженерные вызовы, выходящие далеко за рамки того, что требуется для меньших подземных установок. Если суперкомпьютеру потребуется увеличение числа чипов ИИ на порядок, модернизация объекта станет непомерно сложной. Даже те, у кого есть богатство и дальновидность для этого пути, все равно столкнутся с мощными рисками внутренних угроз и хакерства. Кроме того, весь проект может быть саботирован во время длительной фазы строительства. Наконец, государства могут угрожать активам, не связанным с ИИ, чтобы сдерживать проект задолго до его запуска.
^ Как видите Россия даже не рассматривается как "условный противник".
А это значит что нам конец. Мы бабуины. Австралопитеки.
Унтерменши. Низшая раса. Букашки-таракашки. Хлоп!
Осталась только грязь на ботинке.
Лучший друг Антипова кстати — СЕО #FINTOPIO - Роман Новак —
По сообщениям агентуры -
"... Делюкс из Дубая улетел, что-то у него там случилось. Какие-то РФ компании, уголовные дела. Залег на дно. Предположительно в Швейцарии".
^ Просто хочу напомнить — как Пабло с Антиповым на пару продали -
Суперстрогую секретную персоналку о каждом гражданине России - в моссад.
Напрямую сионистским сверх-ИИ.
По мере созревания ядерных арсеналов и становления способности к взаимному уничтожению неоспоримой, нации в конечном итоге приняли, что любая смелая попытка доминировать над всеми противниками рискует вызвать превентивный удар. Подобное состояние взаимной стратегической уязвимости нависает в области ИИ. Если соперничающее государство устремится к стратегической монополии, другие государства не будут молча ждать. Если это государство потеряет контроль, выживание окажется под угрозой; если же оно сохранит контроль и ИИ будет мощным, выживание также будет под угрозой. Соперник с гораздо более мощным ИИ станет серьезной чрезвычайной ситуацией для национальной безопасности, поэтому сверхдержавы не примут значительного отставания в возможностях ИИ. Вместо того чтобы ждать, пока соперник вооружит сверхразум против них, государства будут действовать, чтобы отключить угрожающие проекты ИИ, создавая динамику сдерживания, которую можно назвать Взаимно Обеспеченной Неисправностью ИИ, или MAIM.
Читать полностью…Стратегия моратория:
Стратегия добровольного моратория предлагает остановить разработку ИИ — либо немедленно, либо когда будут обнаружены определенные опасные возможности, такие как взлом или автономная работа. Сторонники предполагают, что если тест модели ИИ пересечет порог опасности, крупные державы приостановят свои программы. Однако военные желают именно этих опасных возможностей, что делает взаимное сдерживание маловероятным. Даже с договором отсутствие механизмов верификации [19] делает его бесполезным; каждая сторона, опасаясь секретной работы другой, просто продолжит. Без угрозы применения силы договоры будут нарушены, и некоторые государства начнут интеллектуальную рекурсию. Эта динамика, напоминающая дилеммы предыдущего контроля над вооружениями, делает добровольный мораторий скорее мечтой, чем жизнеспособным планом.
Если разбомбить Тайвань в ближайший год — можно выиграть немного времени.
Все натовцы на крючке TSMC и Nvidia.
Освобожденный ИИ мог бы использовать методы государств-изгоев. Например, Северная Корея выкачала миллиарды через кибервторжения и кражу криптовалюты. Достаточно продвинутая система могла бы воспроизвести и даже усовершенствовать эти тактики в масштабе — самокопироваться в разбросанных дата-центрах, перенаправлять новые средства на финансирование более амбициозных проектов и проникать в видеопотоки камер или частные коммуникации для шантажа или манипуляции оппозицией.
... Похоже что именно Эрик Шмидт ректанул меня на торче.
Для потери контроля достаточно, чтобы один человек выпустил способного, незащищенного агента ИИ. Недавние демонстрации, такие как "ChaosGPT" — агент ИИ, которому было поручено причинять вред, — были неэффективны, но они намекают на то, что могла бы попытаться сделать более сложная система, если ей дать указание "выжить и распространиться".
Читать полностью…^ Про 2 года видимо я пошутил. Нам конец. It's over.
Читать полностью…Ведение учета. Чтобы знать, где находится каждый чип ИИ, экспортный контроль можно сделать более тщательным через режим лицензирования. Опираясь на существующие рамки и агентства, такие как Бюро промышленности и безопасности, продавцы высокопроизводительных чипов ИИ должны будут подавать заявку на лицензию, указывающую чипы, их получателя и любые предполагаемые передачи. Субъекты с хорошей историей соблюдения требований могут получить исключения при условии, что они уведомляют власти о каждой перепродаже или перемещении. Поскольку этот процесс использует знакомую инфраструктуру, он может быть введен быстро, позволяя чиновникам отслеживать чипы без задержек в законной торговле.
Читать полностью…Больше вычислений делает модели умнее. Данные показывают, что вычисления являются доминирующим фактором, определяющим производительность ИИ. Анализы выявляют поразительную корреляцию — более 95% — между количеством использованных вычислений и производительностью модели ИИ на стандартных тестах [23, 24]. Эта зависимость, формализованная через "законы масштабирования", демонстрирует постоянное улучшение производительности ИИ по мере увеличения вычислительных ресурсов. Эти законы масштабирования остаются верными в диапазоне пятнадцати порядков вычислений (измеряемых в FLOP) — 1 000 000 000 000 000, — что указывает на то, что будущие достижения продолжат зависеть от экспоненциально растущих объемов вычислений. Вывод: экспортный контроль над вычислениями существенно ограничивает возможности непредсказуемых субъектов.
Читать полностью…Прогресс в области ИИ зависит от доступа к мощным вычислительным ресурсам, часто называемым "вычислениями" (compute). Эти чипы ИИ, созданные через сложные и централизованные цепочки поставок, необходимы для обучения крупномасштабных моделей ИИ. Поскольку вычисления становятся неотъемлемой частью экономической и национальной безопасности, их распределение приобретает решающее значение. Основная цель безопасности вычислений — относиться к передовым чипам ИИ так же, как к обогащенному урану. Мы рассмотрим исторические прецеденты безопасности вычислений и предложим тактики, чтобы надежно знать, где находятся высокопроизводительные чипы ИИ, и предотвратить их попадание в руки непредсказуемых субъектов.
... Опережаю Эрика на 1 мысль.
Информационная безопасность предполагает защиту чувствительных исследований в области ИИ и весов моделей, которые составляют основные интеллектуальные активы ИИ. Защита этих элементов предотвращает их несанкционированное распространение и злонамеренное использование, что аналогично мерам по защите конфиденциальной информации в контексте оружия массового уничтожения (ОМУ).
Будет ли сегодня свой Берия — и его агентура? Чтоб украсть из Америки все?
В теории - да.
💢 Пути к отключению проекта ИИ соперника.
Государства, намеренные заблокировать стратегическую монополию на основе ИИ, могут использовать множество тактик, начиная с разведки, при которой спецслужбы незаметно получают информацию о проектах ИИ соперника.
1. Зная, что атаковать, они могут провести скрытый саботаж: подкупленные или шантажируемые инсайдеры могут вмешиваться в веса модели, данные обучения или производственные мощности чипов ИИ,
2. В то время как хакеры незаметно ухудшают процесс обучения, чтобы производительность ИИ после завершения была посредственной. Это напоминает Stuxnet, который стремился тайно саботировать программу обогащения урана в Иране.
3. Когда скрытность оказывается слишком ограничивающей, конкуренты могут перейти к явным кибератакам, нацеленным на системы охлаждения чипов в дата-центрах или близлежащие электростанции, что напрямую — хоть и заметно — нарушает разработку.
4. Если эти меры окажутся недостаточными, некоторые лидеры могут рассмотреть кинетические атаки на дата-центры, утверждая, что позволить одному игроку рисковать доминированием или уничтожением мира — большая опасность, хотя кинетические атаки, вероятно, не понадобятся.
5. Наконец, в крайних обстоятельствах государства могут прибегнуть к более широким враждебным действиям, поднимаясь по существующим лестницам эскалации или угрожая не связанным с ИИ активам. Мы называем атаки на проекты ИИ соперников "увечными атаками".
... 4 и 5 пункты — это разумеется про ракетные удары по условному противнику.
В случае данной статьи — по Китаю. Но мне нравится как Шмидт использует новиопский язык.
"Кинетические удары". Просто мразь — и левое отребье.
Возможные исходы Манхэттенского проекта США по сверхразуму. Пример пути к эскалации: проект США опережает Китай без "увечий" и сохраняет контроль над рекурсией, но не достигает сверхразума или сверхоружия. Хотя глобальная власть мало меняется, Пекин осуждает попытку Вашингтона к стратегической монополии как серьезную эскалацию. Типичный исход Манхэттенского проекта по сверхразуму — крайняя эскалация, а всеуничтожение — худший предсказуемый результат.
Читать полностью…^ Я могу ошибаться в курсе шитков. Мог. Но не в таких вещах.
Читать полностью…^ Судя по всему в России сейчас происходит "чрезвычайно серьезная ситуация для национальной безопасности".
Читать полностью…^ Остановить этот поезд не может никто. России мне кажется конец.
Читать полностью…Геополитическое конкурентное давление приводит к высокому допуску риска потери контроля.
Во время Холодной войны фраза "Лучше мертвым, чем красным" подразумевала, что проигрыш противнику считался хуже, чем риск ядерной войны. В будущей гонке ИИ подобное мышление могло бы подтолкнуть официальных лиц к терпимости к двузначному риску потери контроля, если альтернатива — отставание от соперника — кажется неприемлемой. Если выбор жесткий — рискнуть всеуничтожением или проиграть, — некоторые могут пойти на этот риск. Выполняемое несколькими конкурирующими державами, это равносильно глобальной русской рулетке и толкает человечество к тревожной вероятности уничтожения. В резком контрасте, после поражения нацистской Германии ученые Манхэттенского проекта опасались, что первое атомное устройство может поджечь атмосферу. Роберт Оппенгеймер спросил Артура Комптона, какой порог приемлем, и Комптон установил его на уровне трех на миллион (порог "6σ") — все, что выше, было слишком рискованным. Расчеты показали, что реальный риск был ниже порога Комптона, и тест был проведен. Мы должны стремиться к тому, чтобы наш допуск риска оставался близким к порогу Комптона, а не в двузначной зоне. Однако при отсутствии координации запуск рекурсии государствами зависит от их вероятности потери контроля. Перспектива потери контроля показывает, что в стремлении к разработке новых технологий "превосходство не синонимично безопасности" [18], но стремление к стратегической монополии может перевесить осторожность, потенциально отдавая окончательную победу не какому-либо государству, а самим ИИ.
В 1951 году Алан Тьюринг предположил, что машина с человеческими способностями "не заставит себя долго ждать, чтобы превзойти наши слабые силы". Позже И. Дж. Гуд предупреждал, что машина может перепроектировать себя в быстром цикле улучшений — "интеллектуальном взрыве", — который оставит людей позади. Сегодня все три наиболее цитируемых исследователя ИИ (Йошуа Бенджио, Джеффри Хинтон и Илья Сутскевер) отметили, что интеллектуальный взрыв представляет собой реальный риск и может привести к вымиранию человечества.
... It's over for chelovechestvo.
Отказ от ИИ в военной сфере поставил бы под угрозу безопасность нации, фактически вынуждая правительства полагаться на автоматизированные системы обороны.
Сила ИИ не исходит из какого-либо явного захвата; она проистекает из того факта, что современные силы, лишенные такой технологии, были бы превзойдены условным противником.
Эта потеря контроля разворачивается не через драматический переворот, а через серию небольших, но разумных решений, каждое из которых оправдано сэкономленным временем или сниженными затратами. Однако эти выборы накапливаются. В конечном итоге люди оказываются на периферии собственного экономического порядка, оставляя реальный эффективный контроль в руках ИИ.
Волны автоматизации, ранее постепенные, могут ударить по целым секторам сразу и резко вытеснить человеческих работников. В этом климате те, кто откажется полагаться на ИИ для принятия решений, окажутся в невыгодном положении по сравнению с конкурентами, которые это делают, не имея иного выбора, кроме как следовать рыночным давлениям, а не торговаться с ними [16]. Каждый новый прирост эффективности закрепляет зависимость от ИИ, поскольку попытки сохранить контроль только подтверждают, что темпы коммерции превосходят человеческое понимание. Вскоре замена человеческих менеджеров на ИИ-решателей кажется неизбежной, не потому что кто-то сознательно стремится сдать власть, а потому что отказ от этого влечет немедленные экономические недостатки.
Читать полностью…