Nature: искусственный интеллект увеличивает угрозу ядерной войны

Использование ИИ увеличивает угрозу ядерной войны, пишет Nature. Разные страны давно используют алгоритмы на основе ИИ для оптимизации боевых задач. Искаженная информация, сгенерированная ИИ, способна увеличить вероятность военной эскалации и привести к необратимым последствиям, предупреждает автор статьи.
Так называемые Часы Судного дня — своеобразный символический арбитр, который говорит о том, насколько близко человечество подошло к самоуничтожению, — теперь показывают 89 секунд до полуночи, тем самым подобравшись максимально близко к точке невозврата.
В январе нынешнего года специалистам по глобальной безопасности из Bulletin of the Atomic Scientists («Бюллетень ученых-атомщиков») в Чикаго, штат Иллинойс, пришлось перевести стрелки Часов Судного дня по причине возникновения множества таких угроз, как изменение климата и биологическое оружие. Однако главной из этих угроз является возрастающий риск начала ядерной войны, который зачастую упускается из виду.
«Мы постоянно слышим, что ядерная угроза исчезла; что, мол, это все угрозы из прошлого, из времен холодной войны, — говорит физик Дэниел Холц (Daniel Holz) из Чикагского университета, консультировавший по поводу Часов Судного дня. – Однако в разговорах с экспертами мы слышим все совсем противоположное: на самом деле вероятность ядерной угрозы очень велика, и она непрерывно возрастает». В настоящее время происходит немало конфликтов с участием одного или нескольких государств, обладающих ядерным оружием, – здесь мы видим и изнурительные боевые действия России на Украине, и обострившуюся в мае напряженность между Индией и Пакистаном, а также удары США и Израиля, нанесенные в июне по иранским ядерным объектам.
Однако тревогу вызывает не только количество боевых столкновений, которые могут в дальнейшем обостриться. В ходе крупномасштабного наращивания ядерного оружия, которое мы наблюдали в предыдущую эпоху, а именно – во время холодной войны между Соединенными Штатами и Советским Союзом – участниками были, по сути, две сравнительно равновеликие сверхдержавы. Теперь же Китай становится третьей ядерной сверхдержавой, Северная Корея наращивает свой ядерный арсенал, а Ирану удалось обогатить уран сверх того уровня, который необходим для использования в гражданских целях. Кроме того, считается, что свои ядерные арсеналы расширяют также Индия и Пакистан. Добавьте к этому потенциальную возможность того, что непреднамеренно или же преднамеренно искаженная информации способна влиять на политических деятелей и избирателей в странах, обладающих ядерным оружием, а также саму возможность искусственного интеллекта (ИИ) вносить неопределенность в принятие военных решений, – как только мы это все учтем, то станет ясно, что свод всех устоявшихся правил оказался разрушенным.
«Восемьдесят лет спустя после начала ядерного века мы находимся на переломном этапе», — говорит Александра Белл (Alexandra Bell), президент и главный исполнительный директор Bulletin of the Atomic Scientists.
Отныне концепция ядерного сдерживания касается только двух сторон; при этом, ей еще больше угрожают новые технологии. В результате наступает новый ядерный век и сопряженный с ним более высокий уровень угроз.
В нынешней, столь напряженной ситуации ученые работают над тем, чтобы предотвратить уничтожение нашей цивилизации. В ходе трехдневной конференции, которая открылась 14 июля в Чикаго (почти ровно через восемьдесят лет после того, как ученые и военные США испытали первую атомную бомбу), десятки современных ученых, включая лауреатов Нобелевской премии в самых разных областях науки, встретились на единой площадке, чтобы обсудить действия по предотвращению ядерной войны. Они опубликовали новое предупреждение о связанных с ядерной войной рисках, а также рекомендации по поводу того, каким образом наше общество может их предотвратить. Кроме того, они призвали все государства мира открыто обсудить вопрос о последствиях использования ИИ в научной и военной сферах.
Формирующийся в настоящее время многополярный мир подрывает основы ядерной безопасности, благодаря которым раньше удавалось избегать ядерной войны. Принципы ядерного сдерживания основаны на том предположении, что ни одно из государств не будет начинать такую войну, которая неизбежно приведет к разрушительным последствиям для всех. Это подразумевает наличие принципа распределенного размещения ядерных боезарядов, благодаря которому их невозможно уничтожить одним ударом, – из-за этого у противника отпадает желание нанести удар первым, ведь он знает, что в ответ по нему тоже будет нанесен удар, и последствием станет «взаимно гарантированное уничтожение». Благодаря этому ядерные державы имеют ясное представление относительно ударных потенциалов друг друга и, следовательно, – ясное понимание о последствиях любого нападения. Хрупкая стабильность сохранялась благодаря неофициальным каналам связи между враждебными государствами и благодаря дипломатическим сигналам, призванным избегать недопонимания, которое могло бы привести к случайному нажатию ядерной кнопки.
Многополярная модель сложнее, что затрудняет поддержание связей между странами. Кроме того, увеличение количества ядерных держав повышает вероятность наступления ядерных войн меньшего масштаба, которые, пусть и сохраняя свою крайнюю разрушительность, вовсе не обязательно могли бы привести к взаимно гарантированному уничтожению. Благодаря этому ослабляется сдерживающий фактор, препятствующий нанесению первого ядерного удара.
Более того, многие из неофициальных каналов связи, которые существовали с целью смягчения ядерной напряженности (например, неформальные встречи между американскими и советскими учеными во времена холодной войны), отныне больше не действуют, как в прежние времена. Официальные дипломатические каналы также приходят в негодность, блокируются или же прерываются в ходе современных конфликтов, например, во время войны между Израилем и Ираном, – здесь мы процитируем физика Карен Холлберг (Karen Hallberg) из аргентинского Института Балсейро в Сан-Карлос-де-Барилоче, которая является генеральным секретарем Пагуошского движения, основанного учеными с целью ликвидации ядерного и других видов оружия массового уничтожения. «На сегодняшний день самым тревожным фактом является стремление к соперничеству, а не к сотрудничеству в науке и в международных отношениях», — утверждает Карен Холлберг.
Некоторые нарекли многополярный мир третьим ядерным веком. Напомним, что первым ядерным веком была холодная война, длившаяся с момента окончания Второй мировой войны вплоть до распада Советского Союза в 1991 году; а вторым — в 1990-е и 2000-е годы, когда Соединенные Штаты и Россия сократили свои ядерные арсеналы.
Пропитанные искаженной информацией
Способность Интернета и социальных сетей распространять искаженную информацию (а порой даже ее близкую родственницу – откровенную дезинформацию, преднамеренное распространение ложных фактов) лишь усугубляет хрупкость новой ситуации. И намеренно, и ненамеренно искаженная информация способна затруднить требующие деликатного подхода дискуссии по вопросу о ядерном сдерживании; она также способна увеличить вероятность военной эскалации.
Возьмем, например, разразившийся в мае нынешнего года индо-пакистанский конфликт, который начался с того, что Индия после террористической атаки нанесла удары по Пакистану. В свою очередь, Пакистан ответил, и обе страны обстреляли друг друга ракетами и другим оружием, что привело к потерям с обеих сторон. Новостные каналы и социальные сети были переполнены ложными заявлениями о военных победах; кроме того, искусственный интеллект даже сгенерировал изображения якобы уничтоженных вражеских объектов. Специалисты по глобальной безопасности опасались, что дезинформация о масштабах разрушений может довести ситуацию до ядерной войны.
Но до этого не произошло: как известно, после четырех дней конфликта Индия и Пакистан под давлением Соединенных Штатов договорились о прекращении огня. Однако нетрудно себе представить, что дезинформация вполне способна подтолкнуть лидера какой-нибудь страны, обладающей ядерным оружием, к тому, чтобы это оружие применить, говорит аналитик в ядерной сфере Мэтт Корда (Matt Korda) из базирующаяся в Вашингтоне Федерации американских учёных (FAS), которая занимается минимизацией рисков глобальных угроз. Представим себе, например, что некий мошенник, желая создать большие проблемы, пустил в социальных сетях ложный слух, призванный убедить американских потребителей новостей в том, что Иран действительно создал ядерное оружие. Затем эта тревожная информация вдруг просачивается в СМИ, которые отслеживает президент США. В результате, эта информация вполне способна оказать влияние на действия американского президента. «Чтобы повлиять на политического деятеля такого ранга, нужно оказать влияние на американский электорат, что, как мы, собственно, знаем, сделать невероятно легко», — продолжает Корда.
Войны ИИ в туманной дымке
Еще одна актуальная проблема — это роль ИИ в принятии решений о том, следует ли вообще применять ядерное оружие и каким образом. Министерство обороны США использует инструменты на базе ИИ для планирования и проведения боевых операций в обычных боевых действиях. Самое главное должностное лицо, отвечающее за ядерные силы, генерал ВВС Энтони Коттон (Anthony Cotton), в прошлом году заявил, что с помощью ИИ можно ускорить принятие решений для координации и контроля над операциями в области использования ядерного оружия.
К сотрудничеству с американскими военными подключились компании, занимающиеся разработкой ИИ. В июне компания Anthropic из Сан-Франциско, штат Калифорния, анонсировала набор секретных моделей Claude Gov, основанных на ее общедоступном помощнике Claude AI, который будет использоваться для нужд национальной безопасности США. В январе компания OpenAI, также расположенная в Сан-Франциско, объявила о партнерстве с национальными лабораториями США, которое включает в себя интеграцию моделей, созданных OpenAI, в сферу ядерных вооружений. Сообщается, что Китай и Россия также занимаются вопросом о применении инструментов на основе ИИ как в ходе обычных, так и в ядерных боевых действиях.
Разные страны уже давно используют алгоритмы на основе ИИ для оптимизации и ускорения выполнения некоторых задач, таких как обнаружение и отслеживание возможных приближающихся ядерных ракет. Новшеством является появление все большего количества моделей логического вывода на базе ИИ, говорит Элис Салтини (Alice Saltini), которая занимается исследовательской деятельностью в области ИИ и ядерной безопасности в Центр исследований проблем нераспространения имени Джеймса Мартина (James Martin Center for Nonproliferation Studies) в Монтерее, Калифорния. Эти модели, подобные генеративной модели o3, которая была разработана OpenAI, или же тем, которые лежат в основе семейства больших языковых моделей Claude, способны обобщать результаты разных задач и ускорять обработку огромных массивов данных. Когда-нибудь они, по словам Салтини, будут составной частью системы раннего оповещения и сбора разведданных многих стран.
Рассуждающие ИИ-системы смогут предлагать свой взгляд на то, что такое война, и свои варианты действий. «Представьте себе ИИ, который используется в качестве вспомогательного средства для принятия решений; при этом его мнение будет не просто учитываться – он будет предлагать различные варианты решений в военной сфере», — говорит научный сотрудник в области исследования киберполитики и безопасности Герберт Лин (Herbert Lin) из Стэнфордского университета в штате Калифорния. Такие модели могли бы на основе обработки входящих данных предлагать информацию, которая будет учитываться при принятии решений, например: сколько ожидается потерь в результате нанесения того или иного удара, или же какие действия нарушают принципы международного гуманитарного права.
По словам Лин, маловероятно, чтобы какая-то страна полностью доверила инструменту, работающему на основе ИИ, принимать решения. «Передавать такому инструменту, как ChatGPT, коды запуска ядерного оружия — это очень плохая идея», — говорит Лин. По словам Элис Салтини, многие ИИ-модели склонны ко всякого рода галлюцинациям (выдумыванию); к тому же, они склонны к тому, чтобы действия предпринимались немедленно — а все перечисленные факторы никак не помогают при принятии какого-нибудь судьбоносного решения в военной сфере.
Некоторые ядерные державы заявили, что будут держать людей в курсе любого решения о развертывании ядерного оружия. Другие страны вовсе не делали публичных заявлений об использовании ИИ при принятии решений в ядерной сфере.
Однако ИИ-технологии могут способствовать лишь, образно говоря, напусканию «тумана войны», внося путаницу относительно мотивации и боевого потенциала противника, тем самым подрывая ясно сформулированные принципы ядерного сдерживания. Кроме того, ИИ-технологии могут повысить риск ядерной эскалации другими, неявными, способами. Те самые ИИ-модели, с помощью которых страна получает возможность эффективнее обнаруживать ракеты и подводные лодки противника, вполне способны увеличить вероятность того, что эта страна вдруг нанесет первый удар для устранения эфемерной угрозы. Высокая скорость обработки данных ИИ может создать у тех, кто принимает решения, ложное чувство уверенности в получении точной информации, хотя на самом деле в ответах ИИ вполне могут проскальзывать ошибки, добавляет Лин. Например, данные радара могут быть интерпретированы не как ложная тревога, а как реальный ядерный удар.
Остановить ядерную войну
Что же мы можем сделать для того, чтобы снизить риск непреднамеренного содействия искусственного интеллекта развязыванию ядерной войны? Александра Белл и Элис Салтини утверждают, что политикам необходимо как можно лучше ознакомиться с возможностями и ограничениями, характерными для ИИ-технологий. Главной глобальной площадкой для обсуждения ИИ и военной безопасности являются ежегодные саммиты «Ответственное применение ИИ в военной сфере» (Responsible AI in the Military Domain), которые стартовали в 2023 году, причем следующий запланирован на сентябрь нынешнего года. На прошлогоднем саммите было принято не имеющее обязательной силы заявление о том, что контролировать все аспекты развертывания ядерного оружия должен именно человек. Однако стремительные темпы развития ИИ «опережают нашу способность осознавать – я уж не говорю контролировать – последствия применения этих технологий», полагает Белл.
С рисками, которые подводят нас к возникновению ядерной войны — как новые риски, так и старые — необходимо разобраться, считает физик Дэниел Холц. При этом он надеется, что правительства теперь учтут рекомендации делегатов Чикагской конференции, в том числе обращение к странам мира о том, чтобы они подтвердили свои обязательства по мораторию на испытания ядерного оружия и поддержали усилия по разработке договора о сокращении вооружений. Это соглашение должно прийти на смену новому Договору СНВ между США и Россией, срок действия которого истекает в следующем году (имеется в виду СНВ-III, т.е. Договор между Россией и США о мерах по дальнейшему сокращению и ограничению стратегических наступательных вооружений. – Прим. ИноСМИ).
Физик Дэвид Гросс (David Gross) из Калифорнийского университета в Санта-Барбаре вдохновился идеей оказания помощи в организации Чикагской конференции после того, как на многих важных выборах в 2024 году ядерное оружие практически перестало быть предметом обсуждения. По словам Гросса, «на самом деле люди не осознают угрозы» возникновения ядерной войны. «Такая ситуация весьма опасна».
Добавил
Игорь Иванов 39114 7 часов 39 минут назад

нет комментариев
Комментарии участников:
Ни одного комментария пока не добавлено