ВАШИНГТОН. Когда в октябре президент Байден объявил о жестких ограничениях на продажу самых передовых компьютерных чипов в Китай, он частично продал их, чтобы дать американской промышленности шанс восстановить свою конкурентоспособность.
Но у Пентагона и Совета национальной безопасности была вторая повестка дня: контроль над вооружениями. Согласно теории, если китайские военные не смогут получить чипы, это может замедлить их усилия по разработке оружия на базе ИИ. Это дало бы Белому дому и всему миру время установить правила использования искусственного интеллекта во всем, от датчиков до ракет и кибероружия, и, в конечном счете, защититься от некоторых кошмаров, придуманных Голливудом — автономных роботов-убийц и компьютеров. которые запирают своих создателей-людей.
Сегодня туман страха, окружающий популярный чат-бот ChatGPT и другое программное обеспечение для генеративного ИИ, сделал ограничение чипов в Пекине просто временным решением. Когда в четверг г-н Байден пришел на встречу технологических лидеров в Белом доме, пытающихся ограничить риски, связанные с технологиями, его первым комментарием было: «То, что вы делаете, имеет огромный потенциал и огромную опасность».
По словам его помощников по национальной безопасности, это было отражением недавних секретных брифингов о потенциале новых технологий для нарушения ведения войны, киберконфликтов и, в самом крайнем случае, принятия решений об использовании «ядерного оружия».
Но даже когда г-н Байден озвучил свое предупреждение, официальные лица Пентагона, выступая на технических форумах, заявили, что считают идею шестимесячной паузы в разработке следующего поколения ChatGPT и аналогичного программного обеспечения плохой идеей: китайцы победили ‘т. подождите, и русские тоже.
«Если мы остановимся, угадайте, кто не остановится: потенциальные противники за границей», — сказал главный информационный директор Пентагона. Джон Шерман, сказал в среду. «Мы должны продолжать двигаться».
Его резкое заявление подчеркнуло напряженность, ощущаемую сегодня в оборонном сообществе. Никто на самом деле не знает, на что способны эти новые технологии, когда дело доходит до разработки оружия и контроля над ним, и они понятия не имеют, какой режим контроля над вооружениями может сработать, если таковой вообще будет.
Предчувствие смутное, но глубоко тревожное. Может ли ChatGPT расширить возможности злоумышленников, у которых раньше не было легкого доступа к деструктивным технологиям? Может ли это ускорить столкновения сверхдержав, оставив мало времени для дипломатии и переговоров?
«Промышленность здесь не тупая, и вы уже видите попытки саморегулирования», — сказал Эрик Шмидт, бывший председатель Google, который с 2016 по 2020 год был первым председателем Совета по оборонным инновациям.
«Итак, в отрасли происходит серия неофициальных разговоров — и все неофициальные — о том, как будут выглядеть правила безопасности ИИ», — сказал Шмидт, который написал бывшему госсекретарю Генри Киссинджеру: серия статей и книг о потенциале искусственного интеллекта для разрушения геополитики.
Предварительные усилия по установке ограждений в системе понятны любому, кто тестировал ранние версии ChatGPT. Боты не будут отвечать на вопросы о том, как навредить кому-то, например, с помощью наркотического напитка, или как взорвать плотину или вывести из строя ядерные центрифуги, — все операции, которые Соединенные Штаты и другие страны проводили без использования инструментов искусственного интеллекта.
Но эти черные списки действий только замедлят неправомерное использование этих систем; мало кто думает, что они могут полностью остановить такие усилия. Всегда есть способ обойти ограничения безопасности, и это подтвердит любой, кто пытался отключить аварийные сигналы в системе предупреждения о непристегнутых ремнях безопасности автомобиля.
Хотя новое программное обеспечение популяризировало проблему, оно не ново для Пентагона. Первые правила разработки автономного оружия были опубликованы десять лет назад. Объединенный центр искусственного интеллекта Пентагона был создан пять лет назад для изучения возможностей использования искусственного интеллекта в бою.
Некоторое оружие уже работает на автопилоте. Ракеты Patriot, сбивающие ракеты или самолеты, входящие в защищенное воздушное пространство, давно имеют «автоматический» режим. Это позволяет им вести огонь без вмешательства человека, когда они поражены приближающимися целями быстрее, чем человек может среагировать. Но предполагается, что за ними наблюдают люди, которые при необходимости могут пресекать атаки.
Убийство Мохсена Фахризаде, ведущего иранского ученого-ядерщика, было совершено израильским Моссадом с использованием автономного пулемета, установленного в фургоне, которому помогал искусственный интеллект, хотя, похоже, имелась высокая степень дистанционного управления. Недавно Россия заявила, что начала производство, но еще не развернула торпеду для атомной подводной лодки «Посейдон». Если оно оправдает российскую шумиху, оружие сможет автономно пересечь океан, минуя существующие средства противоракетной обороны, и доставить ядерное оружие в течение нескольких дней после запуска.
До сих пор не существует международного договора или соглашения, касающегося этих автономных вооружений. В то время, когда соглашения о контроле над вооружениями отказываются от них быстрее, чем ведутся переговоры, маловероятно, что такое соглашение будет заключено. Но задачи, стоящие перед ChatGPT и ему подобными, другие и в некотором смысле более сложные.
В вооруженных силах системы с искусственным интеллектом могут ускорить процесс принятия решений на поле боя до такой степени, что они создают совершенно новые риски случайных ударов или решений, принимаемых на основе вводящих в заблуждение или намеренно ложных предупреждений о приближающихся атаках.
«Главная проблема ИИ в вооруженных силах и в сфере национальной безопасности заключается в том, как защититься от атак, которые быстрее, чем человек принимает решения», — сказал Шмидт. «И я думаю, что проблема не решена. Другими словами, ракета летит так быстро, что должна быть автоматическая реакция. А если это ложный сигнал?»
Холодная война была усеяна историями о ложных предупреждениях — однажды из-за того, что учебная кассета, предназначенная для использования в отработке ядерного реагирования, каким-то образом была помещена не в ту систему и вызвала тревогу о неминуемой массированной советской атаке. (Здравый смысл заставил всех отойти в сторону.) Пол Шарре из Центра новой американской безопасности отметил в своей книге 2018 года «Ни одна армия», что с 1962 по 2002 год произошло «по крайней мере 13 ядерных инцидентов, близких к использованию». , что «придает правдоподобности идее о том, что близкие к промахам нормальные, хотя и ужасающие условия для ядерного оружия».
По этой причине, когда напряженность между сверхдержавами была намного ниже, чем сегодня, ряд президентов пытался вести переговоры, давая больше времени для принятия ядерных решений всеми сторонами, чтобы никто не торопился в конфликт. Но генеративный ИИ угрожает подтолкнуть страны в другом направлении, к более быстрому принятию решений.
Хорошая новость заключается в том, что крупные державы, вероятно, будут осторожны, поскольку они знают, как будет выглядеть ответ противника. Но пока согласованных правил нет.
Аня Мануэль, бывший сотрудник Госдепартамента, а ныне директор консультативной группы Райс, Хэдли, Гейтса и Мануэля, недавно написала, что, хотя Китай и Россия не готовы к переговорам о контроле над вооружениями, встречи по этому вопросу приведут к дискуссиям. . какие виды использования ИИ считаются «недоступными».
Конечно, даже Пентагон будет беспокоиться о принятии многих ограничений.
«Я очень упорно боролся за политику, согласно которой если у вас есть автономные элементы оружия, вам нужен способ их отключения», — сказал Дэнни Хиллис, известный ученый-компьютерщик, пионер компьютеров. Г-н Хиллис, который также работал в Совете по оборонным инновациям, сказал, что отказ исходил от чиновников Пентагона, которые заявили, что «если мы сможем вывести их из строя, то и противник сможет их вывести из строя».
Таким образом, самые большие риски могут исходить от отдельных субъектов, террористов, групп вымогателей или небольших стран с передовыми кибер-навыками, таких как Северная Корея, которые учатся клонировать меньшую версию ChatGPT с меньшими ограничениями. И они могут счесть генеративное программное обеспечение ИИ идеальным для ускорения кибератак и борьбы с дезинформацией.
Том Берт, возглавляющий операции по обеспечению доверия и безопасности в Microsoft, которая ускоряет использование новых технологий для модернизации своих поисковых систем, заявил на недавнем форуме в Университете Джорджа Вашингтона, что, по его мнению, системы ИИ помогут защитникам обнаруживать аномальное поведение быстрее, чем они это делают. . поможет нападающим. Другие эксперты не согласны. Но он сказал, что опасается, что это может «подтолкнуть» распространение целенаправленной дезинформации.
Все это предвещает совершенно новую эру контроля над вооружениями.
Некоторые эксперты говорят, что, поскольку остановить распространение ChatGPT и подобного программного обеспечения было бы невозможно, лучше всего ограничить специализированные чипы и другие вычислительные мощности, необходимые для развития технологии. Несомненно, это будет одна из многих формул контроля над вооружениями, предложенных в ближайшие годы, в то время, когда крупнейшие ядерные державы, по крайней мере, кажутся мало заинтересованными в переговорах по поводу старых вооружений, не говоря уже о новых.