Можно ли доверить контроль над ядерным оружием искусственному интеллекту, остается дилеммой. (Картография «Великой Эпохи»)
Лидеры США и Китая достигли ограниченного устного соглашения на саммите в Сан-Франциско 15 ноября, включая согласие сотрудничать в области искусственного интеллекта и возобновить военные обмены. Но эти словесные обещания гораздо менее надежны, чем возвращение гигантских панд в Китай. Однако некоторые неопределенные вопросы могут оказать существенное влияние на будущее.
Перед саммитом появились сообщения о том, что на саммите будет объявлено о соглашении, запрещающем использование искусственного интеллекта в ряде областей, включая ядерное оружие. На самом деле никакого соглашения на этом саммите достигнуто не было, но сообщения, опубликованные Белым домом и МИД Китая, поднимают возможность переговоров между США и Китаем по вопросам искусственного интеллекта. В своем обращении к СМИ после саммита Байден пояснил: «Мы соберем наших экспертов, чтобы обсудить риски и вопросы безопасности, связанные с искусственным интеллектом».
Ни американские, ни китайские официальные лица не сообщили, какие эксперты будут участвовать или какие риски и проблемы безопасности будут рассмотрены. Конечно, есть много тем, которые стоит обсудить. Эти дискуссии могут касаться так называемых катастрофических рисков систем искусственного интеллекта, несовместимых с человеческими ценностями, растущего использования смертоносных автономных систем вооружения (некоторые называют их «роботами-убийцами») и роли искусственного интеллекта в принятии решения о применении ядерного оружия. ядерное оружие, отдавать приказы о нанесении ядерных ударов и применять ядерное оружие. Возможная роль в бою.
Однако перспективы достижения консенсуса и заключения обязывающего соглашения между Соединенными Штатами и Китаем вовсе не оптимистичны. Существует много причин, по которым договор или запрет могут не увидеть свет, но есть как минимум две основные причины. Во-первых, нет единого мнения по простому и ясному определению, которое отличает безобидный ИИ, широко используемый в повседневной жизни, от ИИ, который может представлять смертельную угрозу человечеству в будущем. Считается, что искусственный интеллект, используемый в промышленном управлении, автоматическом оборудовании, системном анализе и других областях, способствовал развитию современной науки и техники и оказал глубокое влияние на человеческое общество посредством обработки больших объемов данных. Это подводит нас ко второй причине: он настолько полезен, что никто не хочет исключать искусственный интеллект из военной сферы, а тем более ставить себя в невыгодное конкурентное положение из-за отсутствия искусственного интеллекта.
Успех искусственного интеллекта в гражданской сфере можно повторить и в военной борьбе: фактически, он уже давно успешно используется в военных целях. Соединенные Штаты, Китай и другие страны работают над интеграцией этих достижений в свои военные системы, и неизбежно началась гонка вооружений в сфере искусственного интеллекта. Задача состоит в том, чтобы не отстать от конкуренции в этой области, а в том, чтобы ответственно найти более разумные решения, основанные на человеческой судьбе.
Из всех потенциальных рисков наибольшую тревогу вызывает сочетание искусственного интеллекта и ядерного оружия. Системы искусственного интеллекта настолько умны, настолько быстры и становятся основой человеческой деятельности, что их серьезное влияние на будущее человечества заслуживает того, чтобы мы нашли время подумать об этом или, по крайней мере, подумать об этом. лагеря, чтобы занять позицию. и обсудить эти вопросы.
США пытаются решить эту проблему, ответственно обсуждая развитие искусственного интеллекта. Госдепартамент США настаивает на политическом заявлении об ответственном использовании и ограничениях автономии ИИ в вооруженных силах. Это не запрет и не юридически обязательный договор, а набор принципов, основанных на безопасности человека.
В декларации США изложено несколько принципов использования искусственного интеллекта, суть которых заключается в том, что в цепочке контроля над вооружениями, управляемой искусственным интеллектом, должен быть человек, принимающий решения о жизни и смерти. Это часто называют циклом командования и контроля с участием людей. Цель состоит в том, чтобы устранить риски, связанные с искусственным интеллектом, включая обеспечение того, чтобы автономные системы вооружения не убивали без разбора. Этот принцип распространяется на все вооружение и технику: от беспилотников до боевых машин, ракет, самолетов, боевых кораблей, подводных лодок и т. д. Напротив, наибольший потенциальный риск связан с ядерным оружием, в том числе с ядерными боеголовками на межконтинентальных баллистических ракетах, бомбардировщиках и подводных лодках.
В первоначальной версии декларации конкретно говорилось, что участие человека должно присутствовать при уведомлении и реализации решений и всех действий, связанных с применением ядерного оружия. Это описание было удалено из более поздних версий, но идея сохранения человеческого контроля всегда была основополагающей для размышлений официальных лиц США по этому поводу. В июне этого года советник Байдена по национальной безопасности Джейк Салливан призвал другие страны, обладающие ядерным оружием, взять на себя обязательство сохранить полномочия человека по принятию решений в командном цикле, начиная с контроля над ядерным оружием и его использования. Если будет такая возможность серьезно обсудить этот вопрос, то это обязательно будет вопрос, который необходимо обсудить американским и китайским экспертам.
Возможно, никому не нужна полностью автономная машина судного дня. Даже бывший Советский Союз, который потратил бесчисленные ресурсы на автоматизацию своей ядерной инфраструктуры командования и контроля во время холодной войны, не смог довести дело до конца. Даже так называемая московская система «Мертвая рука» по-прежнему опирается на людей в подземных бункерах. Система «Мертвая рука» — специальная российская пусковая установка для ядерного оружия. Это система, которая автоматически запускает ядерные бомбы при условии, что Россия подвергнется разрушительной ядерной атаке и никто не сможет активировать ядерное оружие.
Растущее использование искусственного интеллекта заставило некоторых усомниться в ценности присутствия людей в контурах управления и необходимости корректировки ядерной политики, чтобы поставить под угрозу полномочия человека принимать решения. Причина в том, что люди также принимают много плохих решений. Они считают, что реальная опасность заключается не в том, что решение о применении ядерного оружия доверено искусственному интеллекту, а в том, что лица, принимающие решения, полагаются на решения, предоставляемые искусственным интеллектом, и влияют на свои решения, и все это подобно тому, как полагаться на GPS-навигацию при вождении.
Исследования показывают, что люди, использующие навигационные приложения за рулем, постепенно теряют базовые навыки определения своего местоположения и направления, а если приложения допускают ошибки, люди могут дезориентироваться. Те же опасения касаются ИИ, где люди, принимающие решения, могут стать чрезмерно зависимыми от советов, предоставляемых ИИ, и последствия могут быть гораздо более серьезными. Другими словами, если система ИИ выдает убедительное сообщение об ошибке, полномочия человека по принятию решений могут оказаться не той гарантией, на которую мы надеемся.
Соединенные Штаты обладают мощными ядерными силами с множеством ядерных ракет наземного, морского и воздушного базирования, которые могут быть запущены в течение нескольких минут после уведомления. Коммунистическая партия Китая также подражает этому жесту, строя новые ракетные шахты и размещая на орбите новые спутники раннего предупреждения. Если в чувствительные периоды, когда вспыхивает конфликт, система раннего предупреждения о ядерном ударе подает ложный сигнал тревоги, люди, принимающие решения, могут поверить, что это правда. Это реальная опасность. Другими словами, независимо от того, присутствует ли в контуре управления принятие решений человеком, рисков невозможно полностью избежать, но это не противоречит важности полномочий человека по принятию решений.
В любом случае, люди, похоже, не уверены в том, что останутся непогрешимыми при управлении системами, использующими искусственный интеллект. Однако не должно отсутствовать участие человека в принятии решений, а зависимость человека от искусственного интеллекта должна быть сведена к минимуму.
Фактически, первоначальная цель интеграции лиц, принимающих решения, в контур управления системами вооружения с использованием искусственного интеллекта заключается не только в повышении гарантий безопасности самой системы. Фундаментальная цель состоит не в том, чтобы полностью доверить право принятия решений искусственному интеллекту, а в том, чтобы исключить людей из ситуации и позволить искусственному интеллекту самостоятельно принимать решения, контролировать и развиваться. Это равносильно передаче мира искусственному интеллекту, что было бы опасно для человека.
Чтобы избежать такой катастрофической перспективы, потребуются усилия всего человечества. Сможет ли КПК заключить обязательный и ограничительный договор с Соединенными Штатами и Западом о развитии искусственного интеллекта, несмотря на жесткую конкуренцию, энергичное продвижение военной модернизации и попытки развития региональной гегемонии, даже во всем мире? Перспективы не многообещающие.
Нравится вам это или нет, но мировые лидеры, скорее всего, будут все больше и больше полагаться на искусственный интеллект. Искусственный интеллект больше нельзя запретить, как нельзя запретить никакую другую технологию. Даже если еще есть несколько трезвых американцев или других, которые громко кричат, бездонная и беспринципная конкуренция в области искусственного интеллекта может поставить под угрозу человечество. Однако конкуренция между противоборствующими лагерями по-прежнему приводит к тому, что некоторые теряют рациональность.
Можно только надеяться, что эксперты, ученые и исследователи из Китая, России, США и других стран отбросят любую политическую предвзятость и обсудят вопросы безопасности ИИ на основе человеческого познания.
Сценарист: Ся Луошань (репортер «Великой Эпохи», имеющий военный опыт более десяти лет, в основном занимающийся военным образованием и некоторой технической управленческой работой)
Продюсер: Военно-производственная группа по текущим событиям
Следите за новостями «Текущие события и военные дела – Шарлотта Маунтин»:https://www.ganjing.com/zh-TW/channel/1f6pro4fi585ppZp9ySKkwd0W19f0c
Главный редактор: Лиан Шухуа#