Гонка «умных» вооружений – неизбежна?

Click here to see this page in other languages: English 

Принцип Гонки вооружений с искусственным интеллектом (ИИ): Необходимо избежать гонки автономных вооружений.

Наверное, самой пугающей частью Холодной войны была гонка ядерных вооружений. На ее пике США и Россия обладали более, чем 70 000 единиц ядерного оружия, и даже малая часть этого арсенала могла бы уничтожить все живое на земле. Сегодня в мире идет соперничество в разработке все более мощного искусственного интеллекта (ИИ), и поскольку правительства разных стран все активнее тестируют возможности использования ИИ в вооружении, многие эксперты в сфере ИИ обеспокоены, что, возможно, началась новая не менее пугающая гонка – гонка автономных вооружений.

Так, в конце 2015 года Пентагон запросил включить в бюджет США 2017 года 12-15 млрд. долларов на ИИ и автономные вооружения. Роберт Ворк, бывший в то время заместителем министра обороны США, признал, что он хотел, чтобы «наши соперники гадали, что скрывается за черным занавесом». Ворк также сказал, что цель этих новых технологий – «обеспечить сохранение военного превосходства над Китаем и Россией».

Но не только США обладают данной технологией, поэтому существуют опасения, что страны с более низкими стандартами безопасности могут быстро обогнать Соединенные Штаты. Без должного отношения к безопасности – труднее контролировать автономные вооружения, а значит повышается риск для жизни мирных жителей и опасность попадания подобного оружия в руки террористов, диктаторов, безответственных государств и лиц, обладающих самыми бесчеловечными намерениями.

Анка Драган, доцент Калифорнийский университет в Беркли, сравнила возможность гонки вооружений, использующих ИИ, с «очень дешевым и легко доступным ядерным оружием».

«И для нас это может плохо кончиться», – добавляет она.

В отличие от ядерного оружия, этот новый вид оружия массового поражения может быть использован для прицельного уничтожения групп людей по характерным отличиям: например, в зависимости от расы или от того, что они «лайкают» в социальных сетях.

Автономные вооружения

Тоби Уолш, профессор Университета Нового Южного Уэльса (Австралия), в 2015 году инициировал публикацию открытого письма с призывом запретить автономные вооружения. Письмо подписали более 20 000 человек. Об этом письме и о Принципе Гонки вооружений с ИИ, Уолш сказал: «Я включился в эту дискуссию, потому что сейчас гонка вооружений, которую ведут различные армии в мире, – одна из важнейших тематик. Гонка может иметь крайне дестабилизирующий эффект. Подобные технологии, когда они станут доступны, – могут разрушить существующий миропорядок. Вообще, ИИ, который планируют использовать в этой гонке вооружений – глуп, и меня очень тревожит, что он технологически не способен будет отличить солдат от мирных жителей, соблюдать международное гуманитарное законодательство, и может быть использован тиранами и террористами, или хакерами, что приведет к крайне нежелательным последствиям. И именно к этому сейчас все идет.»

Профессор Монреальского университета (Канада) Йошуа Бенгио в разговоре о Принципе, отметил, что он – один из подписавших то самое открытое письмо об автономных вооружениях, и это, по сути «наглядно показывает» его озабоченность возможной гонкой вооружений с ИИ.

Детали и определения

Драган рассуждает не только о рисках гонки, но и о том, что делать и как этого избежать: «Я полагаю, для этого необходимы международные соглашения,» – заявляет она.

Не только Драган говорит о необходимости международных соглашений: недавно в ООН достигнута договоренность об официальных обсуждениях, которые, вероятно, приведут к переговорам о запрете или ограничении автономного вооружения. Но, как обычно, дьявол в деталях.

Профессор Барт Селман из Корнеллского университета (США) утверждает, что гонку вооружений с ИИ: «необходимо избежать.» Но добавляет: «”необходимо” избежать это одно, а вот “удастся” ли избежать – это еще большой вопрос.»

Селман говорит о необходимости «таких же обсуждений, какие были о ядерном или биологическом оружии, когда люди всерьез начали рассматривать существующие риски и альтернативы гонки вооружений.»

«Подобные обсуждения», – утверждает он, – «могут объединить людей и целые страны: они могут заявить, что это неверное развитие и нам следует ограничить или прекратить его. И главная ценность Принципа, я думаю, – в понимании необходимости обсуждения этого всем обществом, вместе с другими странами.»

Дэн Вельд, профессор Вашингтонского университета (США), также опасается, что одних лишь заявлений о необходимости остановить гонку вооружений – недостаточно. «Я всем сердцем надеюсь, что мы не увидим гонку автономных вооружений», – говорит он, – «Тем не менее, Принцип вызывает у меня сомнения, поскольку мне он не кажется прикладным. Ведь гонка вооружений – динамичное явление, в котором участвует несколько сторон. Для гонки нужно как минимум двое. Так кто же из них причина гонки? Боюсь, что обе стороны будут показывать друг на друга и говорить: «Эй, это не я устроил гонку! Давайте остановим ее: я просто сделаю свое оружие точнее, а ты расслабишься, на этом гонка и закончится!» Какая тогда польза от такого Принципа?»

Общее мнение

Хотя предотвратить гонку «умных» вооружений – задача сложная, но, кажется, сложилось общее негативное мнение о гонке и понимание, что ее необходимо избежать.

«Вооруженный ИИ – это оружие массового поражения, и гонка вооружений с ИИ наверняка приведет к глобальной катастрофе для человечества.» – говорит Роман Ямпольский, профессор Луисвиллского университета (США).

Кей Ферт-Баттерфилд, исполнительные директор сайта AI-Austin.org, объясняет, что «любая гонка вооружений недопустима, но особенно эта, в которой крайне велики ставки; и еще – ужасает, что это оружие, если оно будет создано, может быть использовано также во внутриполитических конфликтах.»

Но лучше всего, наверно, высказался об этом профессор Стэнфордского университета (США) Стефано Эрмон: «Даже при тех возможностях, которые мы имеем сегодня, не трудно представить, как вредоносно может быть использован [ИИ]. Я бы не хотел, чтобы моя научная деятельность в это сфере или какие-либо наработки причинили вред другим людям, или привели к войнам, или использовались для создания оружия – чего-то еще более смертоносного, чем то, что имеет сейчас человечество.»

А что думаете вы?

Возможно ли избежать гонку «умных» вооружений? Как можно предотвратить ее? Сможем ли мы уберечь автономные вооружения от попадания в руки диктаторов или террористов? Как бизнес и правительства могли бы вместе работать над созданием полезного ИИ, не допуская, чтобы эти технологии использовались для создания самого смертоносного оружия, когда-либо существовавшего на свете?

Эта статья является частью еженедельного цикла о 23 асиломарских принципах ИИ. Принципы определяют рамки, в которых ИИ может помочь как можно большему количеству людей. Но, как сказал о Принципах Тоби Уолш: «Это, конечно, только начало, многое еще впереди». Принципы – это лишь начало дискуссии, далее необходимо широкое обсуждение каждого конкретного принципа. Еженедельные обсуждения предыдущих принципов вы можете прочитать здесь.

Принцип Гонки вооружений с ИИ – касается именно проблемы автономного вооружения. Позднее в цикле статей мы обсудим Принцип Недопущения гонки, касающийся рисков соперничества компаний в создании технологий ИИ.