Skip to content

Is an AI Arms Race Inevitable? Russian

Published:
January 8, 2019
Author:
Jake Beebe

Contents

Гонка «умных» вооружений - неизбежна?


Click here to see this page in other languages: English 


Принцип Гонки вооружений с искусственным интеллектом (ИИ): Необходимо избежать гонки автономных вооружений.

Наверное, самой пугающей частью Холодной войны была гонка ядерных вооружений. На ее пике США и Россия обладали более, чем 70 000 единиц ядерного оружия, и даже малая часть этого арсенала могла бы уничтожить все живое на земле. Сегодня в мире идет соперничество в разработке все более мощного искусственного интеллекта (ИИ), и поскольку правительства разных стран все активнее тестируют возможности использования ИИ в вооружении, многие эксперты в сфере ИИ обеспокоены, что, возможно, началась новая не менее пугающая гонка – гонка автономных вооружений.

Так, в конце 2015 года Пентагон запросил включить в бюджет США 2017 года 12-15 млрд. долларов на ИИ и автономные вооружения. Роберт Ворк, бывший в то время заместителем министра обороны США, признал, что он хотел, чтобы «наши соперники гадали, что скрывается за черным занавесом». Ворк также сказал, что цель этих новых технологий - «обеспечить сохранение военного превосходства над Китаем и Россией».

Но не только США обладают данной технологией, поэтому существуют опасения, что страны с более низкими стандартами безопасности могут быстро обогнать Соединенные Штаты. Без должного отношения к безопасности – труднее контролировать автономные вооружения, а значит повышается риск для жизни мирных жителей и опасность попадания подобного оружия в руки террористов, диктаторов, безответственных государств и лиц, обладающих самыми бесчеловечными намерениями.

Анка Драган, доцент Калифорнийский университет в Беркли, сравнила возможность гонки вооружений, использующих ИИ, с «очень дешевым и легко доступным ядерным оружием».

«И для нас это может плохо кончиться», - добавляет она.

В отличие от ядерного оружия, этот новый вид оружия массового поражения может быть использован для прицельного уничтожения групп людей по характерным отличиям: например, в зависимости от расы или от того, что они «лайкают» в социальных сетях.

Автономные вооружения


Тоби Уолш, профессор Университета Нового Южного Уэльса (Австралия), в 2015 году инициировал публикацию открытого письма с призывом запретить автономные вооружения. Письмо подписали более 20 000 человек. Об этом письме и о Принципе Гонки вооружений с ИИ, Уолш сказал: «Я включился в эту дискуссию, потому что сейчас гонка вооружений, которую ведут различные армии в мире, - одна из важнейших тематик. Гонка может иметь крайне дестабилизирующий эффект. Подобные технологии, когда они станут доступны, - могут разрушить существующий миропорядок. Вообще, ИИ, который планируют использовать в этой гонке вооружений – глуп, и меня очень тревожит, что он технологически не способен будет отличить солдат от мирных жителей, соблюдать международное гуманитарное законодательство, и может быть использован тиранами и террористами, или хакерами, что приведет к крайне нежелательным последствиям. И именно к этому сейчас все идет.»

Профессор Монреальского университета (Канада) Йошуа Бенгио в разговоре о Принципе, отметил, что он – один из подписавших то самое открытое письмо об автономных вооружениях, и это, по сути «наглядно показывает» его озабоченность возможной гонкой вооружений с ИИ.

Детали и определения


Драган рассуждает не только о рисках гонки, но и о том, что делать и как этого избежать: «Я полагаю, для этого необходимы международные соглашения,» - заявляет она.

Не только Драган говорит о необходимости международных соглашений: недавно в ООН достигнута договоренность об официальных обсуждениях, которые, вероятно, приведут к переговорам о запрете или ограничении автономного вооружения. Но, как обычно, дьявол в деталях.

Профессор Барт Селман из Корнеллского университета (США) утверждает, что гонку вооружений с ИИ: «необходимо избежать.» Но добавляет: «"необходимо” избежать это одно, а вот “удастся” ли избежать – это еще большой вопрос.»

Селман говорит о необходимости «таких же обсуждений, какие были о ядерном или биологическом оружии, когда люди всерьез начали рассматривать существующие риски и альтернативы гонки вооружений.»

«Подобные обсуждения», - утверждает он, - «могут объединить людей и целые страны: они могут заявить, что это неверное развитие и нам следует ограничить или прекратить его. И главная ценность Принципа, я думаю, – в понимании необходимости обсуждения этого всем обществом, вместе с другими странами.»

Дэн Вельд, профессор Вашингтонского университета (США), также опасается, что одних лишь заявлений о необходимости остановить гонку вооружений - недостаточно. «Я всем сердцем надеюсь, что мы не увидим гонку автономных вооружений», - говорит он, - «Тем не менее, Принцип вызывает у меня сомнения, поскольку мне он не кажется прикладным. Ведь гонка вооружений – динамичное явление, в котором участвует несколько сторон. Для гонки нужно как минимум двое. Так кто же из них причина гонки? Боюсь, что обе стороны будут показывать друг на друга и говорить: «Эй, это не я устроил гонку! Давайте остановим ее: я просто сделаю свое оружие точнее, а ты расслабишься, на этом гонка и закончится!» Какая тогда польза от такого Принципа?»

Общее мнение


Хотя предотвратить гонку «умных» вооружений – задача сложная, но, кажется, сложилось общее негативное мнение о гонке и понимание, что ее необходимо избежать.

«Вооруженный ИИ – это оружие массового поражения, и гонка вооружений с ИИ наверняка приведет к глобальной катастрофе для человечества.» - говорит Роман Ямпольский, профессор Луисвиллского университета (США).

Кей Ферт-Баттерфилд, исполнительные директор сайта AI-Austin.org, объясняет, что «любая гонка вооружений недопустима, но особенно эта, в которой крайне велики ставки; и еще - ужасает, что это оружие, если оно будет создано, может быть использовано также во внутриполитических конфликтах.»

Но лучше всего, наверно, высказался об этом профессор Стэнфордского университета (США) Стефано Эрмон: «Даже при тех возможностях, которые мы имеем сегодня, не трудно представить, как вредоносно может быть использован . Я бы не хотел, чтобы моя научная деятельность в это сфере или какие-либо наработки причинили вред другим людям, или привели к войнам, или использовались для создания оружия - чего-то еще более смертоносного, чем то, что имеет сейчас человечество.»

А что думаете вы?


Возможно ли избежать гонку «умных» вооружений? Как можно предотвратить ее? Сможем ли мы уберечь автономные вооружения от попадания в руки диктаторов или террористов? Как бизнес и правительства могли бы вместе работать над созданием полезного ИИ, не допуская, чтобы эти технологии использовались для создания самого смертоносного оружия, когда-либо существовавшего на свете?

Эта статья является частью еженедельного цикла о 23 асиломарских принципах ИИ. Принципы определяют рамки, в которых ИИ может помочь как можно большему количеству людей. Но, как сказал о Принципах Тоби Уолш: «Это, конечно, только начало, многое еще впереди». Принципы – это лишь начало дискуссии, далее необходимо широкое обсуждение каждого конкретного принципа. Еженедельные обсуждения предыдущих принципов вы можете прочитать здесь.

Принцип Гонки вооружений с ИИ – касается именно проблемы автономного вооружения. Позднее в цикле статей мы обсудим Принцип Недопущения гонки, касающийся рисков соперничества компаний в создании технологий ИИ.

Our content

Related posts

If you enjoyed this, you also might like:

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram