Is an AI Arms Race Inevitable? Russian
Contents
Гонка «умных» вооружений – неизбежна?
Click here to see this page in other languages: English
Принцип Гонки вооружений с искусственным интеллектом (ИИ): Необходимо избежать гонки автономных вооружений.
Наверное, самой пугающей частью Холодной войны была гонка ядерных вооружений. На ее пике США и Россия обладали более, чем 70 000 единиц ядерного оружия, и даже малая часть этого арсенала могла бы уничтожить все живое на земле. Сегодня в мире идет соперничество в разработке все более мощного искусственного интеллекта (ИИ), и поскольку правительства разных стран все активнее тестируют возможности использования ИИ в вооружении, многие эксперты в сфере ИИ обеспокоены, что, возможно, началась новая не менее пугающая гонка – гонка автономных вооружений.
Так, в конце 2015 года Пентагон запросил включить в бюджет США 2017 года 12-15 млрд. долларов на ИИ и автономные вооружения. Роберт Ворк, бывший в то время заместителем министра обороны США, признал, что он хотел, чтобы «наши соперники гадали, что скрывается за черным занавесом». Ворк также сказал, что цель этих новых технологий – «обеспечить сохранение военного превосходства над Китаем и Россией».
Но не только США обладают данной технологией, поэтому существуют опасения, что страны с более низкими стандартами безопасности могут быстро обогнать Соединенные Штаты. Без должного отношения к безопасности – труднее контролировать автономные вооружения, а значит повышается риск для жизни мирных жителей и опасность попадания подобного оружия в руки террористов, диктаторов, безответственных государств и лиц, обладающих самыми бесчеловечными намерениями.
Анка Драган, доцент Калифорнийский университет в Беркли, сравнила возможность гонки вооружений, использующих ИИ, с «очень дешевым и легко доступным ядерным оружием».
«И для нас это может плохо кончиться», – добавляет она.
В отличие от ядерного оружия, этот новый вид оружия массового поражения может быть использован для прицельного уничтожения групп людей по характерным отличиям: например, в зависимости от расы или от того, что они «лайкают» в социальных сетях.
Автономные вооружения
Тоби Уолш, профессор Университета Нового Южного Уэльса (Австралия), в 2015 году инициировал публикацию открытого письма с призывом запретить автономные вооружения. Письмо подписали более 20 000 человек. Об этом письме и о Принципе Гонки вооружений с ИИ, Уолш сказал: «Я включился в эту дискуссию, потому что сейчас гонка вооружений, которую ведут различные армии в мире, – одна из важнейших тематик. Гонка может иметь крайне дестабилизирующий эффект. Подобные технологии, когда они станут доступны, – могут разрушить существующий миропорядок. Вообще, ИИ, который планируют использовать в этой гонке вооружений – глуп, и меня очень тревожит, что он технологически не способен будет отличить солдат от мирных жителей, соблюдать международное гуманитарное законодательство, и может быть использован тиранами и террористами, или хакерами, что приведет к крайне нежелательным последствиям. И именно к этому сейчас все идет.»
Профессор Монреальского университета (Канада) Йошуа Бенгио в разговоре о Принципе, отметил, что он – один из подписавших то самое открытое письмо об автономных вооружениях, и это, по сути «наглядно показывает» его озабоченность возможной гонкой вооружений с ИИ.
Детали и определения
Драган рассуждает не только о рисках гонки, но и о том, что делать и как этого избежать: «Я полагаю, для этого необходимы международные соглашения,» – заявляет она.
Не только Драган говорит о необходимости международных соглашений: недавно в ООН достигнута договоренность об официальных обсуждениях, которые, вероятно, приведут к переговорам о запрете или ограничении автономного вооружения. Но, как обычно, дьявол в деталях.
Профессор Барт Селман из Корнеллского университета (США) утверждает, что гонку вооружений с ИИ: «необходимо избежать.» Но добавляет: «”необходимо” избежать это одно, а вот “удастся” ли избежать – это еще большой вопрос.»
Селман говорит о необходимости «таких же обсуждений, какие были о ядерном или биологическом оружии, когда люди всерьез начали рассматривать существующие риски и альтернативы гонки вооружений.»
«Подобные обсуждения», – утверждает он, – «могут объединить людей и целые страны: они могут заявить, что это неверное развитие и нам следует ограничить или прекратить его. И главная ценность Принципа, я думаю, – в понимании необходимости обсуждения этого всем обществом, вместе с другими странами.»
Дэн Вельд, профессор Вашингтонского университета (США), также опасается, что одних лишь заявлений о необходимости остановить гонку вооружений – недостаточно. «Я всем сердцем надеюсь, что мы не увидим гонку автономных вооружений», – говорит он, – «Тем не менее, Принцип вызывает у меня сомнения, поскольку мне он не кажется прикладным. Ведь гонка вооружений – динамичное явление, в котором участвует несколько сторон. Для гонки нужно как минимум двое. Так кто же из них причина гонки? Боюсь, что обе стороны будут показывать друг на друга и говорить: «Эй, это не я устроил гонку! Давайте остановим ее: я просто сделаю свое оружие точнее, а ты расслабишься, на этом гонка и закончится!» Какая тогда польза от такого Принципа?»
Общее мнение
Хотя предотвратить гонку «умных» вооружений – задача сложная, но, кажется, сложилось общее негативное мнение о гонке и понимание, что ее необходимо избежать.
«Вооруженный ИИ – это оружие массового поражения, и гонка вооружений с ИИ наверняка приведет к глобальной катастрофе для человечества.» – говорит Роман Ямпольский, профессор Луисвиллского университета (США).
Кей Ферт-Баттерфилд, исполнительные директор сайта AI-Austin.org, объясняет, что «любая гонка вооружений недопустима, но особенно эта, в которой крайне велики ставки; и еще – ужасает, что это оружие, если оно будет создано, может быть использовано также во внутриполитических конфликтах.»
Но лучше всего, наверно, высказался об этом профессор Стэнфордского университета (США) Стефано Эрмон: «Даже при тех возможностях, которые мы имеем сегодня, не трудно представить, как вредоносно может быть использован . Я бы не хотел, чтобы моя научная деятельность в это сфере или какие-либо наработки причинили вред другим людям, или привели к войнам, или использовались для создания оружия – чего-то еще более смертоносного, чем то, что имеет сейчас человечество.»
А что думаете вы?
Возможно ли избежать гонку «умных» вооружений? Как можно предотвратить ее? Сможем ли мы уберечь автономные вооружения от попадания в руки диктаторов или террористов? Как бизнес и правительства могли бы вместе работать над созданием полезного ИИ, не допуская, чтобы эти технологии использовались для создания самого смертоносного оружия, когда-либо существовавшего на свете?
Эта статья является частью еженедельного цикла о 23 асиломарских принципах ИИ. Принципы определяют рамки, в которых ИИ может помочь как можно большему количеству людей. Но, как сказал о Принципах Тоби Уолш: «Это, конечно, только начало, многое еще впереди». Принципы – это лишь начало дискуссии, далее необходимо широкое обсуждение каждого конкретного принципа. Еженедельные обсуждения предыдущих принципов вы можете прочитать здесь.
Принцип Гонки вооружений с ИИ – касается именно проблемы автономного вооружения. Позднее в цикле статей мы обсудим Принцип Недопущения гонки, касающийся рисков соперничества компаний в создании технологий ИИ.
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.