АВТОНОМНОЕ ОРУЖИЕ: ОТКРЫТОЕ ПИСЬМО ИССЛЕДОВАТЕЛЕЙ ИИ (ИСКУССТВЕННОГО ИНТЕЛЛЕКТА) И РОБОТОВ.

Click here to see this page in other languages: English Japanese 

Автономное оружие способно выбирать и атаковать цель без вмешательства человека. Уже сегодня вооруженные квадроциклы могут находить и устранять людей, отвечающих заранее определенным критериям, но, к примеру, крылатые ракеты или дистанционно управляемые беспилотные летательные аппараты, где люди принимают все решения, уже не являются автономными. . Ставки чрезвычайно высоки: многие утверждают, что автономное оружие – это революция в войне, после пороха и ядерного оружия.

В деле об автономном оружии существует много «за» и «против». Например, машины могут стать нашими солдатами, это сократить потери в войне, однако это и приведёт к тому, что война станет плевым делом. Сегодня ключевым вопросом для человечества является вопрос о том, начать ли глобальную гонку вооружений или предотвратить ее запуск. Если какая-либо крупная военная машина, оснащённая ИИ, продвигается вперёд, мировая гонка вооружений практически неизбежна, и конечная точка этой технологической битвы очевидна: автономное оружие станет завтрашним ​​автоматом Калашникова. В отличие от ядерного, автономное оружие не требует дорогостоящего или труднодоступного сырья, поэтому оно станет повсеместными и дешевыми для многих держав и сверхдержав. Их появление на черном рынке, в руках террористов, диктаторов, желающих лучше контролировать свое население, военачальников, желающих совершить этническую чистку, всего лишь вопрос времени. Автономное оружие идеально подходит для таких задач, как убийства и дестабилизация общества. Диктаторы смогут порабощать население, выборочно убивая определенную этническую группу. Поэтому мы считаем, что военная гонка вооружений может пагубно сказаться на каждом из нас. Существует много способов, где ИИ может сделать поле битвы более безопасным для обычных людей, без создания новых инструментов для убийства.

Подобно тому, как большинство химиков и биологов не заинтересованы в создании химического или биологического оружия, большинство исследователей ИИ не заинтересованы в создании оружия на основе искусственного интеллекта, и не хотят, чтобы другие его очернили, создав серьезный общественный резонанс против ИИ, который уменьшит наши будущие социальные выгоды. Действительно, химики и биологи в целом поддерживали международные соглашения, которые успешно запретили химическое и биологическое оружие, так же, как большинство физиков поддержали договоры, запрещающие космическое ядерное оружие и ослепляющее лазерное оружие.

Мы верим, что ИИ имеет большой потенциал для того, чтобы принести пользу человечеству во многих отношениях и что цель этой области в этом и заключается. Начало военной гонки – это плохая идея, и ее следует предотвратить путем запрета создания автономного оружия, выходящего за рамки контроля людьми.