Skip to content
All Open Letters

Open Letter on Autonomous Weapons Russian

Published
1 September, 2017

АВТОНОМНОЕ ОРУЖИЕ: ОТКРЫТОЕ ПИСЬМО ИССЛЕДОВАТЕЛЕЙ ИИ (ИСКУССТВЕННОГО ИНТЕЛЛЕКТА) И РОБОТОВ.


Click here to see this page in other languages: English German Japanese 

Автономное оружие способно выбирать и атаковать цель без вмешательства человека. Уже сегодня вооруженные квадроциклы могут находить и устранять людей, отвечающих заранее определенным критериям, но, к примеру, крылатые ракеты или дистанционно управляемые беспилотные летательные аппараты, где люди принимают все решения, уже не являются автономными. . Ставки чрезвычайно высоки: многие утверждают, что автономное оружие – это революция в войне, после пороха и ядерного оружия.

В деле об автономном оружии существует много «за» и «против». Например, машины могут стать нашими солдатами, это сократить потери в войне, однако это и приведёт к тому, что война станет плевым делом. Сегодня ключевым вопросом для человечества является вопрос о том, начать ли глобальную гонку вооружений или предотвратить ее запуск. Если какая-либо крупная военная машина, оснащённая ИИ, продвигается вперёд, мировая гонка вооружений практически неизбежна, и конечная точка этой технологической битвы очевидна: автономное оружие станет завтрашним ​​автоматом Калашникова. В отличие от ядерного, автономное оружие не требует дорогостоящего или труднодоступного сырья, поэтому оно станет повсеместными и дешевыми для многих держав и сверхдержав. Их появление на черном рынке, в руках террористов, диктаторов, желающих лучше контролировать свое население, военачальников, желающих совершить этническую чистку, всего лишь вопрос времени. Автономное оружие идеально подходит для таких задач, как убийства и дестабилизация общества. Диктаторы смогут порабощать население, выборочно убивая определенную этническую группу. Поэтому мы считаем, что военная гонка вооружений может пагубно сказаться на каждом из нас. Существует много способов, где ИИ может сделать поле битвы более безопасным для обычных людей, без создания новых инструментов для убийства.

Подобно тому, как большинство химиков и биологов не заинтересованы в создании химического или биологического оружия, большинство исследователей ИИ не заинтересованы в создании оружия на основе искусственного интеллекта, и не хотят, чтобы другие его очернили, создав серьезный общественный резонанс против ИИ, который уменьшит наши будущие социальные выгоды. Действительно, химики и биологи в целом поддерживали международные соглашения, которые успешно запретили химическое и биологическое оружие, так же, как большинство физиков поддержали договоры, запрещающие космическое ядерное оружие и ослепляющее лазерное оружие.

Мы верим, что ИИ имеет большой потенциал для того, чтобы принести пользу человечеству во многих отношениях и что цель этой области в этом и заключается. Начало военной гонки – это плохая идея, и ее следует предотвратить путем запрета создания автономного оружия, выходящего за рамки контроля людьми.

OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
2672

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
14 February, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
25 October, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
22 March, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
18 October, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram