Skip to content
All Open Letters

Open Letter on Autonomous Weapons Japanese

Published
23 October, 2017


この公開状は、7月28日に行われた国際人工知能会議(IJCAI) 2015 会議のオープニングで発表されたものです。

本会議のプレスリリースをご覧になりたいプレス関係者は、Toby Walshまでご連絡ください。

主催、署名検証、リストマネジメントはFLIが後援しております。この公開状に関する運営上のご質問につきましてはMax Tegmarkまでご連絡ください。

自律型兵器:人工知能とロボット工学研究者からの公開質問状


Click here to see this page in other languages : English German Russian 

自律型兵器は、人間の介入なしに攻撃対象を選択し、交戦します。こうしたロボット兵器には、例えば事前に定義された基準に合う人々を探し出し殺害することができる、武装したクアッドコプター(回転翼機)などが含まれますが、人間が全ての攻撃対象を決定できる巡行ミサイルやリモートコントロールのドローンなどは含まれません。人口知能 (AI) 技術は、このような兵器システムの配備が、実質的に不法であれば数十年ではなく、あと数年で達成可能となるポイントにたどり着きました。この代償は大きいです: 自律型兵器は、戦争行為における火薬、核兵器に続く第3の革命兵器と評されてきました。

自律型兵器に関してなされてきた多くの議論は、例えば人間の兵士をマシンに代えることは所有者にとって負傷者の削減につながるため良いことですが、それによって戦闘への敷居を低くするという悪い面があります。こんにち、人類における重要な質問は、グローバルな人口知能兵器の軍拡競争を始めるか、もしくはそれを最初から予防するか、というものです。

もし、いくつかの主な軍事大国が人工知能兵器の開発を推し進めたら、グローバルな軍拡競争は避けようがなく、この技術的軌跡の終点は明らかです:人工知能兵器が明日のカラシニコフになるのです。核兵器のように、人工知能兵器はコストがかかったり、材料の入手が困難ではありません。ですから、人口知能兵器はあらゆるところに偏在し、主な軍事大国にとって、その大量生産は安く済むことになります。こうした兵器がブラックマーケットに現れ、テロリスト、民衆をよりコントロールしたいと願う独裁者、民族浄化を犯したいと願う軍隊などの手に渡るのは時間の問題です。自律型兵器は暗殺、国の不安定化、住民の鎮圧、特定民族グループの選択的殺害といったタスクには最適です。ですから、私たちは軍事的な人工知能兵器が人類にとって利益があるとは思いません。人々を殺すための新しいツールをつくることなしに、人口知能が人間の戦いの場をより安全にする方法はたくさんあります。

多くの化学者や生物学者が化学兵器や生物兵器の製造に興味が無いように、大多数の人工知能研究者たちも人口知能兵器をつくることに興味はありません。そして研究者以外の人々が、人口知能兵器をつくることで起こる、世間の潜在的な人口知能に対する大きな反動によって未来の社会の利益を削ぎ、人口知能の研究分野を汚すことを人工知能研究者たちは望んではいません。

実際、多くの物理学者が宇宙核兵器とレーザー兵器の製造禁止協定に協力したと同様に、化学者や生物学者らは、化学兵器と生物兵器を禁止することに成功した国際協定を広範囲に支援してきました。

要約すると、人口知能には人類の利益となる大きな可能性があると私たちは信じており、この分野の目標は、そのようにするべきです。人口知能兵器の軍拡を始めることは悪いアイデアであり、意義ある人間のコントロールを超える攻撃的自律型兵器への禁止令によって予防されるべきです。

現在までに、4,502名の人口知能やロボット工学研究者、その他26,215名によってこの公開状は署名されています。 署名者リストは、 をご覧ください。

OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
2672

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
14 February, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
25 October, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
22 March, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
18 October, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram