Skip to content
All Open Letters

Open Letter on Autonomous Weapons Japanese

Published
October 23, 2017


この公開状は、7月28日に行われた国際人工知能会議(IJCAI) 2015 会議のオープニングで発表されたものです。

本会議のプレスリリースをご覧になりたいプレス関係者は、Toby Walshまでご連絡ください。

主催、署名検証、リストマネジメントはFLIが後援しております。この公開状に関する運営上のご質問につきましてはMax Tegmarkまでご連絡ください。

自律型兵器:人工知能とロボット工学研究者からの公開質問状


Click here to see this page in other languages : English German Russian 

自律型兵器は、人間の介入なしに攻撃対象を選択し、交戦します。こうしたロボット兵器には、例えば事前に定義された基準に合う人々を探し出し殺害することができる、武装したクアッドコプター(回転翼機)などが含まれますが、人間が全ての攻撃対象を決定できる巡行ミサイルやリモートコントロールのドローンなどは含まれません。人口知能 (AI) 技術は、このような兵器システムの配備が、実質的に不法であれば数十年ではなく、あと数年で達成可能となるポイントにたどり着きました。この代償は大きいです: 自律型兵器は、戦争行為における火薬、核兵器に続く第3の革命兵器と評されてきました。

自律型兵器に関してなされてきた多くの議論は、例えば人間の兵士をマシンに代えることは所有者にとって負傷者の削減につながるため良いことですが、それによって戦闘への敷居を低くするという悪い面があります。こんにち、人類における重要な質問は、グローバルな人口知能兵器の軍拡競争を始めるか、もしくはそれを最初から予防するか、というものです。

もし、いくつかの主な軍事大国が人工知能兵器の開発を推し進めたら、グローバルな軍拡競争は避けようがなく、この技術的軌跡の終点は明らかです:人工知能兵器が明日のカラシニコフになるのです。核兵器のように、人工知能兵器はコストがかかったり、材料の入手が困難ではありません。ですから、人口知能兵器はあらゆるところに偏在し、主な軍事大国にとって、その大量生産は安く済むことになります。こうした兵器がブラックマーケットに現れ、テロリスト、民衆をよりコントロールしたいと願う独裁者、民族浄化を犯したいと願う軍隊などの手に渡るのは時間の問題です。自律型兵器は暗殺、国の不安定化、住民の鎮圧、特定民族グループの選択的殺害といったタスクには最適です。ですから、私たちは軍事的な人工知能兵器が人類にとって利益があるとは思いません。人々を殺すための新しいツールをつくることなしに、人口知能が人間の戦いの場をより安全にする方法はたくさんあります。

多くの化学者や生物学者が化学兵器や生物兵器の製造に興味が無いように、大多数の人工知能研究者たちも人口知能兵器をつくることに興味はありません。そして研究者以外の人々が、人口知能兵器をつくることで起こる、世間の潜在的な人口知能に対する大きな反動によって未来の社会の利益を削ぎ、人口知能の研究分野を汚すことを人工知能研究者たちは望んではいません。

実際、多くの物理学者が宇宙核兵器とレーザー兵器の製造禁止協定に協力したと同様に、化学者や生物学者らは、化学兵器と生物兵器を禁止することに成功した国際協定を広範囲に支援してきました。

要約すると、人口知能には人類の利益となる大きな可能性があると私たちは信じており、この分野の目標は、そのようにするべきです。人口知能兵器の軍拡を始めることは悪いアイデアであり、意義ある人間のコントロールを超える攻撃的自律型兵器への禁止令によって予防されるべきです。

現在までに、4,502名の人口知能やロボット工学研究者、その他26,215名によってこの公開状は署名されています。 署名者リストは、 をご覧ください。

OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
1

Carta aberta convocando os líderes mundiais a demonstrarem liderança com visão de longo prazo em relação às ameaças existenciais

O The Elders, Future of Life Institute e uma gama diversificada de cossignatários solicitam aos decisores uma abordagem urgente aos impactos contínuos e riscos crescentes da crise climática, pandemias, armas nucleares e da IA não governada.
February 14, 2024
Signatories
1

Offener Brief, der die Staatsoberhäupter und Führungskräfte der Welt auffordert, bei existenziellen Bedrohungen eine langfristig ausgerichtete Führungsrolle zu übernehmen

The Elders, das Future of Life Institute und eine vielfältige Gruppe von Mitunterzeichnenden fordern Entscheidungsträger und Entscheidungsträgerinnen dazu auf, die andauernden Auswirkungen und eskalierenden Risiken von Klimakrise, Pandemien, Atomwaffen und unkontrollierter KI dringend anzugehen.
February 14, 2024
Signatories
1

呼吁世界各国领导人在生存威胁问题上展现长远领导力的公开信

元老会、生命未来研究所和众多共同签署者敦促决策者紧急应对气候危机、流行病、核武器和不受监管的人工智能的持续影响和不断升级的风险。
February 14, 2024
Signatories
1

رسالة مفتوحة تدعو قادة العالم إلى إظهار قيادة بعيدة النظر بشأن التهديدات الوجودية

يحث الشيوخ ومعهد مستقبل الحياة ومجموعة متنوعة من الموقعين المشاركين صناع القرار على معالجة التأثير المستمر والمخاطر المتصاعدة لأزمة المناخ والأوبئة والأسلحة النووية والذكاء الاصطناعي غير الخاضع للحكم بشكل عاجل.
February 14, 2024

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram