この公開状は、7月28日に行われた国際人工知能会議(IJCAI) 2015 会議のオープニングで発表されたものです。

本会議のプレスリリースをご覧になりたいプレス関係者は、Toby Walshまでご連絡ください。

主催、署名検証、リストマネジメントはFLIが後援しております。この公開状に関する運営上のご質問につきましてはMax Tegmarkまでご連絡ください。

自律型兵器:人工知能とロボット工学研究者からの公開質問状

Click here to see this page in other languages : English Russian 

自律型兵器は、人間の介入なしに攻撃対象を選択し、交戦します。こうしたロボット兵器には、例えば事前に定義された基準に合う人々を探し出し殺害することができる、武装したクアッドコプター(回転翼機)などが含まれますが、人間が全ての攻撃対象を決定できる巡行ミサイルやリモートコントロールのドローンなどは含まれません。人口知能 (AI) 技術は、このような兵器システムの配備が、実質的に不法であれば数十年ではなく、あと数年で達成可能となるポイントにたどり着きました。この代償は大きいです: 自律型兵器は、戦争行為における火薬、核兵器に続く第3の革命兵器と評されてきました。

自律型兵器に関してなされてきた多くの議論は、例えば人間の兵士をマシンに代えることは所有者にとって負傷者の削減につながるため良いことですが、それによって戦闘への敷居を低くするという悪い面があります。こんにち、人類における重要な質問は、グローバルな人口知能兵器の軍拡競争を始めるか、もしくはそれを最初から予防するか、というものです。

もし、いくつかの主な軍事大国が人工知能兵器の開発を推し進めたら、グローバルな軍拡競争は避けようがなく、この技術的軌跡の終点は明らかです:人工知能兵器が明日のカラシニコフになるのです。核兵器のように、人工知能兵器はコストがかかったり、材料の入手が困難ではありません。ですから、人口知能兵器はあらゆるところに偏在し、主な軍事大国にとって、その大量生産は安く済むことになります。こうした兵器がブラックマーケットに現れ、テロリスト、民衆をよりコントロールしたいと願う独裁者、民族浄化を犯したいと願う軍隊などの手に渡るのは時間の問題です。自律型兵器は暗殺、国の不安定化、住民の鎮圧、特定民族グループの選択的殺害といったタスクには最適です。ですから、私たちは軍事的な人工知能兵器が人類にとって利益があるとは思いません。人々を殺すための新しいツールをつくることなしに、人口知能が人間の戦いの場をより安全にする方法はたくさんあります。

多くの化学者や生物学者が化学兵器や生物兵器の製造に興味が無いように、大多数の人工知能研究者たちも人口知能兵器をつくることに興味はありません。そして研究者以外の人々が、人口知能兵器をつくることで起こる、世間の潜在的な人口知能に対する大きな反動によって未来の社会の利益を削ぎ、人口知能の研究分野を汚すことを人工知能研究者たちは望んではいません。

実際、多くの物理学者が宇宙核兵器とレーザー兵器の製造禁止協定に協力したと同様に、化学者や生物学者らは、化学兵器と生物兵器を禁止することに成功した国際協定を広範囲に支援してきました。

要約すると、人口知能には人類の利益となる大きな可能性があると私たちは信じており、この分野の目標は、そのようにするべきです。人口知能兵器の軍拡を始めることは悪いアイデアであり、意義ある人間のコントロールを超える攻撃的自律型兵器への禁止令によって予防されるべきです。

現在までに、3,466名の人口知能やロボット工学研究者、その他18,924名によってこの公開状は署名されています。 署名者リストは、 [英語バージョン] をご覧ください。