アシロマの原則
これらの原則は、2017年アシロマ会議 (ビデオはこちら)に関連して、こちらに記載されているプロセスを通じて策定されました。
Click here to see this page in other languages: English Chinese German Korean Russian
世界中の人々が毎日使用する役に立つツールとして、すでに人工知能は利用されています。人工知能の開発が今後以下で示す原則に基づいて行われるならば、それは数十年さらに数世紀にわたる将来において、人々に役立ち豊かな暮らしをもたらしうるでしょう。
研究課題
1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。
2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。
- 将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
- 人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
- 人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
- 人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。
3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。
4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。
5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。
倫理と価値
6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。
7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。
8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。
9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。
10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。
11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。
12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。
13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。
14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。
15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。
16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。
17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。
18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。
長期的な課題
19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。
20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。
21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。
22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。
23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。
謝辞: 本和訳にあたり、山川宏氏をはじめとするNPO法人全脳アーキテクチャ・イニシアティブの皆様、および、福井綾子(株式会社アラヤ)さまにご協力いただいたことに感謝いたします。
今日まで、この原則には1,197名の AI・ロボット工学研究者たちが署名し、その他2,320名が署名しています。(これらの原則がどのように策定されたかについては こちら で、そしてその議論への参加は こちらをご覧ください。) 署名リストは英語版をご覧ください。
How does verification work?
• Declaration URL - This person has made a public declaration of signing the open letter which can be viewed online.