How Do We Align Artificial Intelligence with Human Values? Japanese
Contents
人間の価値と人口知能とをどのように調整するべきか?
Click here to see this page in other languages: English Chinese German Russian
時間的にどれだけかかるか不明な範囲にわたり、社会の各セグメントに大きな変革が訪れようとしています。その変化の一部を演じている人びとには、その変化を最高なものに形作るための大きな責任と機会を有しています。何がこの変化の引き金となるでしょうか? それは人工知能です。
最近、人口知能とそれに関連する分野のトップの何人かが集まって、この変化の過程において人口知能が有益であり続けるにはどうすればよいかを話し合いました。その結果はアシロマの原則 文書にあります。これらの23の原則の意図は、できるだけ多くの人に有益になるよう、人口知能を支援するフレームワークを提供することです。しかし人口知能の専門家としてトビー・ウォルシュは、その原則について「もちろん、これはスタートにすぎません。作業は進行中です。」と述べました。
これらの原則は話し合いの始まりであり、対話は進行中です。わたしたちは、各原則についてボード・ディスカッションでフォローアップをする必要があります。原則は、さまざまな人々にとってさまざまな意味を持ちます。そして社会ができるだけ多くの利益を得るために、各原則について個々に考えなくてはなりません。
この取り組みの一環として、この原則文書に署名した人口知能の研究者たちが、なぜ原則文書に署名し、どのような問題が私たちの前に立ちはだかっているかを知るためにインタビューをしました。
価値の調整
現今、私たちは価値の調整の原則から始めます。
価値の調整: 度に自律的な人口知能システムは、そのオペレーションを通じ、人間の価値に沿うことが目的と行動であるよう確実にデザインにすべきである。
価値の調整というアイデアのパイオニアを支援したスチュアート・ラッセルは、この調整についてギリシャ神話のミダース王の話と比較することを好みます。ミダース王が触ったものすべてを金に変えるよう望んだとき、彼はただ単にお金持ちになりたいだけでした。王は、彼の食べ物と愛すべき人々が金に変わることを望んではいませんでした。人口知能について、私たちは同様の状況に直面しています:誤った試みをするよう設計者が要求したことが、人間を傷つけることなしに、私たちが実際に望むよう、どのようにして人口知能を確実に動作させるのでしょうか?
“バークレー大学でラッセル氏の同僚であるアンカ・ドラガン助教授は、「ロボットは人類に対して反乱を試みません。」、「ロボットは、ただ私たちが言ったことを最適化しようするだけです。そのため、世界のために私たち人間が実際に望むことを最適化するよう、ロボットに伝えることを確実にする必要があります。」と指摘します。
私たちが望むものは何か?
『私たち』が何を望んでいるかを理解することが、人口知能研究者たちが直面している最大の挑戦です。
スタンフォード大学の ステファノ・エルモン助教授は、「問題はもちろん、これらの価値が厳密に何であるかを定義することです。なぜなら人々は地球の違う場所から来た、違う文化と違う社会経済バックグランドを持っているかもしれないからです。人々はこうした価値について全く違う意見を持っていると思います。そしてこれこそが挑戦です。」 と言います。
ルイスビル大学のロマン・ヤンポルスキー助教授は同意します。「人間の価値をプログラミング言語にエンコードするのはとても難しいことです。しかしさらに難題なのは、私たちが人類としての共通の価値について同意していないことです。しかも同意している部分でさえ、時間の経過とともに変化するのです。」とヤンポルスキー助教授は説明します。
いくつかの価値において総意を得るのが難しい一方、多くの価値についてわたしたちは暗に同意します。 ラッセル・ノーツも同様に、どんな人間も社会生活からくる感情や感傷的な価値を理解すること、しかしそれを同じ理解でロボットにプログラミングすることを保証することは難しいと言います。
一方、IBMの研究科学者フランチェスカ・ロッシは希望的です。「私たちすべてが合意したこれらの価値を、人間と一緒に働く人口知能システムにエンベッドすることが実際にできる科学的調査が存在します。」とロッシは言います。
ドラガンの研究は、違う視点から来ています。人々を理解する試みの代わりに、人間と関わることによって、ロボットや人口知能がその目的に柔軟に対応する訓練を目指しています。ドラガン氏は、「バークリー大では、プログラムの目的が完璧に指定されていることを前提とするより、目的について不確実性を持つこと、また人間のインプットを真の根底にある望ましい目的についての貴重な観察として取り扱うことが重要だ。」と述べています。
原則の書き直し?
ほとんどの研究者たちが、原則の価値の調整という基本的考えに同意していても、各人がそれをどのように実行するかはもちろん、どのように言い表すかについては同意していません。
人口知能のパイオニアでモントリオール大学のヨシュア・ベンジオ教授は、(価値の設定や調整の)『保証』という文言は強すぎるかもしれないと示唆します。「完璧に調整することは不可能かもしれません。マシン学習では、得ることのできないであろう多くの先天的なものがあり、それを哲学や内観で得ることは難しいででしょう。このため、私たちが調整を完璧にできるかどうかは全く不明です。言葉遣いは、『私たちは最善を尽くす』という文言に沿ったものでなければなりません。その他の点では、私は完全に同意します。」と彼は解説しています。
現在、ベルリン工科大学客員教授のウォルシュは、『高度な』という言葉の使用に疑問を呈しています。「どんな自律システム、たとえ低い自律システムでさえも人間の価値と整合すべきです。私は『高度』という言葉は使わないでしょう。」とウォルシュは言います。
価値の調整がしばしば将来に起こりうる問題として考慮されるあいだ、ウォルシュは価値の調整は後ではなく、早期に文言化される必要があると信じています。「こんにち、この原則の強制を私たちは恐れなくてはなりません。」とウォルシュは述べます。そして「システムが洗練されるにつれ、より難解になる価値の調整問題の解決の手助けになる。」と語っています。
価値調整の原則を支持するロッシは、現在の人口知能システムにこれらの原則が適用されるべき、ということに同意してます。「あなたがたが書いた原則よりも私(の原則)はより普遍的になるでしょう。なぜならこの原則は、自律的人工知能システムだけではなく、最終的に意思決定する人間が密接に関わる仕事でのシステムにとっても重要で不可欠だからです。人間と機械がともに組んで働くとするなら、それが現実的なチームであることをみなさんは望むでしょう。」とロッシは言います。
ドラガンは、「これ(価値の調整)は、人工知能が何をすべきか理解させる手助けをする第一ステップです。そして目的を途切れることなく洗練させることは、人間と人口知能の間で行われ続けるべきプロセスであるべきです。」と説明しています。
さあ、対話を始めましょう
そしていま、この話を読んでいるみなさまに、この対話を引き継ぎます。人口知能にあなた自身の人生の目的と願望を調整させることは、あなたにとってどのような意味がありますか? あなたと世界とその他の人との目的や願望を同時にどのように整合させますか? ある人間の人口知能の理想バージョンが、あなたの人生をより困難にさせないよう確実にするにはどうすればいいでしょうか? どのように人間の価値に同意し、それを確実に人口知能に理解させることができますか? もしパーソナルな人口知能アシスタントがあなたにいたとすれば、それはどのように行動するようにプログラムされるべきですか? もし人口知能に医療や治安維持、教育などに関与させるとしたら、それはどのようなものであるべきでしょうか? 社会全体として、これら以外に何が問われるべきでしょうか?
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.