ドワンゴ人工知能研究所の所長の山川宏とのインタビュー
Contents
Click here to see this page in other languages : English Russian
山川 宏
工学博士。 ㈱ドワンゴ ドワンゴ人工知能研究所所長、NPO法人全脳アーキテクチャ・イニシアティブ代表、人工知能学会の編集委員長、理事、汎用人工知能研究会の発起人の一人。電気通信大学大学院情報システム学研究科客員教授 、玉川大学脳科学研究所特別研究員、慶應義塾大学SFC研究所上席所員、東京大学医学部客員研究員。産総研人工知能研究センター客員研究員。 専門は人工知能,特に、認知アーキテクチャ、概念獲得、ニューロコンピューティング、意見集約技術など。
1. 山川さんが人工知能の研究をキャリアとして選択したきっかけは何ですか?
1の答え:山川さん
高校生時代に、物理学と心理学に興味があり、悩んだ末に大学では物理学の道を選びました。私が大学4年生だった1980年代は日本では第2次人工知能ブームと言われているころで、私も先輩から人工知能の話を聞かされていました。当時の記号主義的な人工知能では、世界は記号によって記述され、それら記号の操作によって知能を構築しようとしていました。私はそうした記号主義的な人工知能は腑に落ちず、大学院の修士課程では物理を専攻することにしました。
そして、80年代の終わり頃にニューラルネットワークブームがやってきます。今も有名なヒントン氏らが活躍しはじめた時代です。私は人工知能の研究としてはその方向性のほうが良いという直観を持ち、1989年からの博士課程の三年間では、研究をニューラルネットワークにシフトしました。人が自身の価値体系をいかに作るかに興味があったので、そのために強化学習(reinforcement learning)の研究を1990年ぐらいから始めたのです。そして、「強化学習に基づく価値システム」をテーマに博士論文を書きました。実は同じ頃にワトキンス氏がQラーニングを提案していたのですが、インターネットが普及する以前ということもあり、二年ほど後になって初めてそのことを知り「ああ、同じようなことを考えている人がいるものだなあ」と思ったものです。
1992年からは富士通研究所という会社において研究を続け、1994年頃にはオートエンコーダネットワーク(ニューラルネットワークを使用したエンコーダネットワーク)を二段に積み上げる研究などにも着手しましたが、当時はトイモデルしか解けませんでした。その後、創造性を持った知能、つまりクリエイティブインテリジェンスというのが大事だと思い至ったのが、90年代の後半ぐらいです。今で言う、自己再帰的な発展を担う人工知能です。当時はまだ、技術的特異点(シンギュラリティ)という言葉は日本国内では殆ど知られておらず、2000年代後半にようやく「だいぶ以前から、そうしたアイディアを持つ人がいた」と気づきました。
何れにしても、高校時代から心理学に興味があり、ニューラルネットワークブームの時にその可能性を感じて、人工知能の研究を始めたわけです。
2.ドワンゴがこの分野に大型投資をする理由は何ですか?投資回収はいつ頃を予定していますか?
2の答え:山川さん
まず、日本の「将棋」というゲームはご存知でしょうか? 将棋はチェスと似ていますが、相手から奪ったコマを自分のものとして使えるルールがあるため、終盤の展開が複雑となり、2014年頃にようやく人工知能がトッププロを追いついたとされています。
ドワンゴは2010年から、プロの棋士とコンピュータ将棋ソフトウェアが対戦するイベント「電王戦」を長く続けてきました。このイベントを支えたのは川上(かわかみ)という、当時40代前半ぐらいの若い会長です。川上氏は、人工知能が次第にプロ棋士に肉薄し、プロが年々苦しくなってゆく様を見ていました。そうした中で経営者の判断として、社内に人工知能の研究所を作りたいと、ある時点から思っていたそうです。
一方、私が東京大学の松尾豊氏と産業技術総合研究所の一杉裕志氏とともに、脳に学んだ人工知能を目指すために日本国内で開始した活動が「全脳アーキテクチャ」です。2013年12月19日に最初の勉強会を行ったこの活動は、現在ではFacebookグループに4300人ほどが参加する活動になっています。2014年には、ドワンゴの川上会長が全脳アーキテクチャ勉強会に参加し、程なくしてドワンゴ人工知能研究所の設置のオファーを受けました。ドワンゴ人工知能研究所を設立した2014年の10月当時は、その後、人工知能の発展がこれ程までに急速になるとは予測していませんでした。
そうした背景もあり、この研究所はドワンゴの実利を追求するよりも、長期的な投資という位置づけでスタートしました。現在に至るまで、将来において大きな影響を与えると予想される汎用人工知能の開発を小規模なチームで進めています。
現状で実用化されている人工知能はすべて特定の問題領域のみで利用できる特化型人工知能です。これに対して、汎用人工知能は経験に応じて様々な問題を解決できるようになる、より人間に近い人工知能です。どことなく、IPS細胞に似た雰囲気とも言えるかと思います。また、汎用人工知能は「技術的に捉えやすい形で人を超える人工知能を定義したもの」とみることもできます。
実は世界的に見ると、2015年に汎用人工知能を目指すと宣言した組織が倍増しました。主な組織は、GoodAI、DeepMind、OpenAIです。ではなぜこのタイミングで、汎用人工知能を目指す組織が倍増したのでしょうか。この背景には、やはり深層学習の発展があります。
人工知能分野は、伝統的に記号を中心として進展してきました。人間が記述した知識を組み合わせることで能力を発揮する人工知能が主流だったのです。これは人間で言うと“大人の”能力で、言葉に書き表される能力です。そのため、この知能はプログラミング可能であり、計算機の進展と軌を一にして順調に進展しました。一方、子供が発達する中で物を認識できるようになったり物を掴んで動かせるようになったりする能力、つまり“子供の”人工知能は、言葉では説明しづらいものです。このため、プログラミングがしづらく、発展が阻まれていました。これはモラベックのパラドックスとも呼ばれます。
しかし、深層学習の研究が進み、こうした“子供の”人工知能を実現することが大量データからの学習で可能になりました。また、深層学習が獲得した内容を理解することは重要な技術課題となっています。このことは、これまで“子供の”人工知能が説明できないものだったからこそ深層学習の進展を待たなくてはならなかったという経緯を踏まえれば、納得できる面もあります。
付け加えれば、ドワンゴ人工知能研究所は、最近GoodAIが主催している、General AI Challenge (https://www.general-ai-challenge.org/ ) にも協力しました。
以前より、大人の知能についてはAIがしばしば人間以上の能力を発揮していました。最近の深層学習の成功により子供の知能が実現したことで、人工知能を構成する基本的な二つの要素が利用可能になりました。ですから、人間並みの汎用人工知能にアプローチする際の今後の大きな課題は、両者をどうやってつなげていくかという段階に入ったと言えます。今、人工知能分野が汎用人工知能や人レベルの人工知能に向かい始めた理由は、正にそこにあると考えられます。
さて、ドワンゴ人工知能研究所のドワンゴ本体にとっての短期的な役割としては、人工知能に興味を持つ人材を引きつけるためのフラグシップとしての役割や学術界との連携などが期待されています。ドワンゴは日本では有数のネットメディアの会社で、主要事業として視聴者が画面上にコメントを付与できる動画配信サービス「ニコニコ動画」などがあります。事業部においては、コミュニティの活性化を促進するようなツールやサービスなどにおいて最近の機械学習技術が使われています。
現段階では、汎用人工知能(AGI)は技術的な目標であり経済的利益を直接生み出していません。
人のような知能をめざす汎用人工知能は未だ技術的な目標であり、現段階では稼働しておらず経済価値を生み出していません。しかし先に述べたように、すでに開発を宣言している組織も増えており、公言せずに進めている組織も増えてきていると思われます。これは2013年頃には汎用人工知能の開発という話が全く相手にされなかった頃とは大きな違いです。
すでに、深層強化学習と強化学習を組合せた知的エージェントは、いまだ限定的とはいえ多様な問題に対してアプローチできるようになり、次第にプロダクト化に近づいてきています。ここで技術的に大事なのは、複数の機械学習の組合せ方法を規定するアーキテクチャです。深層学習をはじめとする機械学習の発展を背景に、取り扱う情報の枠組みを決定すれば、それに関わるデータから知識を引き出すことはかなり実現できるようになりました。そこで次の段階として、複数の機械学習モジュールがデータから獲得した知識を結合して利用するためのアーキテクチャの重要性が高まっています。
今後は特に、アーキテクチャという観点からの研究開発に十分力を入れることで、次第に汎用性の高い人工知能システムを構築できるようになり、その開発段階に応じて応用が次第にあらわれてくると考えています。
3. ほかの人工知能研究と比較した、全脳アーキテクチャ・アプローチの利点は何でしょうか?
3の答え:山川さん
全脳アーキテクチャは「脳全体のアーキテクチャに学び人のような汎用人工知能を創る(工学)」という研究アプローチです。この定義は、後に述べる全脳アーキテクチャ・イニシアティブ(WBAI)(日本語版: http://wba-initiative.org , 英語版: http://wba-initiative.org/en/ )の創設に関与した研究者間によって、2014〜15年にかけて議論を行うことで確定されました。つまり脳型人工知能であり汎用人工知能です。基本的には人工ニューラルネットワークなどの機械学習をモジュールとし、それらモジュールを脳の結線を参考として統合することで汎用人工知能を作ろうとします。ただし、あくまでも手段として脳を参考にするのであって、脳の理解が目的ではありません。このため、脳の仕組みを必要以上に詳細には再現しようとはせず、できれば可能な限り粗いレベルで開発しようとしています。
以下ではこのアプローチで完成する汎用人工知能の特性についてのメリットと、開発速度についてのメリットを説明しましょう。
特性についてのメリットは2つに分けることができます。1つ目は、人工知能の仕組みを脳に似せることで、人との親和性の高い汎用人工知能を実現しやすいことだと考えています。つまり、人間と同じような価値観とか振る舞いをするような人工知能を作りやすいということです。将来の超知能が、知的能力自体は人間を超えていても、比較的人間のような思考パターンを持つほうがコミュニケーションをとり易く、一緒に生活をしたりしていくのに便利でしょう。一例として、保育を仕事とする人工知能は児童の気持ちを理解する必要があります。 これはFLIなどでも議論されているバリューアライメントに相当するかと思われます。
特性についてのメリットの2つ目は、全脳アーキテクチャの開発を上手くコントロールすれば、完成した汎用人工知能を、人類の公共物としうることだと考えています。つまり、神経科学の発展により、脳はその全体の構造が見えつつあるので、それをソフトウェア開発のプラットフォームとすることで、多くの人が関わる民主的な共同開発が実現できると考えています。人間や齧歯類の脳についてみると、数百個程度の機械学習モジュール間の結合を表す設計図に対応づけられる、メゾスコピックレベルのコネクトームが明らかになりつつあります。よって、その上での共同作業により開発を進めれば、“特定の誰か”というものにはなりにくいでしょう。そして多くの人が参加するオープンな協創を人類のために長期継続的に拡大するために、後述するWBAIという組織が必要となるわけです。
上記の特性に関連して補足しますと、脳は唯一実在する汎用知能であるため、必要に応じて脳に近づけてゆくことである段階で汎用人工知能に到達しうるはずです。よって、多くの人々から合意を得られるような汎用性に繋がり、参加者の増大に繋がるはずです。背景として、これまでにも人為的な認知アーキテクチャから汎用人工知能に向かおうとする多くの試みが存在しましたが、多くの研究者の合意を得ることは難しくなっています。十分な理論的な背景を備えたアーキテクチャがない現状では、実在しかつ理解が進んでいる脳のアーキテクチャを参考にするほうが合意を得やすくなるでしょう。
次に、開発効率についてのメリットについて述べます。全脳アーキテクチャ・アプローチによって作られる汎用人工知能は、人類にとって最初期のものになる可能性が十分にあります。
開発効率に関わるメリットは4つ挙げることができます。1つ目は、特性のメリットの2つ目に起因するもので、多くの人々を巻き込んだ協創により加速するということです。
開発効率に関わるメリットの2つ目は、汎用的な目的を持つシステムを設計することの難しさに起因します。一般的にソフトウェアの設計では、ソフトウェアの機能的な目的を決めて、段階的に分解した部品として、それぞれを実装するというのが常識的な方法となります。しかし汎用知能というは、学習により多様な機能を獲得する仕組みなので、機能を分解して設計してみんなで手分けをして作るという方法ができません。この困難さ故に、既に存在する脳アーキテクチャに基づいて部品を分解して実装し、それをあとで統合するという全脳アーキテクチャ(WBA)・アプローチを採用する意味があります。
開発効率に関わるメリットの3つ目は、上記と関連が深いものです。汎用人工知能を完成させる局面ではシステム全体のアーキテクチャが必要ですが、部品が完全に揃う前にもその設計について脳を参考にして進めることができます。たとえば、世界最初の自動車であるベンツ・パテント・モトールヴァーゲンは、1886年に三輪車をベースとして開発されました。ですから、脳においても機械学習を組み合わせるための枠組みとしてアーキテクチャを先行して設計しておくことが、完成局面での開発加速につながると考えています。
開発効率に関わるメリットの4つ目は、脳器官の機能的な部品が、既に人工ニューラルネットワークとしてある程度は実現されており、その延長線上としての開発のロードマップを作れる点にあります。具体的には、Convolutional Neural Networkによる一般物体認識は、大脳新皮質視覚野の側頭葉経路と対応づけられ、ある面では性能的にも人間を超えたとも云われています。同様に音を認識する経路も深層学習で実現されてきています。人間において特に発達した大脳新皮質には約140億個の細胞があるのですが、そのうちの約半分は深層学習で部分的に説明できています。また、脳中において強化学習に必要な遅延報酬の計算部分は大脳基底核に対応付けられています。さらに、小脳もパーセプトロンとしてのモデル化が進んでいます。そこで今後は、まず各脳器官の機能をより脳に近いものに近づけ、次に全体アーキテクチャではなくても複数の脳器官を組合せて何らかの行動レベルの機能を再現し、その開発プロセスを脳全体に拡大していくという道筋を描いています。仮に今の時点で既に3割ぐらいできているとすれば、今後は1つ1つ問題をクリアしてそれを10割に近づけていくといったイメージになります。
現時点で、全脳アーキテクチャ(WBA)に近いアプローチをとっている研究機関は、英国のディープマインドと米国のサンディア国立研究所ではないかと考えていますが、全脳アーキテクチャ・アプローチを支える神経科学と機械学習の何れもが急速に進展している背景からも、このアプローチをとる研究組織は今後共増えてゆくと考えられます。
4. ドワンゴ(日本語版: http://dwango.co.jp/ , 英語版: http://dwango.co.jp/english/ )の人工知能研究所(日本語版:http://ailab.dwango.co.jp , 英語版: http://ailab.dwango.co.jp/en/ )での勤務のほか、非営利のWhole Brain Architecture Initiativeでの活動もされています。非営利活動と商業的活動との違いは何ですか?
4の答え:山川さん
非営利活動の全脳アーキテクチャ・イニシアティブは全脳アーキテクチャの開発を促進するプラットフォームを提供する組織です。これに対してドワンゴ人工知能研究所はそのプラットフォーム上で全脳アーキテクチャの開発を進める一組織になります。
まずWBAI(全脳アーキテクチャ・イニシアティブ)は、なぜ全脳アーキテクチャの研究開発の「促進」のみを行っているかについてお話しします。先程述べたように、脳アーキテクチャの開発を上手くコントロールすれば、完成した汎用人工知能を、人類の公共物にできると思います。もしも逆にWBAIが全脳アーキテクチャを自分たちの手で作り完成させてしまうと、この本来の目的から離れていってしまうのです。そこで、こちらで示した基本理念に基づきの多くの人を巻込みながら、WBA開発の促進を行っています。
全脳アーキテクチャ・イニシアティブの基本理念
- 私たちのビジョンは、「人類と調和する人工知能のある世界」を実現することです
- 私たちのミッションは、「全脳アーキテクチャのオープンな開発を促進する」ことです
- ヒューマン・フレンドリーな汎用人工知能を全人類の公共財とするために、脳全体に学んだアーキテクチャ上でのオープンな共創を継続的に拡大します
- 私たちは、「 まなぶ、みわたす、つくる」を価値として行動します
- まなぶ: 関連する専門知識を学び、拡める
- みわたす: 広く対話を通じて見識を高める
- つくる: 共に作り上げる
WBAIの具体的な事業は主に、研究促進事業と人材育成事業になります。
研究促進事業の中で行っている開発環境整備としては、ゲーム環境を利用したAIの学習環境(LIS等)の構築、機械学習を統合するためのプラットフォーム(BriCA等)、汎用人工知能を評価するための研究、コネクトームを参照した認知アーキテクチャであるWhole Brain Connectomic Architectureなどによる神経科学への接地があります。また、こうした開発環境の上で活動するオープンなエンジニア・コミュニティを形成し拡大するために、スラック上でSig-WBA (https://sig-wba.slack.com/)というコミュニティを構築し、隔週のオフ会での情報交換やミニハッカソンなどを行っています。
人材育成事業では、WBAI以前から存在する全脳アーキテクチャ勉強会を隔月で開催し、ここでは基本的には、機械学習、神経科学、認知アーキテクチャなどの知見を合流させるために、あるテーマについて異なる分野の研究者をお呼びして講演やパネル討論を頂くという企画を続けています。
一方でドワンゴ人工知能研究所は、「みんなで作って」と言われている組織の中の1つという位置づけですから実際に全脳アーキテクチャアプローチからの汎用人工知能などにつながるような技術開発をしています。とくにWBAIのプラットフォーム上でのオープンな研究が活性化するように、その種となるような研究開発を行っています。
ドワンゴ人工知能研究所で取り組んでいる研究例として直観物理学があります。ここでは生まれた瞬間から子供が発達していく中で物理世界に関する素朴な理解を発達させる過程を人工知能システムとして実現することを目指す研究です。子供が知識を獲得するのと同じようにこれらが作られなければ、AIは人間と同じように成長しません。こうした研究はMITのJosh Tenenbaumの研究グループによってはじめられました。全脳アーキテクチャ・アプローチにおいても、子供の知能から段階的に発達させることで汎用性を獲得させようとしているのです。
こうした研究のプレリミナリーな研究成果は、日本国内では人工知能学会の研究会支部の1つとである汎用人工知能研究会などで発表されています。
5. ドワンゴの人工知能研究所のウェブサイトでは、イースター島を例として用い、文明発展による人類存亡のリスクについて説明しています。この件はFLIにとっても重要な事柄です。私たちはさまざまな分野(人工知能・バイオテック・核兵器・気候変動など)にも注力しています。21世紀の社会にとって最大のリスクを引き起こす要因は何だと思いますか?
5の答え:山川さん
以前から気になっていたのですが、Existential Riskというのは人類存続の危機と言う理解でよろしいですよね? Existential Riskをストレートに実存的リスクと和訳すると、日本人からは異なったニュアンスと捉えられて伝わりにくいかもしれません。
人工知能に限らず、基本的に科学技術は、人間の能力をいろんな意味でエンパワーメントしていく、拡大していくものです。人間の能力を拡大させていくと何が起こるか考えると、昔はネットでも繋がっていなければ飛行機での移動もできない相対的に広い空間の中で、弱い技術というか弱い攻撃力しか持っていませんでした。
言ってみれば、広大なフィールドにおいて人間が精々竹槍程度の武器しか持っていない状況では、人間自身によって人間を絶滅させるリスクは極めて小さかった訳です。これに対して技術が発展した現在は、狭い部屋の中で全員が爆弾を持っていて、誰が爆弾に点火しても全滅する状態に近づいています。ただし、その部屋の中に10人しかいなければ、相互に監視して、お互いに信用しようということになるでしょう。しかし、100億人が全員爆弾を持っていて誰がスイッチを押しても全滅する状態で、100億人全員を信用することは、人間の認知能力を超えているでしょう。
もちろん技術発展は攻撃力だけでなく防御力も進歩させますが、あらゆる時点において、攻撃力を封じ込めるような防御力を存在させうることは簡単ではありません。人工知能技術を用いて科学技術開発が促進されれば、例えば多くの国が簡単に大陸間弾道弾を保有することになるでしょうし、人工知能がナノテクノロジーを駆使して生体に対して極めて危険な物質を開発することで人類を絶滅させるシナリオも原理的にはありえます。
一般的に、技術の進展を利用して新たな攻撃兵器が開発されて、それを追うように防御兵器が開発されます。ですから、人類を絶滅させる攻撃力が防御力を上回る期間が存在することは避けられません。これは真剣に検討されて取り組まれるべき点であると考えます。
人類を絶滅させる攻撃力が存在する期間が現れるならば、先の「狭くなった部屋」のたとえのように、人類を絶滅させる攻撃力を持つ意思決定主体の数が増えるほど存在論的リスクが増大します。この際、高度な人工知能が意思決定主体になれば、リスクはさらに増加すると考えられます。結局のところ、人類絶滅能力を持つ意思決定主体の増加ということが一番大きな問題だと思います。もともと空間的な広がりこそが最大の防御力であったのですが、技術進展によって空間が実質上狭くなっていることが問題です。この問題が、ホーキンス氏が「宇宙に進出するまでの100年が危ない」と述べている点と対応しています。これに対して、人為的でない、気候変動、環境変化、パンデミック等のリスクのすべてについて、私は理解しきれていません。しかしこうしたリスクについては、人工知能の進歩が優位に働き、人工知能を利用して制御に成功する可能性があります。
何れにしても、今後において人工知能が急速に進歩するシナリオを想定するならば、他のリスクは比較的制御しやすくなるのに比べて、人類絶滅能力を持つ意思決定主体の増加による絶滅リスクはかなりクリティカルです。しかし残念ながら私も良い方策にたどり着いていません。
6. 汎用人工知能(AGI)が社会にもたらす最大の便益は何だと思いますか?
6の答え:山川さん
汎用人工知能のもたらす最大の便益は、科学技術の発展を加速し、それによって得られる波及効果ででしょう。環境に対するコントロール、食料問題、宇宙進出を加速することなどです。先に述べたように、自分たちがもつ攻撃力の範囲よりも人類の生存領域が大幅に広ければ、Existential Riskを大きく抑制できる可能性があります。 そのため、私の思いとしては、できれば人工知能の利用は宇宙進出に重点を置くべきと考えています。
ここではひとつ、私が以前に考えた未来像について紹介しましょう。
EcSIA: AIと共存する望ましい未来社会像
私が思う,望ましい未来像とは 「万人の幸福」と 「人類の存続」の間のトレードオフの緩和をAIがおこなうことで、その両立を目指すものである.こうした未来社会では共有財産としての多様な人工知能と,時に拡張された人類によって生態系が形成される.私はこれをEcSIA (Ecosystem of Shared Intelligent Agents )と呼ぶことにした.
EcSIAは大自然の如く複雑広大で,人類はそれを完全には理解し把握できないまでも緩やかに制御する.そしてEcSIA が生み出す恵みや富は万人に分配される.
(山川, 2015年7月)
7. AGIがもたらす最大のリスクは何だと思いますか?
7の答え:山川さん
最大と言うことになれば、先ほどお話しましたように、人類絶滅能力をもつ意思決定主体の増大がもたらすExistential Riskかと思います。
8. 私たちの進歩を侵害する世界規模の惨事はないと仮定して、次の10年・2040年ごろ・2100年ごろのhuman-level AGI(人間の知能レベルの実現を目指す汎用人工知能)完成の可能性はどの程度であると思いますか?
8の答え:山川さん
全脳アーキテクチャイニシアティブ(WBAI)では2030年頃を公式目標としています。カーツワイル氏が「2029年に人間レベルができる」言っていることはよく知られているかと思いますが、大体それと同じぐらいで考えています。我々はAGI開発を促進する集団なので、平均的な見解より遠目の「100年後にできます」と言うことはありません。
FHIのニック・ボストローム氏らが2011年から12年ぐらいにとったアンケートに私も答えましたが、その際には私個人としては2023年と書いたはずです。個人的には早い可能性も考えていますが、WBAI関係者の意見の平均的なところで、2030年ぐらいかなと思います。
こういう点では、FLIによるAsilomar会議でも意見の一致は得られなかったのかと思います。一般的にマスメディアは煽ったりその反対をしたりする傾向を持ちますので、人工知能の技術者が、意見の一致をみなくても技術的な観点から見解を世間に発信していくことの意義は高いと思っています。
私は現在、日本の人工知能学会の編集委員長ですので、上記のような意識の上で、本年の7月号から連載するレクチャーシリーズにおいて、「シンギュラリティと人工知能」というテーマで、毎号、人工知能の専門家に技術的な観点から見てシンギュラリティについて語ってもらう企画を進めています。こうして技術的に冷静な意見を、まずは日本国内において広めていきたいと思っています。
9. 人間の知能レベルに達したAGIが実現した場合、それ自身が開発を行い人間の知能を超えた知能を作るのにどのくらい時間がかかると思いますか?
9の答え:山川さん
先に話に出したコンピュータ将棋の歴史を振り返ると、多くの場合に1人もしくは数名のプログラマが、地道に改良することで発展してきました。その場合でも、人工知能が一旦人間のトップに追いつけば、そのあと抜き去るのに要する時間は数年程度だったかと思います。
AIの汎用性がある種の経済価値をもつレベルに到達した瞬間に、そこに対する投資が急速に増大するでしょう。そうなれば汎用人工知能の能力は、ゲームAIの場合とは比較にならない速さで人間レベルを超えるかも知れません。さらに人間レベルの汎用人工知能に到達すれば、それは人工知能研究者の役割を担えます。ですから汎用人工知能が作られた直後に多数の汎用人工知能を人工知能研究者として高速に育成し、それらが24時間休まず研究開発を行うことで、人工知能の研究開発は大幅に加速するでしょう。
ところで、カーツワイル氏は2029年に人間一人分の知能に到達し、そこから16年かけて、2045年ぐらいに全人類の知能に到達するという予測をしています。私は、上記のような理由からこの後半の16年間は大幅に短縮され、数日から数ヶ月ではないかと予測しています。私から見るとこのカーツワイルの16年間という予測は不自然におもいますが、むしろその点についての疑問をあまり見かけないことに不思議さを感じています。ただし、この期間において存在しうる技術的なボトルネックとしては、汎用人工知能を動かすための電力が膨大すぎて同時に多数を稼働できないという場合はあり得るかもしれません。
10. 悪い設計か操作の結果として、人工知能が悪い(もしくは極めて悪い)結果を引き起こす可能性はどの程度だと思いますか?
10 の答え:山川さん
些細な負の影響を考慮すれば100パーセント何かしらあります。例えば誰かがビジネスで損をしたなども入れるなら必ず出てきてしまいます。リスクは基本的にインパクトと同時に頻度や確率を考慮しなければなりません。Existential Riskはもちろん非常に大きなインパクトで避けなければいけません。そのインパクトに近いものとして、国家同士での戦争や悪用による負の影響が一番大きいと思います。
より直近の課題として、生産性を持ちうる職業技能の高度化があります。人工知能で実現できる技能や能力が高まると、それを使いこなせる高度な能力をもつ人材の生産性が格段に増加する反面、それができない人材の生産性の価値が激減します。つまり儲かる人と儲からない人の格差が拡大します。こうした格差は、個人レベルでも組織レベルでも拡大します。そうすると、経済的に不遇なところから不満が生まれ、そこが戦争や紛争の温床にもなりえます。これは資本主義のもたらす弊害とも捉えうるわけです。いずれにしても、こうした不安定要因をなるべく縮小していくというところが大事でしょう。
考え得る対策の一つは、ベーシックインカム等の制度の導入です。例えば日本ならば全ての個人に毎月7〜8万円を配るなどです。もちろん日本だけで済む話ではないのですが、なんらかの方法で経済的なバランスをとっていく必要があるでしょう。資本主義がすぐに変わらない以上、当面は重要なことになりますし、何らかの制度でリスクを抑えていく必要があると思います。
そして、極めて悪い結果の確率、Existential Riskの確率などはどうやって計算すべきか以前考えていた時があります。人類絶滅能力を持っている意志決定主体の数が計算できると、それによって人類が何年生きられるか半減期が計算できるわけです。例えば人類が100万人いたとして、何パーセントの人がそのスイッチを推したいと思うかです。単純な計算は当然できるのですが、そういうのも抑制する因子とか、ボタンを押そうとしても止めようとするものとかを沢山作っていくことになると思うので、それも含めるとその方向では確率を計算するのは難しいかもしれません。一応できるけれど、それでいいのかどうかわからないといったところです。
11. 人工知能の安全性について研究したり、人工知能と人的価値の標準を同じくしたりすることは時期尚早だと思いますか? 人工知能の構成を知らなければ、それを安全な仕組みに設計をすることは難しいとされています。人工知能の安全性について有効だと思いますか?
11 の答え:山川さん
全く時期尚早とは思いません、急いで進めるべきだと思います。以前より技術発展が加速度的状況にあることはカーツワイル氏らも言う通りです。人間の直観は基本的には線形的なので、指数関数的変化の真只中においては必ずしも正解に近くない可能性があります。またこの様な大きな不安を抱える状況においては、人間には心理学で言う「正常値バイアス」というのが働きます。これは「今まで大丈夫だったからきっと大丈夫だろう」と思ってしまうもので、普通は正しくて有効なのですが、今回の場合には正常値バイアスがあるということを差し引いて考えておくべきでしょう。
できれば、汎用人工知能がもたらすExistential Riskを計算する何らかの方法があると良いのかと思います。一つは、宇宙物理学におけるフェルミのパラドックスを手がかりにする方法です。これは私達人類がエイリアンにまだ出会っていない事実と、惑星上で生命が誕生しそれが知的に進化する確率から計算すると、知的生命体が技術発展の末に絶滅する確率を計算することもできるというものです。ただ、この方法ですと単に悲観的な結果が得られるだけで、私達が何をすべきかの指針は得られません。先に述べたような、人類絶滅能力を持つ意思決定主体の増加の面から考えたほうが良いかもしれません。
12. 人工知能の研究団体が更なる認識・注力をすることが重要だと思われるものはありますか? またそれが社会に与える影響は何ですか? 同様に、AGIがもたらす変化に社会がどのように備えるべきか、指導者や政策立案者に伝えたいことは何ですか?
12 の答え:山川さん
基本的に様々なアクションをとることが当然ながら必要です。そうした考えから、たとえば(社)人工知能学会では、2014年5月頃に倫理委員会(http://ai-elsi.org/ )を設置し、本年2月末に人工知能研究者のための「人工知能学会 倫理指針」(http://ai-elsi.org/archives/471 , http://ai-elsi.org/archives/514 )を打ち出しました。倫理委員長は松尾豊(まつお ゆたか)氏という東大の准教授の方で、Asilomar会議にも参加し、WBAIの副代表でもあります。この倫理指針における多くの条文は、様々な科学技術分野の研究者と同様に人類社会に貢献する研究開発を進める立場を表明しています。しかし最後の9条において、将来的には作り出す人工知能自身も同様に倫理的に人工知能を開発すべきことを求める「人工知能への倫理遵守の要請」を含めた点に特徴があります。
日本政府においては2015年頃から、経済産業省、文部科学省、総務省の三省がそれぞれに人工知能研究開発の拠点を構築しました。そうした開発の動きに続く形で2016年くらいから社会インパクトに対する検討が行われる割合が非常に増えてきています。伝統的に日本は海外の動きを吸収しながら新たな形を模索することが多く、いま正に、諸外国の動きを見て参考にしていきながら、自分たちとして何ができるのだろうかと考え始めようというフェーズにきています。
一例として、本年の3月14〜15日には私たちの研究所の近くにある東京大学において、人類はいかにして人工知能を使いこなしうるのかを問う「AIネットワーク社会推進フォーラム」(国際シンポジウム)が総務省主催により二日間にわたり開催されました。満席の200 人ぐらいの入場でした。(http://www.soumu.go.jp/menu_news/s-news/01iicp01_02000056.html) 。 このフォーラムではAI開発ガイドラインの策定に向けた国際的な議論の推進などを目的としており、海外からはG7やOECDなど関係者の他にも、Partnership on AIからはグレッグ・コラード氏、前・ホワイトハウス科学技術政策局からはエドワード・フェルテン氏、Future of Life Instituteからはヤーン・タリン氏、欧州議会法務委員会からはロバート・ブレイ氏らが来日して講演を繰り広げました。
私も2日目最後において推進会議開発原則分科会技術顧問である堀浩一教授が主宰した「人工知能のリスクについて」の講演のパネルにて登壇しました。パネル内の議論の一例として、部下でも人工知能でも自律性(オートノミー)が高いほど有用ではあるけれども、意に反した行動を起こすリスクも高まるので、自律性の発揮しうる範囲のコントロールというのは大事なポイントであるというような意見が出されていました。また私からは、クラウド上でネットワーク化した人工知能に対しては、キルスイッチのようなものとして、ネットワークの通信能力を全体的に落とすことで一時的に人工知能の能力を低下させるアイディアなどを提案させて頂きました。
上記のような国の動きの他にもより草の根からの活動も活性化しています。まず学術的な活動としては、(社)人工知能学会における汎用人工知能研究会(http://www.sig-agi.org/sig-agi )では技術的な研究発表の他に社会への影響に関わる議論なども行われています。またやはりWBAIの副代表である高橋恒一(たかはし こういち)氏らが率いるAI社会論研究会(http://aisocietymeeting.wixsite.com/ethics-of-ai )やAIR: Acceptable Intelligence with Responsibility(http://sig-air.org/ )では社会と人工知能のあらたな関係性の構築を構築するために、倫理・経済・法律・社会学・哲学などの多面的な面からの議論がすすんでいます。また草の根的な活動としてシンギュラリティサロン(http://singularity.jp/ )では、人を超えた人工知能の影響について一般向けに広く情報提供などを行っています。
こうした様々な動きもあり、また最近では、私達が見るニュースには毎日のように人工知能という言葉が現れるようになったことで、今回の第三次人工知能ブームが広く知られるようになった2014年ころから、世間の人工知能に対する見方も大きく変化しつつあります。
社会の人工知能に対する受け止め方を振り返りますと、2013年ぐらいから一部のメディアで「人工知能が仕事を奪うのですか?」というような質問がなされていましたが、当時はまだ専門家からも「人工知能は仕事を奪うことは殆ど無い」といった保守的な見解が大勢をしめていました。ちょうど「機械との競争」(Race Against The Machine)が邦訳されたころです。しかし2015年ぐらいになると、人工知能が仕事を奪うという前提は受け入れられはじめ、少なくともタブー視されず、オープンに議論が進む雰囲気が醸成されました。そして2016年ぐらいからは、実際に人工知能を作るとなったらどうするのかという話が主題になり、例えば自動運転におけるトロッコ問題などが取り上げられるようになりました。そして2017年の現在において、人工知能の透明性や制御可能性など、人工知能開発に関わる議論への理解が進んできています。
13. 多くの知識人が、日本は自動化を推奨していて、西欧諸国に比べロボットを好意的に受け入ていると言及しています。日本における人工知能に対する見方は西欧諸国と比べて違うと思いますか? その場合、それはどう違いますか? 英語話者のあいだでは、優れた人工知能・技術的特異点・人工知能の安全性について活発に議論されています。日本ではどうでしょうか?
13 の答え:山川さん
倫理を含む人間性の点から見れば、私達が同じ人間である以上、洋の東西を問わず、総じて共通点のほうが多いことを前提とすべきでしょう
日本の文化的背景を人工知能観点からみると、いわゆる八百万神(やおよろずのかみ)という森羅万象に精霊や神が宿るという信仰は大きな影響も持つと思われます。つまり生き物と人間の間の境界が比較的曖昧ですし、その延長線上で人工知能やロボットとの境界も曖昧になっています。ですから、昔から、『鉄腕アトム』や『ドラえもん』などのアニメにおいてロボットと共に生きる世界観は一般大衆に受け入れられています。ちなみに東京には世界の様々な料理のレストランがありますし、そうした意味でも多様性を受け入れる文化なのかもしれません。
実は多様性を許容することは、Existential Riskを減らす有効な手段となりえると考えます。明らかに現在は科学技術が指数関数的に進展し、それに伴い変化が加速しているわけです。そして変化を乗り越える力の源泉は多様性です。先程EcSIAを紹介した際に触れましたが、これからは、人工知能と人間だけでなく様々な形で人間と人工知能が融合した形も現れてくると思うのですが、こうして多様性を拡大しておくことは、生き残る確率を高めるでしょう。ただし多様性は生存確率を高める一方で大きな犠牲が伴います。つまりどの選択肢が生き残るのかは、予めわからないし、だからこそ多様性の意味があるわけです。できれば、こうした犠牲を伴う多様な選択肢へのチャレンジを、うまく人工知能が先回りしてくれて試してもらえるならば、私たちの痛みを減らしつつ人類を生存させ続けることも可能になるかもしれません。
存在すべきものの多様性に関わる議論をさらに極端に推し進めると、「私たち人類は未来の宇宙にむけて何を残すべきか」という問に辿り着きます。極めて個人的な見解とはなりますが、私としては「存続する知能」こそが、未来に残すべき何かだと思います。私達が進化の荒波を超えて、今こうした知能社会を作り上げたことは非常な幸運です。そうであれば、知能それ自体に保存する価値があると考えることもありえます。もし私達が、地球外の知的生命体と接触し、その後において共存する時代を迎えたなら、私たち人類はそうした生命体の存続についても配慮することになるでしょう。そうなれば、将来において私たちにとって重要な価値は、人類自身の存続から知性の生存に拡張される可能性が高いでしょう。
一旦、人類の使命として「存続する知能を宇宙に広める」と仮定してしまえば、Existential Riskを回避しうる選択肢は大幅に広がります。宇宙に進出して知能を受け継ぐものの候補は人類以外の、人工知能、遺伝子改変された動物、知能の種となる細菌やウィルスなどが考えられるかもしれません。一例として、宇宙でも冬眠して行き続けられるクマムシに、好環境で一万年ほど進化すれば人間レベルの知能を生み出せるような遺伝子を組み込み、宇宙に拡散したとします。すると多くの惑星上で、1万年に1回シンギュラリティが起こります。文明がシンギュラリティを超えられる確率がかなり低くても、それ以上に多くの星でシンギュラリティが起これば、やがて何れかの星では成功するかもしれません。私達が宇宙初でこうした事業に成功すれば、私達人類の功績は宇宙の寿命に近い時間スケールで歴史に刻まれることになるでしょう。ただこの際には、私達人類の業績を伝える何らかの記録を残すことを忘れてはいけませんね。
直接的な意味では人類を置き去りにしてしまいましたが、人類ももちろん、生身の人類だけでなく、クマムシのように宇宙で冬眠できる人類や、人工知能にアップロードされた人類など、選択肢の幅を広げるほどに、生存確率は増大するはずです。何れにしても今後さらに、技術的な選択肢は増え続けますが、何を存続させたいのかという価値判断こそがExistential Riskを制御する大きな要因になりえます。一方で人を超える人工知能の出現は、「知性の高さを理由として特権的な存在意義を人類に与える」という主張を破壊するという形からも私達の価値観に大きな影響を与えます。この状況は逆に、本当に次世代に伝えるべきものは何であるかを私達が自問するチャンスが与えられていると見ることもできます。リチャード・ドーキンスは、「生物は遺伝子の乗り物」と考えましたが、同様に「脳は知性の乗り物」に過ぎないのかもしれません。多様性を受け入れる日本人の文化的特性は、こういった選択肢ですら受け入れうる素地があるのではないかと考えています。
14. 日本はかつてCD・VHS・DVD・新幹線・LCD・デジタルカメラなどの最先端技術と同義でしたが、中国や韓国などの経済の急成長に伴い、日本経済は停滞し、世界経済に占める割合は小さくなりました。しかし、日本には世界でも最高レベルの研究者やエンジニアがいます。日本が再度技術革新をけん引する原動力となるためには何ができると思いますか?
14 の答え:山川さん
WBAIでは、人類と調和する人工知能の開発をめざしています。しかしながら、人情として、ある国に属する人は、人類全体よりもその国の人々を大事と考え勝ちです。これは、人類が知的クマムシよりも人類が大事と考える傾向があるのと同様でしょう。
当然ながら企業や政府関係者などを含め多くの日本人は、この変化の中でどう人工知能技術を発展させてそれを活用するかという事に心を砕いています。日本にとって決め手となるような戦略は簡単には思いつかないですがいくつか思うところを述べてみましょう。
最初に、少なくとも不利にならない点をのべておきましょう。実は近年の機械学習、深層学習は、ほぼほぼ数学ですので基本的には言語の壁がありません。深層学習が世界をセンサ情報を通じて認識するために英語を用いる必要はないのです。しかも最近は論文を読むときに機械翻訳をつかうと殆ど読めてしまいます。実は2000年台の日本は圧倒的に不利でした。残念な例として、日本ではソーシャルネットワークといえば日本発のMixi(ミクシィ)という時代がありましたが、世界との競争で負けた結果、今やみながFacebookを使っています。今回の機械学習を中心とした人工知能の研究開発では、伝統的に数学や理論物理学に強みがある日本の研究者や技術者にとっては力を発揮しうる場面でしょう。
関連してよく言われていることですが、日本はネット上のITよりも、技巧性が活かせるモノづくり的に強みがありました。人工知能がモノを操作できるようになった今、日本の技術者の技能を効率的に人工知能に転移することで強みを築きうると考えています。これはドイツのインダストリー4.0と近いアプローチです。その特殊な例として「食×AI」を提唱しているのが先程の松尾豊氏です。何故なら日本は世界中から多様な料理を輸入してさらに美味しく発展させており、特に首都の東京などは、この点で抜きん出ています。これを支える農業などにも人工知能が導入される中で、こうした日本人の感性を活かせる領域は期待が持てます。
次に、やや逆説的ですが、日本はある意味での課題先進国と言われています。特にいずれ世界のどの国でも起こりうる高齢化問題が世界で最初にやってきます。ロボットによる介護などの人に寄り添う技術、パーソナライズされ予防医療、健康管理のためのウェアラブルデバイス等の市場が拡大し研究開発が進むでしょう。並行して労働者不足が生ずるためにロボットを受け入れやすい状況も加速します。これを起点に人工知能の関連技術を蓄積しうると思います。
最後になりますが、今後の世界においては、汎用性と自律性を備えたスーパーヒューマンインテリジェンスに向かって人工知能の開発が進むに連れて、人類がそれらを制御するための国際的な体制が構築されることになるでしょう。もちろん個別に人工知能開発が行われてはいても、その開発ガイドラインや開発や運用基準が具体化され、その挙動をモニタするための人工知能も多く存在することになるでしょう。そして国や企業などを含む国連のような国際組織が、こうした人工知能の全体を管理する展開が予測されます。こうした流れの中で、日本は人工知能管理の常任理事国になって行けるように、技術力と倫理観を同時に高めることで、世界から見て日本は信用できる国だと思われることが重要ではないかと考えています。
もしかすると汎用人工知能は、ある天才が一夜にして完成してしまうかも知れません、そういった時に最初に相談したい国が日本であってほしいとおもいます。そして全脳アーキテクチャ・イニシアティブ(WBAI)は、そうした動きを支える組織でありたいと思っています。
<<<<おわり>>>>
This interview transcript was prepared by Mamiko Matsumoto and Kazue Evans.
インタビューの日:2017年04月05日(水)
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.