Team Japanese

フューチャー オブ ライフ インスティテュート(FLI)

Click here to see this page in other languages:  English US_Flag Chinese   Russian 

ミッション: 新しい技術と挑戦を考察し、人類のための建設的な道へのかじ取りを含め、生命保護のためのイニシアティブと研究をサポートし、促進させ、未来への楽観的ビジョンを啓発する。

SAB_short

こんにち私たちは、石器時代と比べてすべての面で良くなったと感謝できる技術を持っています。そして科学技術は、その進化の速度を上げ続けていくでしょう。

当団体は、未来の最も強力なテクノロジーが、人類にとって有益であるよう働きかける慈善事業と奉仕活動をする組織です。より小さなパワーである重火器のような技術から間違いを学習し、私たち人類はそのリスクを大幅に最小化することを学びました。よりパワフルな核兵器、合成生物学、未来の強力な人工知能などは、間違いから学ぶよりも前もって計画するほうがより良い戦略といえるでしょう。当団体は、こうした問題をまず避けるための研究やその他の努力をサポートします。

現在、当団体では人工知能のメリット(有益)に焦点を当て続けており、このほか核兵器 やバイオテクノロジーのリスク低減の方法を探求しています。FLIはボストンを拠点とし、ボストン付近や世界中からの科学者、学生、慈善家を歓迎します。こちらは、当団体初年度の活動ハイライトについての 動画です。

創立者

ジャン・タリン, Skype共同創始者

SkypeとKazaaの創設エンジニア。 また、実存リスク研究ケンブリッジセンター(CSER)の創設者であり、慈善的にフューチャー・オブ・ヒューマニティー・インスティテュート、グローバル・カタストロフィック・リスク・インスティテュート、マシン・インテリジェンス・リサーチ・インスティテュートなど、その他の実存リスク研究組織を支援している。エストニア大統領学術顧問。

マックス・テグマーク, マサチューセッツ工科大(MIT)教授

型破りのアイデアと冒険への情熱、精密宇宙論から現実の究極的本質までの幅広い科学的興味から「マッド・マックス」として知られ、その興味のすべてが探求された人気新著に『Our Mathematical Universe』がある。MIT物理学教授として、200ページ以上のテクニカルな論文を執筆し、十数個の科学ドキュメントを特集。スローン・デジタル・スカイサーベイ(SDSS)との銀河団に関するコラボレーションは、科学雑誌の「ブレークスルー・オブ・ザ・イヤー2003」の一等を受賞。また、アンソニー・アギレーとともにファンデーショナル・クエスチョンズ・インスティテュート(FQXi)の創立者でもある。

tegmark

ヴィクトリヤ・クラコブナ, DeepMind社の科学研究員

Google DeepMind社のAI安全科学研究員。ハーバード大学における博士論文:統計とマシンラーニングは、解釈可能なモデル構築にフォーカスしている。数多くの顕著な業績には、国際数学オリンピックでの銀メダリスト、エリザベス・ローウェル・プットナム賞受賞などがある。

krakovna

アンソニー・アギレー, カリフォルニア大学サンタクルーズ校教授、FLI共同創立者

カリフォルニア大学サンタクルーズ校の情報物理学教授。理論宇宙論、重力、統計力学やその他物理分野の研究を行う。またサイエンス・アウトリーチに強い関心があり、多くの科学ドキュメントに登場する。科学や技術の予測プラットフォームMetaculus.comとファンデーショナル・クエスチョンズ・インスティテュート(FQXi)の創立者でもある。

aguirre

メイア・チタ・テグマーク, ボストン大学博士候補

哲学の教養バックグラウンドとともに、人類の未来とその全体像に対する問いに強い関心がある。ボストン大にてオーティズム研究エクセレンスセンターを指揮。非定型言語の開発、注意の仕組み、学習戦略といった、発達心理学に関する幅広いトピックに関心を寄せている。

chita-tegmark

Alan Alda

アラン・アルダ, 俳優、ライター、ディレクター、科学コミュニケーター

国際的な俳優、ライター、ディレクター。オスカー賞、トニー賞、エミー賞など数々の賞にノミネートされ、著書にベストセラーとなった『all in the same year (2005)』がある。一般の人々に科学の理解を広める活動を続けて20年以上となる。客員教授であるストーニー・ブルック大学でアラン・アルダ科学コミュニーション・センター設立を支援した。11歳の子供に複雑な科学の概念を説明する、毎年行われる科学者の国際的コンテスト、フレイム・チャレンジを創設。2008年よりニューヨークで例年行われ、発足からのべ100万人以上が参加したワールド・サイエンス・フェスティバルに物理学者のブライアン・グリーンとともにプレゼンテーターを務める。このほかサイエンス・アメリカン・フロンティアズ、ヒューマン・スパーク、PBSテレビのブレインズ・オン・トライアルなどで、世界の著名な科学者をインタビューするホストを務めている。

Nick Bostrom

ニック・ボストロム, オックスフォード大学フューチャー・オブ・ヒューマニティ・インスティテュート(FHI) ディレクター

オックスフォード大学の哲学教授、同大マーティン・スクールのフューチャー・オブ・ヒューマニティ・インスティテュートと、プログラム・オン・ザ・インパクツの創立ディレクター。約200の出版物の著者であり、そのなかには『Anthropic Bias』『Global Catastrophic Risks』『Human Enhancement』、スーパーインテリジェンスについての『Paths, Dangers, Strategies』(OUP, 2014)がある。実存リスク、シミュレーション仮説、人類学、AIの安全性、グローバル帰結主義といった分野でのパイオニアとして知られる。人類進化のための継続的追求によりユージーン・R・ギャノン賞を受賞。フォーリン・ポリシー誌よりブローバル・シンカー100人のうちの1人に名前を挙げられる。

Erik Brynjolfsson

エリック・ブリニョルフソン, マサチューセッツ工科大学デジタルビジネスMITセンター・ディレクター

MITスローンスクール経営学教授、デジタルビジネスMITセンター・ディレクター、MITスローン・マネジメント・レビューの教授、インフォーメーション・システム・ネットワークの編集。インターネットなど、インフォメーション・テクノロジーが経営にどのように有効に使えるかということが研究と授業の中心である。著作には『Race Against the Machine: How the Digital Revolution is Accelerating Innovation, Driving Productivity, and Irreversibly Transforming Employment and the Econom』と、『The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies』があり、両書ともアンドリュー・マッカフィーとの共著である。

George Church

ジョージ・チャーチ, ハーバード大学遺伝学教授

ハーバード・メディカルスクールの遺伝学教授、またハーバード大学、マサチューセッツ工科大学(MIT)の健康科学とテクノロジー学の教授。ウォルター・ギルバートとともに最初の遺伝配列方法を開発し、ヒューマン・ゲノム・プロジェクトを支援する。分子多重とタグ(molecular multiplexing and tags)、相同遺伝子組み換え法、DNA配列の合成などの概念を啓発する責任者。2005年にパーソナル・ゲノム・プロジェクトと合成生物学の研究に着手した。ハーバード大とMITにて米エネルギー省科学部バイオエネルギー研究センター所長、同じくハーバード大とMIT、そしてワシントン大学のゲノム科学エクセレンス・ヘルスセンター国立研究所所長。ネイチャーEMBOモレキュラー・システムズ・バイオロジーの上級編集員。

Morgan Freeman

モーガン・フリーマン, 俳優、ディレクター、ナレーター、科学コミュニケーター

俳優、映画ディレクター、ナレーター、科学コミュニケーター。1989年にゴールデン・グローブ賞、2004年にアカデミー賞、2005年にオスカー賞を受賞。2010年より、テレビの科学ドキュメンタリー『Through the Wormhole』のナレーターを務める。

Alan Guth

アラン・グース, マサチューセッツ工科大学物理学教授

宇宙の起源説として最も広く認められた宇宙の膨張論によって、米グルーバー賞と基礎物理学賞を受賞。物質の亜原子粒子の小さい点がどれだけ速く、そして反復してそのサイズを倍増するかを示したことで、ビッグ・バンを起こすメカニズムを提唱し、その予測は実験的に確証されている。研究の中心は、素粒子物理学は宇宙の歴史について何を語れるのか、宇宙論は自然の基本法について何を語るか、といった初期の宇宙の素粒子物理学論の適用。

Stephen Hawking

ステファン・ホーキング, ケンブリッジ大学理論宇宙学センター研究ディレクター

2012年に量子重力理論におけるパイオニア的働きにより基礎物理学賞を受賞。この受賞内容には、ブラック・ホールの蒸発を起こすホーキング放射の予測が含まれる。そしてこの同じプロセスが、なぜ私たちの宇宙が膨張する間に重力波を生み出すかを説明し、これは2014年にBICEP2実験によって確認された。ケンブリッジ大学の理論物理学センターの研究ディレクター、同大の前ルーカス教授。著書に『ホーキング、宇宙を語る』、『A Briefer History of Time』、『ホーキング、未来を語る』などがある。

Christof Koch

クリストフ・コッホ, 脳科学アレン研究所最高科学責任者

意識の神経基盤におけるパイオニア的業績を作り、カリフォルニア工科大学で25年間教授を務める。彼の他分野にまたがる感心は、理論的、計算的、実験的神経科学に統合され、2つの有名な著書『Consciousness: Confessions of a Romantic Reductionist』『The Quest for Consciousness: A Neurobiological Approach』、さらに技術本である『Biophysics of Computation: Information Processing in Single Neurons and Methods in Neuronal Modeling: From Ions to Networks』が出版されている。

Elon Musk

イーロン・マスク, スペースX とテスラモーターズ創立者

スペースX社の最高経営責任者、最高技術責任者。テスラモーターズの共同創立者で最高経営責任者。近年、競争力のある再生可能エネルギーと技術(テスラ、ソーラーシティ)、また手ごろな価格の宇宙飛行と宇宙植民の将来的現実(スペースX)に力を注いでいる。地球規模の問題や地球のリスクにおける技術リーダーの責任について語っており、進化したAIの潜在的リスクに焦点を当てている。

Saul Perlmutter

ソール・パールマッター, カリフォルニア大学バークレー校教授

宇宙の加速膨張を同時に発見した2つのチームのうち一つを率いて、2011年にノーベル物理学賞を受賞。カリフォルニアバークレー校の物理学教授でローレンス・バークリー国立研究室の天体物理学者。研究以外にも、科学教育やアウトリーチ活動に強い関心がある。数々の人気論文を執筆し、天体学や宇宙学のテレビドキュメンタリーに出演している。

Martin Rees

マーティン・リース, ケンブリッジ大学宇宙物理学、天体物理学名誉教授

ラドローのリース男爵、王室天文官、ケンブリッジ大学の宇宙学、宇宙物理学の名誉教授。主に宇宙物理学と宇宙学の500以上の研究論文、8つの著書(そのうち6つはリーダーシップについて)、教養科目や科学について多くの雑誌や新聞の記事を執筆。2005年に貴族院に任命され、元ケンブリッジ大学トリニティ・カレッジ学寮長。王立協会、王立天文学会、英国学術協会メンバー。王立天文学会の金メダル、バルザン賞、ピーター・グルーバー財団宇宙学賞、世界文化カウンシルのアインシュタイン賞、スウェーデン王立アカデミー・クラフォード賞などを受賞。

Francesca Rossi

フランチェスカ・ロッシ, IBM とパドヴァ大学研究員

IBM T.J. ワトソンリサーチセンターの科学研究員。イタリアのパドヴァ大学の教員で、現在はIBM T.J. ワトソンリサーチセンターの科学研究員であるため、大学教員職を休職中。制約推論、選択(嗜好)、マルチエージェント・システム、コンピューターの社会選考を含む、人工知能の研究を行っている。こうした研究やその他、人工知能についての論文を170以上発表した。制約プログラミング(ACP)国際交流協会と人工知能国際共同会議(IJCAI)の会長。現在、人工知能研究ジャーナル(JAIR)副編集長を務め、AAAIとECCAIのフェローでもある。

Stuart Russell

スチュアート・ラッセル, カリフォルニア大学バークレー校人工知能学教授

バークレー校のコンピュータ・サイエンスの教授で、インテリジェンス・システムズセンターのディレクター。人工知能に関する幅広いトピックの論文を100以上発表。テキスト本『Artificial Intelligence: a Modern Approach』や『The Use of Knowledge in Analogy and Induction』、『Do the Right Thing: Studies in Limited Rationality』などの著作で知られる。アメリカ国立科学財団の大統領青年研究者賞(PYI)とComputers and Thought Awardを受賞。コンピューター科学分野の国際学会であるAssociation for Computing Machineryとアメリカ人工知能学会のフェロー。

Frank Wilczek

フランク・ウィルチェック, マサチューセッツ工科大学(MIT)物理学教授

MIT物理学教授で2004年にstrong nuclear force (強い核の力)の研究に対してノーベル賞を受賞。漸近的自由性、量子色力学の開発、アクシオンの創案、量子統計(anyons)の新しいフォームの発見と開発を行った。プリンストン大学を卒業したわずか21才の時に、理論物理学者のデイビッド・グロスとともに陽子と中性子の中でクォークを共に固定する色荷グルーオンの属性を定義した。

コアチーム

アリエル・コーン

FLIのメディアとアウトリーチを担当。科学コミュニケーションの向上を目的とするMag10 Media を創設した。英文学、物理、地球物理学を学び、広告、マーケティング、科学研究といった業界の経歴を持つ。NASA、米エネルギー省国立研究室、マサチューセッツ工科大学、バージニア工科大学などで勤務経験がある。

conn

ジェシカ・クッシンズ

FLIのAI政策責任者。短期・長期のプログラム、ストラテジー、AI政策を開発している。将来、実用化が期待される先端技術の倫理とガバナンス(統治)に情熱を傾けており、ボストンのケンブリッジにあるベルファー科学・国際関係センター、フューチャー・ソサエティにて5年以上働いている。ハーバード・ケネディスクールにて公共政策学修士号を取得。また、カリフォルニア・バークリー校にて人類学学士を最優秀の成績で卒業。ハフィントンポスト、バイポリティカル・タイムス、サイコロジー・トゥデーなどでコラムやブログを連載。ロサンゼルス・タイムスやCNBCなどでも記事を執筆した。

Cusins

タッカー・ダヴェイ

2016年にボストン大学を卒業。政治学を専攻し、哲学、ヒスパニック研究を学ぶ。大学の最終学年の時に実存リスク、効果的利他主義の思想に出会い、ホンジュラスの孤児院で夏季ワークをした後に、この2つの思想の交点に注力した。FLIでは主に、気候変動や人工知能についての研究や執筆をしている。特に関心を持つのが、科学技術と社会、心理学と実存リスクの間の関係性である。

conn

リチャード・マラーケンブリッジ・セマンティックス社のアドバンス・アナリティクス・ディレクター

知識統合プラットフォーム企業で、製薬の発見から詐欺の検出等のアプリケーションを出しているケンブリッジ・セマンティックス社で、人工知能とテキスト解析の研究を指揮している。Web マーケティング促進企業のMarketMuse社の役員をしており、このほか他のスタートアップ企業や非営利団体で人工知能、ナレッジマネジメント、持続可能性についてのアドバイザーをしている。人工知能アルゴリズム開発、プロダクト・チームマネジメント、金融や医療、技術企業におけるCTO(最高技術責任者)職などにおいて、十数年の経歴がある。コロンビア大学にてコンピュータ・サイエンスと人工知能の学位を取得。自然哲学にも精通している。

mallah

ルーカス・ペリー

知覚生命の進化における、科学と技術の役割について情熱を注いでいる。ネパールの寺院にて学び、そこで瞑想リトリートと修行に従事する。人間の感覚の浸食、引用の主観-客観的フレームなどに取り組んでいる。メレオロジー的虚無主義と人間自身の幻想が、急進的ポストヒューマン(人間進化)帰結主義者の倫理形成にどのように寄与するかを探求するプロジェクトに取り組んでいる。生物保護主義とトランスヒューマニズムの間の対立を解くことにも取り組んでいる。

perry

デイビッド・スタンリー,ボストン大学研究員

ボストン大学の計算論的神経科学を専門とする博士研究員。ディープ・ニューラル・ネットワーク、ニューラル・ネットワーク・ダイナミクス、神経性障害についての研究を発表した。人工知能と神経科学の交点について、長期にわたって関心がある。次世代のデータ解析技術の脳機能理解への適用と、関連する神経学の技術が倫理的に使用されることを目指している。

stanley

上位寄付者

Elon Musk

イーロン・マスク, スペースX とテスラモーターズ創立者

スペースX社の最高経営責任者、最高技術責任者。テスラモーターズの共同創立者で最高経営責任者。近年、競争力のある再生可能エネルギーと技術(テスラ、ソーラーシティ)、また手ごろな価格の宇宙飛行と宇宙植民の将来的現実(スペースX)に力を注いでいる。地球規模の問題や地球のリスクにおける技術リーダーの責任について語っており、進化したAIの潜在的リスクに焦点を当てている。

tallinn

ジャン・タリン, Skype共同創始者

SkypeとKazaaの創設エンジニア。 また、実存リスク研究ケンブリッジセンター(CSER)の創設者であり、慈善的にフューチャー・オブ・ヒューマニティー・インスティテュート、グローバル・カタストロフィック・リスク・インスティテュート、マシン・インテリジェンス・リサーチ・インスティテュートなど、その他の実存リスク研究組織を支援している。エストニア大統領学術顧問。

wage

マット・ウェイジ

プリンストン大学在学時に哲学の卒業論文で表彰される。現在、金融取引企業に勤務し、その収入のおよそ半分を慈善事業に寄付している。

stiennon

ニサン・スティーンノン

スタンフォード大学で数学の博士号を取得し、現在はGoogle 社でソフトウエア・エンジニアとして勤務している。Applied Rationality and Cognitionにて、影響力のあるアプリケーションについて、技術的に才能のある青年のための数学キャンプ夏季プログラムで教えている。

harris

サム・ハリス, プロジェクト・リーズン

『The End of Faith』『Letter to a Christian Nation』『The Moral Landscape』『Free Will』『Lying, and Waking Up』といった著書のベストセラー作家。『The End of Faith』は、2005 PEN 賞のノンフィクション部門を受賞。神経科学、倫理学、宗教、スピリチュアル、暴力、人間の論理的思考など、手掛ける著書や一般公開講座の題材は幅広い。通常注目しているものに、「自己と世界の認識拡大が、どのように生きるべきかという人間の意識を変えるのか」がある。

trefethen

ジェイコブ・トレフェセン, ハーバード大学

ハーバード大学の経済学部系列のヘンリー・フェロー。それ以前には、ケンブリッジ大学で哲学を専攻し、2014年に卒業。倫理的キャリアと利他的精神の人々がどのようなキャリアを選ぶべきかをコーチするケンブリッジの組織、80,000 Hoursを創設した。研究の関心は、倫理学と経済学の交点にある。

AI Open Letter Japanese

公開質問状

堅牢かつ有益な人工知能のための研究優先事項

Click here to see this page in other languages: English US_Flag Chinese  German Russian  

人工知能(AI)研究は、その端緒からさまざまな問題やアプローチを探求してきました。過去20年ほどにわたり、こうした研究の主眼は、一定の環境において知覚し、行動するシステムである知的エージェントの構築を巡る問題に置かれてきました。

この文脈における知能の基準とは、統計的および経済的な合理性の概念に関するものです(わかりやすく言えば、よい決定や計画、または推論を行なう能力のこと)。確率的表現と統計的学習方法の採用によりAI、機械学習、統計学、制御理論、脳神経学およびその他の分野の大幅な融合や相互交流が生まれました。データや処理能力を共通の理論的枠組みで取り扱えるようになったことで音声認識、画像分類、自動運転車、機械翻訳、脚式移動や質問応答システムなどのさまざまな構成要素となるタスクにおいて、目覚ましい成功が成し遂げられてきました。

こうした分野や他の領域での能力が、研究室内での研究からビジネス応用が可能なレベルになるに従って、パフォーマンスのわずかな改善が顕著な経済的価値をもたらすようになるため、研究への投資が拡大するという好循環が定着しました。現在、AI研究が着実に進歩を遂げており、その社会に対する影響は拡大傾向にあるというコンセンサスが広く存在しています。文明のあらゆる果実が人間の知能の産物であることを考えれば、潜在的な利益は莫大なものになるでしょう。AIのもたらすツールが人間の知能を拡大したときに、わたしたちが何を成し遂げうるか予測は不可能ですが、疾病や貧困の根絶は実現不可能ではありません。AIのもつ大きな可能性を鑑みれば、潜在的な不利益を避けつつ、その恩恵をいかに享受するかについて検討することは有益でしょう。

AI研究の進歩により、AIの能力向上のみならず、AIの社会的利益をも最大化するための研究へ注力すべき好機がもたらされました。こうした考察が、「AAAI 2008–09長期的なAIの将来に関する大統領パネル (Presidential Panel on Long-Term AI Futures, Horvitz and Selman 2009) 並びにAIの将来的な影響に関するその他のプロジェクト及びコミュニティとしての取り組み」に対する動機となりました。

わたしたちは、ますます有能なAIシステムの確保を目指した研究が、堅牢で有益であることを推奨します。わたしたちがAIに望むことをAIシステムはせねばなりません。添付の研究優先事項ドキュメント は、AIの社会的利益の最大化を促進する、そのような研究の方向性の多くの例を示しています。この研究は必然的に学際的です。なぜなら、社会とAIが関わるからですその対象には経済学、法学および哲学からコンピューターセキュリティ、形式的方法、そしてAIそのものの様々な支流までが含まれています。

堅牢で有益なAIシステムを構築する研究は、重要で時宜にかなっており、存在する具体的な研究の方向性を追求することができるとわたしたちは信じています。

現在までに、8,000名の人によってこの公開状は署名されています。 署名者リストは、 [英語バージョン] をご覧ください。

Open Letter on Autonomous Weapons Japanese

この公開状は、7月28日に行われた国際人工知能会議(IJCAI) 2015 会議のオープニングで発表されたものです。

本会議のプレスリリースをご覧になりたいプレス関係者は、Toby Walshまでご連絡ください。

主催、署名検証、リストマネジメントはFLIが後援しております。この公開状に関する運営上のご質問につきましてはMax Tegmarkまでご連絡ください。

自律型兵器:人工知能とロボット工学研究者からの公開質問状

Click here to see this page in other languages : English Russian 

自律型兵器は、人間の介入なしに攻撃対象を選択し、交戦します。こうしたロボット兵器には、例えば事前に定義された基準に合う人々を探し出し殺害することができる、武装したクアッドコプター(回転翼機)などが含まれますが、人間が全ての攻撃対象を決定できる巡行ミサイルやリモートコントロールのドローンなどは含まれません。人口知能 (AI) 技術は、このような兵器システムの配備が、実質的に不法であれば数十年ではなく、あと数年で達成可能となるポイントにたどり着きました。この代償は大きいです: 自律型兵器は、戦争行為における火薬、核兵器に続く第3の革命兵器と評されてきました。

自律型兵器に関してなされてきた多くの議論は、例えば人間の兵士をマシンに代えることは所有者にとって負傷者の削減につながるため良いことですが、それによって戦闘への敷居を低くするという悪い面があります。こんにち、人類における重要な質問は、グローバルな人口知能兵器の軍拡競争を始めるか、もしくはそれを最初から予防するか、というものです。

もし、いくつかの主な軍事大国が人工知能兵器の開発を推し進めたら、グローバルな軍拡競争は避けようがなく、この技術的軌跡の終点は明らかです:人工知能兵器が明日のカラシニコフになるのです。核兵器のように、人工知能兵器はコストがかかったり、材料の入手が困難ではありません。ですから、人口知能兵器はあらゆるところに偏在し、主な軍事大国にとって、その大量生産は安く済むことになります。こうした兵器がブラックマーケットに現れ、テロリスト、民衆をよりコントロールしたいと願う独裁者、民族浄化を犯したいと願う軍隊などの手に渡るのは時間の問題です。自律型兵器は暗殺、国の不安定化、住民の鎮圧、特定民族グループの選択的殺害といったタスクには最適です。ですから、私たちは軍事的な人工知能兵器が人類にとって利益があるとは思いません。人々を殺すための新しいツールをつくることなしに、人口知能が人間の戦いの場をより安全にする方法はたくさんあります。

多くの化学者や生物学者が化学兵器や生物兵器の製造に興味が無いように、大多数の人工知能研究者たちも人口知能兵器をつくることに興味はありません。そして研究者以外の人々が、人口知能兵器をつくることで起こる、世間の潜在的な人口知能に対する大きな反動によって未来の社会の利益を削ぎ、人口知能の研究分野を汚すことを人工知能研究者たちは望んではいません。

実際、多くの物理学者が宇宙核兵器とレーザー兵器の製造禁止協定に協力したと同様に、化学者や生物学者らは、化学兵器と生物兵器を禁止することに成功した国際協定を広範囲に支援してきました。

要約すると、人口知能には人類の利益となる大きな可能性があると私たちは信じており、この分野の目標は、そのようにするべきです。人口知能兵器の軍拡を始めることは悪いアイデアであり、意義ある人間のコントロールを超える攻撃的自律型兵器への禁止令によって予防されるべきです。

現在までに、3,466名の人口知能やロボット工学研究者、その他18,924名によってこの公開状は署名されています。 署名者リストは、 [英語バージョン] をご覧ください。

ドワンゴ人工知能研究所の所長の山川宏とのインタビュー

Click here to see this page in other languages : English  Russian

山川 宏

工学博士。 ㈱ドワンゴ ドワンゴ人工知能研究所所長、NPO法人全脳アーキテクチャ・イニシアティブ代表、人工知能学会の編集委員長、理事、汎用人工知能研究会の発起人の一人。電気通信大学大学院情報システム学研究科客員教授 、玉川大学脳科学研究所特別研究員、慶應義塾大学SFC研究所上席所員、東京大学医学部客員研究員。産総研人工知能研究センター客員研究員。 専門は人工知能,特に、認知アーキテクチャ、概念獲得、ニューロコンピューティング、意見集約技術など。

1. 山川さんが人工知能の研究をキャリアとして選択したきっかけは何ですか?

1の答え:山川さん

高校生時代に、物理学と心理学に興味があり、悩んだ末に大学では物理学の道を選びました。私が大学4年生だった1980年代は日本では第2次人工知能ブームと言われているころで、私も先輩から人工知能の話を聞かされていました。当時の記号主義的な人工知能では、世界は記号によって記述され、それら記号の操作によって知能を構築しようとしていました。私はそうした記号主義的な人工知能は腑に落ちず、大学院の修士課程では物理を専攻することにしました。

そして、80年代の終わり頃にニューラルネットワークブームがやってきます。今も有名なヒントン氏らが活躍しはじめた時代です。私は人工知能の研究としてはその方向性のほうが良いという直観を持ち、1989年からの博士課程の三年間では、研究をニューラルネットワークにシフトしました。人が自身の価値体系をいかに作るかに興味があったので、そのために強化学習(reinforcement learning)の研究を1990年ぐらいから始めたのです。そして、「強化学習に基づく価値システム」をテーマに博士論文を書きました。実は同じ頃にワトキンス氏がQラーニングを提案していたのですが、インターネットが普及する以前ということもあり、二年ほど後になって初めてそのことを知り「ああ、同じようなことを考えている人がいるものだなあ」と思ったものです。

1992年からは富士通研究所という会社において研究を続け、1994年頃にはオートエンコーダネットワーク(ニューラルネットワークを使用したエンコーダネットワーク)を二段に積み上げる研究などにも着手しましたが、当時はトイモデルしか解けませんでした。その後、創造性を持った知能、つまりクリエイティブインテリジェンスというのが大事だと思い至ったのが、90年代の後半ぐらいです。今で言う、自己再帰的な発展を担う人工知能です。当時はまだ、技術的特異点(シンギュラリティ)という言葉は日本国内では殆ど知られておらず、2000年代後半にようやく「だいぶ以前から、そうしたアイディアを持つ人がいた」と気づきました。

何れにしても、高校時代から心理学に興味があり、ニューラルネットワークブームの時にその可能性を感じて、人工知能の研究を始めたわけです。

2.ドワンゴがこの分野に大型投資をする理由は何ですか?投資回収はいつ頃を予定していますか?

2の答え:山川さん

まず、日本の「将棋」というゲームはご存知でしょうか? 将棋はチェスと似ていますが、相手から奪ったコマを自分のものとして使えるルールがあるため、終盤の展開が複雑となり、2014年頃にようやく人工知能がトッププロを追いついたとされています。

ドワンゴは2010年から、プロの棋士とコンピュータ将棋ソフトウェアが対戦するイベント「電王戦」を長く続けてきました。このイベントを支えたのは川上(かわかみ)という、当時40代前半ぐらいの若い会長です。川上氏は、人工知能が次第にプロ棋士に肉薄し、プロが年々苦しくなってゆく様を見ていました。そうした中で経営者の判断として、社内に人工知能の研究所を作りたいと、ある時点から思っていたそうです。

一方、私が東京大学の松尾豊氏と産業技術総合研究所の一杉裕志氏とともに、脳に学んだ人工知能を目指すために日本国内で開始した活動が「全脳アーキテクチャ」です。2013年12月19日に最初の勉強会を行ったこの活動は、現在ではFacebookグループに4300人ほどが参加する活動になっています。2014年には、ドワンゴの川上会長が全脳アーキテクチャ勉強会に参加し、程なくしてドワンゴ人工知能研究所の設置のオファーを受けました。ドワンゴ人工知能研究所を設立した2014年の10月当時は、その後、人工知能の発展がこれ程までに急速になるとは予測していませんでした。

そうした背景もあり、この研究所はドワンゴの実利を追求するよりも、長期的な投資という位置づけでスタートしました。現在に至るまで、将来において大きな影響を与えると予想される汎用人工知能の開発を小規模なチームで進めています。

現状で実用化されている人工知能はすべて特定の問題領域のみで利用できる特化型人工知能です。これに対して、汎用人工知能は経験に応じて様々な問題を解決できるようになる、より人間に近い人工知能です。どことなく、IPS細胞に似た雰囲気とも言えるかと思います。また、汎用人工知能は「技術的に捉えやすい形で人を超える人工知能を定義したもの」とみることもできます。

実は世界的に見ると、2015年に汎用人工知能を目指すと宣言した組織が倍増しました。主な組織は、GoodAI、DeepMind、OpenAIです。ではなぜこのタイミングで、汎用人工知能を目指す組織が倍増したのでしょうか。この背景には、やはり深層学習の発展があります。

人工知能分野は、伝統的に記号を中心として進展してきました。人間が記述した知識を組み合わせることで能力を発揮する人工知能が主流だったのです。これは人間で言うと“大人の”能力で、言葉に書き表される能力です。そのため、この知能はプログラミング可能であり、計算機の進展と軌を一にして順調に進展しました。一方、子供が発達する中で物を認識できるようになったり物を掴んで動かせるようになったりする能力、つまり“子供の”人工知能は、言葉では説明しづらいものです。このため、プログラミングがしづらく、発展が阻まれていました。これはモラベックのパラドックスとも呼ばれます。

しかし、深層学習の研究が進み、こうした“子供の”人工知能を実現することが大量データからの学習で可能になりました。また、深層学習が獲得した内容を理解することは重要な技術課題となっています。このことは、これまで“子供の”人工知能が説明できないものだったからこそ深層学習の進展を待たなくてはならなかったという経緯を踏まえれば、納得できる面もあります。

付け加えれば、ドワンゴ人工知能研究所は、最近GoodAIが主催している、General AI Challenge (https://www.general-ai-challenge.org/ ) にも協力しました。

以前より、大人の知能についてはAIがしばしば人間以上の能力を発揮していました。最近の深層学習の成功により子供の知能が実現したことで、人工知能を構成する基本的な二つの要素が利用可能になりました。ですから、人間並みの汎用人工知能にアプローチする際の今後の大きな課題は、両者をどうやってつなげていくかという段階に入ったと言えます。今、人工知能分野が汎用人工知能や人レベルの人工知能に向かい始めた理由は、正にそこにあると考えられます。

さて、ドワンゴ人工知能研究所のドワンゴ本体にとっての短期的な役割としては、人工知能に興味を持つ人材を引きつけるためのフラグシップとしての役割や学術界との連携などが期待されています。ドワンゴは日本では有数のネットメディアの会社で、主要事業として視聴者が画面上にコメントを付与できる動画配信サービス「ニコニコ動画」などがあります。事業部においては、コミュニティの活性化を促進するようなツールやサービスなどにおいて最近の機械学習技術が使われています。

現段階では、汎用人工知能(AGI)は技術的な目標であり経済的利益を直接生み出していません。

人のような知能をめざす汎用人工知能は未だ技術的な目標であり、現段階では稼働しておらず経済価値を生み出していません。しかし先に述べたように、すでに開発を宣言している組織も増えており、公言せずに進めている組織も増えてきていると思われます。これは2013年頃には汎用人工知能の開発という話が全く相手にされなかった頃とは大きな違いです。

すでに、深層強化学習と強化学習を組合せた知的エージェントは、いまだ限定的とはいえ多様な問題に対してアプローチできるようになり、次第にプロダクト化に近づいてきています。ここで技術的に大事なのは、複数の機械学習の組合せ方法を規定するアーキテクチャです。深層学習をはじめとする機械学習の発展を背景に、取り扱う情報の枠組みを決定すれば、それに関わるデータから知識を引き出すことはかなり実現できるようになりました。そこで次の段階として、複数の機械学習モジュールがデータから獲得した知識を結合して利用するためのアーキテクチャの重要性が高まっています。

今後は特に、アーキテクチャという観点からの研究開発に十分力を入れることで、次第に汎用性の高い人工知能システムを構築できるようになり、その開発段階に応じて応用が次第にあらわれてくると考えています。

3. ほかの人工知能研究と比較した、全脳アーキテクチャ・アプローチの利点は何でしょうか?

3の答え:山川さん

全脳アーキテクチャは「脳全体のアーキテクチャに学び人のような汎用人工知能を創る(工学)」という研究アプローチです。この定義は、後に述べる全脳アーキテクチャ・イニシアティブ(WBAI)(日本語版: http://wba-initiative.org , 英語版: http://wba-initiative.org/en/ )の創設に関与した研究者間によって、2014〜15年にかけて議論を行うことで確定されました。つまり脳型人工知能であり汎用人工知能です。基本的には人工ニューラルネットワークなどの機械学習をモジュールとし、それらモジュールを脳の結線を参考として統合することで汎用人工知能を作ろうとします。ただし、あくまでも手段として脳を参考にするのであって、脳の理解が目的ではありません。このため、脳の仕組みを必要以上に詳細には再現しようとはせず、できれば可能な限り粗いレベルで開発しようとしています。

以下ではこのアプローチで完成する汎用人工知能の特性についてのメリットと、開発速度についてのメリットを説明しましょう。

特性についてのメリットは2つに分けることができます。1つ目は、人工知能の仕組みを脳に似せることで、人との親和性の高い汎用人工知能を実現しやすいことだと考えています。つまり、人間と同じような価値観とか振る舞いをするような人工知能を作りやすいということです。将来の超知能が、知的能力自体は人間を超えていても、比較的人間のような思考パターンを持つほうがコミュニケーションをとり易く、一緒に生活をしたりしていくのに便利でしょう。一例として、保育を仕事とする人工知能は児童の気持ちを理解する必要があります。 これはFLIなどでも議論されているバリューアライメントに相当するかと思われます。

特性についてのメリットの2つ目は、全脳アーキテクチャの開発を上手くコントロールすれば、完成した汎用人工知能を、人類の公共物としうることだと考えています。つまり、神経科学の発展により、脳はその全体の構造が見えつつあるので、それをソフトウェア開発のプラットフォームとすることで、多くの人が関わる民主的な共同開発が実現できると考えています。人間や齧歯類の脳についてみると、数百個程度の機械学習モジュール間の結合を表す設計図に対応づけられる、メゾスコピックレベルのコネクトームが明らかになりつつあります。よって、その上での共同作業により開発を進めれば、“特定の誰か”というものにはなりにくいでしょう。そして多くの人が参加するオープンな協創を人類のために長期継続的に拡大するために、後述するWBAIという組織が必要となるわけです。

上記の特性に関連して補足しますと、脳は唯一実在する汎用知能であるため、必要に応じて脳に近づけてゆくことである段階で汎用人工知能に到達しうるはずです。よって、多くの人々から合意を得られるような汎用性に繋がり、参加者の増大に繋がるはずです。背景として、これまでにも人為的な認知アーキテクチャから汎用人工知能に向かおうとする多くの試みが存在しましたが、多くの研究者の合意を得ることは難しくなっています。十分な理論的な背景を備えたアーキテクチャがない現状では、実在しかつ理解が進んでいる脳のアーキテクチャを参考にするほうが合意を得やすくなるでしょう。

次に、開発効率についてのメリットについて述べます。全脳アーキテクチャ・アプローチによって作られる汎用人工知能は、人類にとって最初期のものになる可能性が十分にあります。

開発効率に関わるメリットは4つ挙げることができます。1つ目は、特性のメリットの2つ目に起因するもので、多くの人々を巻き込んだ協創により加速するということです。

開発効率に関わるメリットの2つ目は、汎用的な目的を持つシステムを設計することの難しさに起因します。一般的にソフトウェアの設計では、ソフトウェアの機能的な目的を決めて、段階的に分解した部品として、それぞれを実装するというのが常識的な方法となります。しかし汎用知能というは、学習により多様な機能を獲得する仕組みなので、機能を分解して設計してみんなで手分けをして作るという方法ができません。この困難さ故に、既に存在する脳アーキテクチャに基づいて部品を分解して実装し、それをあとで統合するという全脳アーキテクチャ(WBA)・アプローチを採用する意味があります。

開発効率に関わるメリットの3つ目は、上記と関連が深いものです。汎用人工知能を完成させる局面ではシステム全体のアーキテクチャが必要ですが、部品が完全に揃う前にもその設計について脳を参考にして進めることができます。たとえば、世界最初の自動車であるベンツ・パテント・モトールヴァーゲンは、1886年に三輪車をベースとして開発されました。ですから、脳においても機械学習を組み合わせるための枠組みとしてアーキテクチャを先行して設計しておくことが、完成局面での開発加速につながると考えています。

開発効率に関わるメリットの4つ目は、脳器官の機能的な部品が、既に人工ニューラルネットワークとしてある程度は実現されており、その延長線上としての開発のロードマップを作れる点にあります。具体的には、Convolutional Neural Networkによる一般物体認識は、大脳新皮質視覚野の側頭葉経路と対応づけられ、ある面では性能的にも人間を超えたとも云われています。同様に音を認識する経路も深層学習で実現されてきています。人間において特に発達した大脳新皮質には約140億個の細胞があるのですが、そのうちの約半分は深層学習で部分的に説明できています。また、脳中において強化学習に必要な遅延報酬の計算部分は大脳基底核に対応付けられています。さらに、小脳もパーセプトロンとしてのモデル化が進んでいます。そこで今後は、まず各脳器官の機能をより脳に近いものに近づけ、次に全体アーキテクチャではなくても複数の脳器官を組合せて何らかの行動レベルの機能を再現し、その開発プロセスを脳全体に拡大していくという道筋を描いています。仮に今の時点で既に3割ぐらいできているとすれば、今後は1つ1つ問題をクリアしてそれを10割に近づけていくといったイメージになります。

現時点で、全脳アーキテクチャ(WBA)に近いアプローチをとっている研究機関は、英国のディープマインドと米国のサンディア国立研究所ではないかと考えていますが、全脳アーキテクチャ・アプローチを支える神経科学と機械学習の何れもが急速に進展している背景からも、このアプローチをとる研究組織は今後共増えてゆくと考えられます。

4. ドワンゴ(日本語版: http://dwango.co.jp/ , 英語版: http://dwango.co.jp/english/  )の人工知能研究所(日本語版:http://ailab.dwango.co.jp , 英語版: http://ailab.dwango.co.jp/en/  )での勤務のほか、非営利のWhole Brain Architecture Initiativeでの活動もされています。非営利活動と商業的活動との違いは何ですか?

4の答え:山川さん

非営利活動の全脳アーキテクチャ・イニシアティブは全脳アーキテクチャの開発を促進するプラットフォームを提供する組織です。これに対してドワンゴ人工知能研究所はそのプラットフォーム上で全脳アーキテクチャの開発を進める一組織になります。

まずWBAI(全脳アーキテクチャ・イニシアティブ)は、なぜ全脳アーキテクチャの研究開発の「促進」のみを行っているかについてお話しします。先程述べたように、脳アーキテクチャの開発を上手くコントロールすれば、完成した汎用人工知能を、人類の公共物にできると思います。もしも逆にWBAIが全脳アーキテクチャを自分たちの手で作り完成させてしまうと、この本来の目的から離れていってしまうのです。そこで、こちらで示した基本理念に基づきの多くの人を巻込みながら、WBA開発の促進を行っています。

全脳アーキテクチャ・イニシアティブの基本理念

  • 私たちのビジョンは、「人類と調和する人工知能のある世界」を実現することです
  • 私たちのミッションは、「全脳アーキテクチャのオープンな開発を促進する」ことです
    • ヒューマン・フレンドリーな汎用人工知能を全人類の公共財とするために、脳全体に学んだアーキテクチャ上でのオープンな共創を継続的に拡大します
  • 私たちは、「 まなぶ、みわたす、つくる」を価値として行動します
    • まなぶ: 関連する専門知識を学び、拡める
    • みわたす: 広く対話を通じて見識を高める
    • つくる: 共に作り上げる

WBAIの具体的な事業は主に、研究促進事業と人材育成事業になります。

研究促進事業の中で行っている開発環境整備としては、ゲーム環境を利用したAIの学習環境(LIS等)の構築、機械学習を統合するためのプラットフォーム(BriCA等)、汎用人工知能を評価するための研究、コネクトームを参照した認知アーキテクチャであるWhole Brain Connectomic Architectureなどによる神経科学への接地があります。また、こうした開発環境の上で活動するオープンなエンジニア・コミュニティを形成し拡大するために、スラック上でSig-WBA (https://sig-wba.slack.com/)というコミュニティを構築し、隔週のオフ会での情報交換やミニハッカソンなどを行っています。

人材育成事業では、WBAI以前から存在する全脳アーキテクチャ勉強会を隔月で開催し、ここでは基本的には、機械学習、神経科学、認知アーキテクチャなどの知見を合流させるために、あるテーマについて異なる分野の研究者をお呼びして講演やパネル討論を頂くという企画を続けています。

一方でドワンゴ人工知能研究所は、「みんなで作って」と言われている組織の中の1つという位置づけですから実際に全脳アーキテクチャアプローチからの汎用人工知能などにつながるような技術開発をしています。とくにWBAIのプラットフォーム上でのオープンな研究が活性化するように、その種となるような研究開発を行っています。

ドワンゴ人工知能研究所で取り組んでいる研究例として直観物理学があります。ここでは生まれた瞬間から子供が発達していく中で物理世界に関する素朴な理解を発達させる過程を人工知能システムとして実現することを目指す研究です。子供が知識を獲得するのと同じようにこれらが作られなければ、AIは人間と同じように成長しません。こうした研究はMITのJosh Tenenbaumの研究グループによってはじめられました。全脳アーキテクチャ・アプローチにおいても、子供の知能から段階的に発達させることで汎用性を獲得させようとしているのです。

こうした研究のプレリミナリーな研究成果は、日本国内では人工知能学会の研究会支部の1つとである汎用人工知能研究会などで発表されています。

5. ドワンゴの人工知能研究所のウェブサイトでは、イースター島を例として用い、文明発展による人類存亡のリスクについて説明しています。この件はFLIにとっても重要な事柄です。私たちはさまざまな分野(人工知能・バイオテック・核兵器・気候変動など)にも注力しています。21世紀の社会にとって最大のリスクを引き起こす要因は何だと思いますか?

5の答え:山川さん

以前から気になっていたのですが、Existential Riskというのは人類存続の危機と言う理解でよろしいですよね? Existential Riskをストレートに実存的リスクと和訳すると、日本人からは異なったニュアンスと捉えられて伝わりにくいかもしれません。

人工知能に限らず、基本的に科学技術は、人間の能力をいろんな意味でエンパワーメントしていく、拡大していくものです。人間の能力を拡大させていくと何が起こるか考えると、昔はネットでも繋がっていなければ飛行機での移動もできない相対的に広い空間の中で、弱い技術というか弱い攻撃力しか持っていませんでした。

言ってみれば、広大なフィールドにおいて人間が精々竹槍程度の武器しか持っていない状況では、人間自身によって人間を絶滅させるリスクは極めて小さかった訳です。これに対して技術が発展した現在は、狭い部屋の中で全員が爆弾を持っていて、誰が爆弾に点火しても全滅する状態に近づいています。ただし、その部屋の中に10人しかいなければ、相互に監視して、お互いに信用しようということになるでしょう。しかし、100億人が全員爆弾を持っていて誰がスイッチを押しても全滅する状態で、100億人全員を信用することは、人間の認知能力を超えているでしょう。

もちろん技術発展は攻撃力だけでなく防御力も進歩させますが、あらゆる時点において、攻撃力を封じ込めるような防御力を存在させうることは簡単ではありません。人工知能技術を用いて科学技術開発が促進されれば、例えば多くの国が簡単に大陸間弾道弾を保有することになるでしょうし、人工知能がナノテクノロジーを駆使して生体に対して極めて危険な物質を開発することで人類を絶滅させるシナリオも原理的にはありえます。

一般的に、技術の進展を利用して新たな攻撃兵器が開発されて、それを追うように防御兵器が開発されます。ですから、人類を絶滅させる攻撃力が防御力を上回る期間が存在することは避けられません。これは真剣に検討されて取り組まれるべき点であると考えます。

人類を絶滅させる攻撃力が存在する期間が現れるならば、先の「狭くなった部屋」のたとえのように、人類を絶滅させる攻撃力を持つ意思決定主体の数が増えるほど存在論的リスクが増大します。この際、高度な人工知能が意思決定主体になれば、リスクはさらに増加すると考えられます。結局のところ、人類絶滅能力を持つ意思決定主体の増加ということが一番大きな問題だと思います。もともと空間的な広がりこそが最大の防御力であったのですが、技術進展によって空間が実質上狭くなっていることが問題です。この問題が、ホーキンス氏が「宇宙に進出するまでの100年が危ない」と述べている点と対応しています。これに対して、人為的でない、気候変動、環境変化、パンデミック等のリスクのすべてについて、私は理解しきれていません。しかしこうしたリスクについては、人工知能の進歩が優位に働き、人工知能を利用して制御に成功する可能性があります。

何れにしても、今後において人工知能が急速に進歩するシナリオを想定するならば、他のリスクは比較的制御しやすくなるのに比べて、人類絶滅能力を持つ意思決定主体の増加による絶滅リスクはかなりクリティカルです。しかし残念ながら私も良い方策にたどり着いていません。

6. 汎用人工知能(AGI)が社会にもたらす最大の便益は何だと思いますか?

6の答え:山川さん

汎用人工知能のもたらす最大の便益は、科学技術の発展を加速し、それによって得られる波及効果ででしょう。環境に対するコントロール、食料問題、宇宙進出を加速することなどです。先に述べたように、自分たちがもつ攻撃力の範囲よりも人類の生存領域が大幅に広ければ、Existential Riskを大きく抑制できる可能性があります。 そのため、私の思いとしては、できれば人工知能の利用は宇宙進出に重点を置くべきと考えています。

ここではひとつ、私が以前に考えた未来像について紹介しましょう。

EcSIA: AIと共存する望ましい未来社会像

私が思う,望ましい未来像とは 「万人の幸福」と 「人類の存続」の間のトレードオフの緩和をAIがおこなうことで、その両立を目指すものである.こうした未来社会では共有財産としての多様な人工知能と,時に拡張された人類によって生態系が形成される.私はこれをEcSIA (Ecosystem of Shared Intelligent Agents )と呼ぶことにした.

EcSIAは大自然の如く複雑広大で,人類はそれを完全には理解し把握できないまでも緩やかに制御する.そしてEcSIA が生み出す恵みや富は万人に分配される.

(山川, 2015年7月)

7. AGIがもたらす最大のリスクは何だと思いますか?

7の答え:山川さん

最大と言うことになれば、先ほどお話しましたように、人類絶滅能力をもつ意思決定主体の増大がもたらすExistential Riskかと思います。

8. 私たちの進歩を侵害する世界規模の惨事はないと仮定して、次の10年・2040年ごろ・2100年ごろのhuman-level AGI(人間の知能レベルの実現を目指す汎用人工知能)完成の可能性はどの程度であると思いますか?

8の答え:山川さん

全脳アーキテクチャイニシアティブ(WBAI)では2030年頃を公式目標としています。カーツワイル氏が「2029年に人間レベルができる」言っていることはよく知られているかと思いますが、大体それと同じぐらいで考えています。我々はAGI開発を促進する集団なので、平均的な見解より遠目の「100年後にできます」と言うことはありません。

FHIのニック・ボストローム氏らが2011年から12年ぐらいにとったアンケートに私も答えましたが、その際には私個人としては2023年と書いたはずです。個人的には早い可能性も考えていますが、WBAI関係者の意見の平均的なところで、2030年ぐらいかなと思います。

こういう点では、FLIによるAsilomar会議でも意見の一致は得られなかったのかと思います。一般的にマスメディアは煽ったりその反対をしたりする傾向を持ちますので、人工知能の技術者が、意見の一致をみなくても技術的な観点から見解を世間に発信していくことの意義は高いと思っています。

私は現在、日本の人工知能学会の編集委員長ですので、上記のような意識の上で、本年の7月号から連載するレクチャーシリーズにおいて、「シンギュラリティと人工知能」というテーマで、毎号、人工知能の専門家に技術的な観点から見てシンギュラリティについて語ってもらう企画を進めています。こうして技術的に冷静な意見を、まずは日本国内において広めていきたいと思っています。

9. 人間の知能レベルに達したAGIが実現した場合、それ自身が開発を行い人間の知能を超えた知能を作るのにどのくらい時間がかかると思いますか?

9の答え:山川さん

先に話に出したコンピュータ将棋の歴史を振り返ると、多くの場合に1人もしくは数名のプログラマが、地道に改良することで発展してきました。その場合でも、人工知能が一旦人間のトップに追いつけば、そのあと抜き去るのに要する時間は数年程度だったかと思います。

AIの汎用性がある種の経済価値をもつレベルに到達した瞬間に、そこに対する投資が急速に増大するでしょう。そうなれば汎用人工知能の能力は、ゲームAIの場合とは比較にならない速さで人間レベルを超えるかも知れません。さらに人間レベルの汎用人工知能に到達すれば、それは人工知能研究者の役割を担えます。ですから汎用人工知能が作られた直後に多数の汎用人工知能を人工知能研究者として高速に育成し、それらが24時間休まず研究開発を行うことで、人工知能の研究開発は大幅に加速するでしょう。

ところで、カーツワイル氏は2029年に人間一人分の知能に到達し、そこから16年かけて、2045年ぐらいに全人類の知能に到達するという予測をしています。私は、上記のような理由からこの後半の16年間は大幅に短縮され、数日から数ヶ月ではないかと予測しています。私から見るとこのカーツワイルの16年間という予測は不自然におもいますが、むしろその点についての疑問をあまり見かけないことに不思議さを感じています。ただし、この期間において存在しうる技術的なボトルネックとしては、汎用人工知能を動かすための電力が膨大すぎて同時に多数を稼働できないという場合はあり得るかもしれません。

10. 悪い設計か操作の結果として、人工知能が悪い(もしくは極めて悪い)結果を引き起こす可能性はどの程度だと思いますか?

10 の答え:山川さん

些細な負の影響を考慮すれば100パーセント何かしらあります。例えば誰かがビジネスで損をしたなども入れるなら必ず出てきてしまいます。リスクは基本的にインパクトと同時に頻度や確率を考慮しなければなりません。Existential Riskはもちろん非常に大きなインパクトで避けなければいけません。そのインパクトに近いものとして、国家同士での戦争や悪用による負の影響が一番大きいと思います。

より直近の課題として、生産性を持ちうる職業技能の高度化があります。人工知能で実現できる技能や能力が高まると、それを使いこなせる高度な能力をもつ人材の生産性が格段に増加する反面、それができない人材の生産性の価値が激減します。つまり儲かる人と儲からない人の格差が拡大します。こうした格差は、個人レベルでも組織レベルでも拡大します。そうすると、経済的に不遇なところから不満が生まれ、そこが戦争や紛争の温床にもなりえます。これは資本主義のもたらす弊害とも捉えうるわけです。いずれにしても、こうした不安定要因をなるべく縮小していくというところが大事でしょう。

考え得る対策の一つは、ベーシックインカム等の制度の導入です。例えば日本ならば全ての個人に毎月7〜8万円を配るなどです。もちろん日本だけで済む話ではないのですが、なんらかの方法で経済的なバランスをとっていく必要があるでしょう。資本主義がすぐに変わらない以上、当面は重要なことになりますし、何らかの制度でリスクを抑えていく必要があると思います。

そして、極めて悪い結果の確率、Existential Riskの確率などはどうやって計算すべきか以前考えていた時があります。人類絶滅能力を持っている意志決定主体の数が計算できると、それによって人類が何年生きられるか半減期が計算できるわけです。例えば人類が100万人いたとして、何パーセントの人がそのスイッチを推したいと思うかです。単純な計算は当然できるのですが、そういうのも抑制する因子とか、ボタンを押そうとしても止めようとするものとかを沢山作っていくことになると思うので、それも含めるとその方向では確率を計算するのは難しいかもしれません。一応できるけれど、それでいいのかどうかわからないといったところです。

11. 人工知能の安全性について研究したり、人工知能と人的価値の標準を同じくしたりすることは時期尚早だと思いますか? 人工知能の構成を知らなければ、それを安全な仕組みに設計をすることは難しいとされています。人工知能の安全性について有効だと思いますか?

11 の答え:山川さん

全く時期尚早とは思いません、急いで進めるべきだと思います。以前より技術発展が加速度的状況にあることはカーツワイル氏らも言う通りです。人間の直観は基本的には線形的なので、指数関数的変化の真只中においては必ずしも正解に近くない可能性があります。またこの様な大きな不安を抱える状況においては、人間には心理学で言う「正常値バイアス」というのが働きます。これは「今まで大丈夫だったからきっと大丈夫だろう」と思ってしまうもので、普通は正しくて有効なのですが、今回の場合には正常値バイアスがあるということを差し引いて考えておくべきでしょう。

できれば、汎用人工知能がもたらすExistential Riskを計算する何らかの方法があると良いのかと思います。一つは、宇宙物理学におけるフェルミのパラドックスを手がかりにする方法です。これは私達人類がエイリアンにまだ出会っていない事実と、惑星上で生命が誕生しそれが知的に進化する確率から計算すると、知的生命体が技術発展の末に絶滅する確率を計算することもできるというものです。ただ、この方法ですと単に悲観的な結果が得られるだけで、私達が何をすべきかの指針は得られません。先に述べたような、人類絶滅能力を持つ意思決定主体の増加の面から考えたほうが良いかもしれません。

12. 人工知能の研究団体が更なる認識・注力をすることが重要だと思われるものはありますか? またそれが社会に与える影響は何ですか? 同様に、AGIがもたらす変化に社会がどのように備えるべきか、指導者や政策立案者に伝えたいことは何ですか?

12 の答え:山川さん

基本的に様々なアクションをとることが当然ながら必要です。そうした考えから、たとえば(社)人工知能学会では、20145月頃に倫理委員会(http://ai-elsi.org/ )を設置し、本年2月末に人工知能研究者のための「人工知能学会 倫理指針」(http://ai-elsi.org/archives/471 , http://ai-elsi.org/archives/514 )を打ち出しました。倫理委員長は松尾豊(まつお ゆたか)氏という東大の准教授の方で、Asilomar会議にも参加し、WBAIの副代表でもあります。この倫理指針における多くの条文は、様々な科学技術分野の研究者と同様に人類社会に貢献する研究開発を進める立場を表明しています。しかし最後の9条において、将来的には作り出す人工知能自身も同様に倫理的に人工知能を開発すべきことを求める「人工知能への倫理遵守の要請」を含めた点に特徴があります。

日本政府においては2015年頃から、経済産業省、文部科学省、総務省の三省がそれぞれに人工知能研究開発の拠点を構築しました。そうした開発の動きに続く形で2016年くらいから社会インパクトに対する検討が行われる割合が非常に増えてきています。伝統的に日本は海外の動きを吸収しながら新たな形を模索することが多く、いま正に、諸外国の動きを見て参考にしていきながら、自分たちとして何ができるのだろうかと考え始めようというフェーズにきています。

一例として、本年の31415日には私たちの研究所の近くにある東京大学において、人類はいかにして人工知能を使いこなしうるのかを問う「AIネットワーク社会推進フォーラム」(国際シンポジウム)が総務省主催により二日間にわたり開催されました。満席の200 人ぐらいの入場でした。(http://www.soumu.go.jp/menu_news/s-news/01iicp01_02000056.html)  このフォーラムではAI開発ガイドラインの策定に向けた国際的な議論の推進などを目的としており、海外からはG7OECDなど関係者の他にも、Partnership on AIからはグレッグ・コラード氏、前・ホワイトハウス科学技術政策局からはエドワード・フェルテン氏、Future of Life Instituteからはヤーン・タリン氏、欧州議会法務委員会からはロバート・ブレイ氏らが来日して講演を繰り広げました。

私も2日目最後において推進会議開発原則分科会技術顧問である堀浩一教授が主宰した「人工知能のリスクについて」の講演のパネルにて登壇しました。パネル内の議論の一例として、部下でも人工知能でも自律性(オートノミー)が高いほど有用ではあるけれども、意に反した行動を起こすリスクも高まるので、自律性の発揮しうる範囲のコントロールというのは大事なポイントであるというような意見が出されていました。また私からは、クラウド上でネットワーク化した人工知能に対しては、キルスイッチのようなものとして、ネットワークの通信能力を全体的に落とすことで一時的に人工知能の能力を低下させるアイディアなどを提案させて頂きました。

上記のような国の動きの他にもより草の根からの活動も活性化しています。まず学術的な活動としては、(社)人工知能学会における汎用人工知能研究会(http://www.sig-agi.org/sig-agi )では技術的な研究発表の他に社会への影響に関わる議論なども行われています。またやはりWBAIの副代表である高橋恒一(たかはし こういち)氏らが率いるAI社会論研究会(http://aisocietymeeting.wixsite.com/ethics-of-ai )AIR: Acceptable Intelligence with Responsibility(http://sig-air.org/ )では社会と人工知能のあらたな関係性の構築を構築するために、倫理・経済・法律・社会学・哲学などの多面的な面からの議論がすすんでいます。また草の根的な活動としてシンギュラリティサロン(http://singularity.jp/  )では、人を超えた人工知能の影響について一般向けに広く情報提供などを行っています。

こうした様々な動きもあり、また最近では、私達が見るニュースには毎日のように人工知能という言葉が現れるようになったことで、今回の第三次人工知能ブームが広く知られるようになった2014年ころから、世間の人工知能に対する見方も大きく変化しつつあります。

社会の人工知能に対する受け止め方を振り返りますと、2013年ぐらいから一部のメディアで「人工知能が仕事を奪うのですか?」というような質問がなされていましたが、当時はまだ専門家からも「人工知能は仕事を奪うことは殆ど無い」といった保守的な見解が大勢をしめていました。ちょうど「機械との競争」(Race Against The Machine)が邦訳されたころです。しかし2015年ぐらいになると、人工知能が仕事を奪うという前提は受け入れられはじめ、少なくともタブー視されず、オープンに議論が進む雰囲気が醸成されました。そして2016年ぐらいからは、実際に人工知能を作るとなったらどうするのかという話が主題になり、例えば自動運転におけるトロッコ問題などが取り上げられるようになりました。そして2017年の現在において、人工知能の透明性や制御可能性など、人工知能開発に関わる議論への理解が進んできています。

13. 多くの知識人が、日本は自動化を推奨していて、西欧諸国に比べロボットを好意的に受け入ていると言及しています。日本における人工知能に対する見方は西欧諸国と比べて違うと思いますか? その場合、それはどう違いますか? 英語話者のあいだでは、優れた人工知能・技術的特異点・人工知能の安全性について活発に議論されています。日本ではどうでしょうか?

13 の答え:山川さん

倫理を含む人間性の点から見れば、私達が同じ人間である以上、洋の東西を問わず、総じて共通点のほうが多いことを前提とすべきでしょう

日本の文化的背景を人工知能観点からみると、いわゆる八百万神(やおよろずのかみ)という森羅万象に精霊や神が宿るという信仰は大きな影響も持つと思われます。つまり生き物と人間の間の境界が比較的曖昧ですし、その延長線上で人工知能やロボットとの境界も曖昧になっています。ですから、昔から、『鉄腕アトム』や『ドラえもん』などのアニメにおいてロボットと共に生きる世界観は一般大衆に受け入れられています。ちなみに東京には世界の様々な料理のレストランがありますし、そうした意味でも多様性を受け入れる文化なのかもしれません。

実は多様性を許容することは、Existential Riskを減らす有効な手段となりえると考えます。明らかに現在は科学技術が指数関数的に進展し、それに伴い変化が加速しているわけです。そして変化を乗り越える力の源泉は多様性です。先程EcSIAを紹介した際に触れましたが、これからは、人工知能と人間だけでなく様々な形で人間と人工知能が融合した形も現れてくると思うのですが、こうして多様性を拡大しておくことは、生き残る確率を高めるでしょう。ただし多様性は生存確率を高める一方で大きな犠牲が伴います。つまりどの選択肢が生き残るのかは、予めわからないし、だからこそ多様性の意味があるわけです。できれば、こうした犠牲を伴う多様な選択肢へのチャレンジを、うまく人工知能が先回りしてくれて試してもらえるならば、私たちの痛みを減らしつつ人類を生存させ続けることも可能になるかもしれません。

存在すべきものの多様性に関わる議論をさらに極端に推し進めると、「私たち人類は未来の宇宙にむけて何を残すべきか」という問に辿り着きます。極めて個人的な見解とはなりますが、私としては「存続する知能」こそが、未来に残すべき何かだと思います。私達が進化の荒波を超えて、今こうした知能社会を作り上げたことは非常な幸運です。そうであれば、知能それ自体に保存する価値があると考えることもありえます。もし私達が、地球外の知的生命体と接触し、その後において共存する時代を迎えたなら、私たち人類はそうした生命体の存続についても配慮することになるでしょう。そうなれば、将来において私たちにとって重要な価値は、人類自身の存続から知性の生存に拡張される可能性が高いでしょう。

一旦、人類の使命として「存続する知能を宇宙に広める」と仮定してしまえば、Existential Riskを回避しうる選択肢は大幅に広がります。宇宙に進出して知能を受け継ぐものの候補は人類以外の、人工知能、遺伝子改変された動物、知能の種となる細菌やウィルスなどが考えられるかもしれません。一例として、宇宙でも冬眠して行き続けられるクマムシに、好環境で一万年ほど進化すれば人間レベルの知能を生み出せるような遺伝子を組み込み、宇宙に拡散したとします。すると多くの惑星上で、1万年に1回シンギュラリティが起こります。文明がシンギュラリティを超えられる確率がかなり低くても、それ以上に多くの星でシンギュラリティが起これば、やがて何れかの星では成功するかもしれません。私達が宇宙初でこうした事業に成功すれば、私達人類の功績は宇宙の寿命に近い時間スケールで歴史に刻まれることになるでしょう。ただこの際には、私達人類の業績を伝える何らかの記録を残すことを忘れてはいけませんね。

直接的な意味では人類を置き去りにしてしまいましたが、人類ももちろん、生身の人類だけでなく、クマムシのように宇宙で冬眠できる人類や、人工知能にアップロードされた人類など、選択肢の幅を広げるほどに、生存確率は増大するはずです。何れにしても今後さらに、技術的な選択肢は増え続けますが、何を存続させたいのかという価値判断こそがExistential Riskを制御する大きな要因になりえます。一方で人を超える人工知能の出現は、「知性の高さを理由として特権的な存在意義を人類に与える」という主張を破壊するという形からも私達の価値観に大きな影響を与えます。この状況は逆に、本当に次世代に伝えるべきものは何であるかを私達が自問するチャンスが与えられていると見ることもできます。リチャード・ドーキンスは、「生物は遺伝子の乗り物」と考えましたが、同様に「脳は知性の乗り物」に過ぎないのかもしれません。多様性を受け入れる日本人の文化的特性は、こういった選択肢ですら受け入れうる素地があるのではないかと考えています。

14. 日本はかつてCD・VHS・DVD・新幹線・LCD・デジタルカメラなどの最先端技術と同義でしたが、中国や韓国などの経済の急成長に伴い、日本経済は停滞し、世界経済に占める割合は小さくなりました。しかし、日本には世界でも最高レベルの研究者やエンジニアがいます。日本が再度技術革新をけん引する原動力となるためには何ができると思いますか?

14 の答え:山川さん

WBAIでは、人類と調和する人工知能の開発をめざしています。しかしながら、人情として、ある国に属する人は、人類全体よりもその国の人々を大事と考え勝ちです。これは、人類が知的クマムシよりも人類が大事と考える傾向があるのと同様でしょう。

当然ながら企業や政府関係者などを含め多くの日本人は、この変化の中でどう人工知能技術を発展させてそれを活用するかという事に心を砕いています。日本にとって決め手となるような戦略は簡単には思いつかないですがいくつか思うところを述べてみましょう。

最初に、少なくとも不利にならない点をのべておきましょう。実は近年の機械学習、深層学習は、ほぼほぼ数学ですので基本的には言語の壁がありません。深層学習が世界をセンサ情報を通じて認識するために英語を用いる必要はないのです。しかも最近は論文を読むときに機械翻訳をつかうと殆ど読めてしまいます。実は2000年台の日本は圧倒的に不利でした。残念な例として、日本ではソーシャルネットワークといえば日本発のMixi(ミクシィ)という時代がありましたが、世界との競争で負けた結果、今やみながFacebookを使っています。今回の機械学習を中心とした人工知能の研究開発では、伝統的に数学や理論物理学に強みがある日本の研究者や技術者にとっては力を発揮しうる場面でしょう。

関連してよく言われていることですが、日本はネット上のITよりも、技巧性が活かせるモノづくり的に強みがありました。人工知能がモノを操作できるようになった今、日本の技術者の技能を効率的に人工知能に転移することで強みを築きうると考えています。これはドイツのインダストリー4.0と近いアプローチです。その特殊な例として「食×AI」を提唱しているのが先程の松尾豊氏です。何故なら日本は世界中から多様な料理を輸入してさらに美味しく発展させており、特に首都の東京などは、この点で抜きん出ています。これを支える農業などにも人工知能が導入される中で、こうした日本人の感性を活かせる領域は期待が持てます。

次に、やや逆説的ですが、日本はある意味での課題先進国と言われています。特にいずれ世界のどの国でも起こりうる高齢化問題が世界で最初にやってきます。ロボットによる介護などの人に寄り添う技術、パーソナライズされ予防医療、健康管理のためのウェアラブルデバイス等の市場が拡大し研究開発が進むでしょう。並行して労働者不足が生ずるためにロボットを受け入れやすい状況も加速します。これを起点に人工知能の関連技術を蓄積しうると思います。

最後になりますが、今後の世界においては、汎用性と自律性を備えたスーパーヒューマンインテリジェンスに向かって人工知能の開発が進むに連れて、人類がそれらを制御するための国際的な体制が構築されることになるでしょう。もちろん個別に人工知能開発が行われてはいても、その開発ガイドラインや開発や運用基準が具体化され、その挙動をモニタするための人工知能も多く存在することになるでしょう。そして国や企業などを含む国連のような国際組織が、こうした人工知能の全体を管理する展開が予測されます。こうした流れの中で、日本は人工知能管理の常任理事国になって行けるように、技術力と倫理観を同時に高めることで、世界から見て日本は信用できる国だと思われることが重要ではないかと考えています。

もしかすると汎用人工知能は、ある天才が一夜にして完成してしまうかも知れません、そういった時に最初に相談したい国が日本であってほしいとおもいます。そして全脳アーキテクチャ・イニシアティブ(WBAI)は、そうした動きを支える組織でありたいと思っています。

<<<<おわり>>>>

This interview transcript was prepared by Mamiko Matsumoto and Kazue Evans.

インタビューの日:2017年04月05日(水)

Superintelligence survey Japanese

Click here to see this page in other languages: English  French  German Russian 

人工知能の未来 - あなたはどう考えますか?

マックス・テグマークの人口知能についての新書, Life 3.0: Being Human in the Age of Artificial Intelligence は、ますます進化した人口知能、おそらくすべての領域で人間レベルをはるかに凌駕するスーパーインテリジェンスがどのように世の中に影響を及ぼすかについて探究しています。本書のためにマックス は、専門家たちの予測を調査し、広範囲の視点から何が起こるか、また何が起こりうるかについて研究しています。今は、対話を広げるときです。できるだけ多くの人々の利益となる未来をつくろうとするなら、私たちは可能な限り多くの声や意見を取り込む必要があります。そして、あなたの意見も含まれるのです! 以下は、本書内に収録されているアンケートに答えた人々の回答です。この対話に参加するには、 こちらのアンケート にお答えください。

人口知能の未来をどれだけ早く喜んで迎えるべきか、または恐れるべきか?

人口知能をけん引する研究者たちの間でさえ、意見を二分する最初の大きな論争は、何が起こるかについての予測です。 いずれ人口知能の未来が起こるとしたら、人口知能は全ての知的課題において人間を超えるのでしょうか。そしてそれは、よいことなのでしょうか?

 スーパーインテリジェンスを求めますか?

私たち人間が文明を愛するするのは知能があるからであり、人間の知能は機械知能を使ってさらに増幅することが潜在的に可能です。しかし、スーパーインテリジェンスがいつしか私たちをコントールすることになり、スーパーインテリジェンスと人間とを同調することが目的となるのではないか、ということを心配している人もいます。あなたはスーパーインテリジェンス、つまり人間のレベルをはるかに超えた汎用知能を望みますか?

未来はどのようあるべきでしょうか?

著書のなかでテグマークは、「何が起こるか」について、まるで未来があらかじめ設定されているかのように受け身で問うべきではないと主張しています。その代りに、何が起こって欲しいかを問い、その未来を創造するよう努力するべきだといいます。

スーパーインテリジェンスが到来したら、誰が制御下にあるべきですか?

いつか人工知能のヘルパーを入手できるとしたら、あなたは人工知能に意識、つまり主観的経験を求めますか?

未来の文明は何を努力すべきですか?

生命が宇宙に広がることを望みますか?

理想的な社会とは?

本書Life 3.0でマックスは、スーパーインテリジェンスが開発された場合とされなかった場合の次の千年に何が起こりうるか、可能性がある12のシナリオを調査しています。

そのシナリオについてここに簡単にまとめた内容をみることができますが、プラス面とマイナス面それぞれのより詳しい内容を知りたい場合には、この本の4章をご覧ください。こちらがこれまでに人々が提起するオプションの概要です:


マックスの新書を入手していただければ、人工知能とは何か、どのような仕組みで動くのか、現在の生活にどのような影響を及ぼしているのか、その他未来が何をもたらすだろうか、といった説明とともにさらに詳しい将来の可能性のあるシナリオを学ぶことができます。

上述の結果は定期的に更新されます。 こちらのアンケートに参加して、あなたの意見を加えて、下記のコメント欄で意見をシェアしてみてください。

An Open Letter to the United Nations Convention on Certain Conventional Weapons (Japanese)

自律兵器に対する公開状

2017年オーストラリアのメルボルンで開催されたIJCAI(International Joint Conference on Artificial Intelligence:人工知能に関する国際合同会議)での自律兵器に関する発表に対する公開状。この会議の焦点は、戦場における自律兵器の技術的、法的、また社会的な問題点です。

私たちは、自律兵器に転用可能な人工知能やロボット工学の技術を構築する企業として、この警告を発する責任があると感じています。

私たちは、致死性の自律兵器システムに関する、政府専門家グループ(GGE:Group of Governmental Experts)を設立するための国連の特定従来兵器(CCW:Certain Conventional Weapons)に関する条約会議の決定を温かく歓迎します。私たちの研究者や技術者の多くは、あなたの審議に技術的アドバイスを提供したいと考えています。

私たちはインドのアマンデップ・シン・ギル大使のGGE議長任命を称賛いたします。私たちは、これらの兵器の軍拡競争の防止、民間人による誤用の防止、これらの技術による社会の不安定化への対策について、GGEの締約国が全力を尽くすことを歎願します。

本日開始されたGGEの最初の会議は、一部の国が国連への資金拠出を怠ったために中止されました。私たちは、11月に予定されているGGEの第1回会合で、締約国が努力を倍増させることを強く求めます。

致死性自律的兵器は、戦争に第三の革命をもたらします。一度開発されてしまえば、武力による紛争はこれまで以上の規模で、人間の理解を超えた速度で行うことが可能になります。これらの兵器は、恐怖の兵器になりえます。テロリストなどの武装勢力が無防備な一般市民に使用する可能性や、ハッキングによる望ましくない結末も起こりえます。時間はあまり残されていません。パンドラの箱は、一度開けてしまったら、もう二度と閉じることはできないのです

これらの理由から、わたしたちは、これらの機器から人類を守るすべを見つけるために、締結国に忠誠を従います。

Click here to see this page in other languages: English Chinese   Russian 

FULL LIST OF SIGNATORIES TO THE OPEN LETTER

Tiberio Caetano, founder & Chief Scientist at Ambiata, Australia.

Mark Chatterton and Leo Gui, founders, MD & of Ingenious AI, Australia.

Charles Gretton, founder of Hivery, Australia.

Brad Lorge, founder & CEO of Premonition.io, Australia

Brenton O’Brien, founder & CEO of Microbric, Australia.

Samir Sinha, founder & CEO of Robonomics AI, Australia.

Ivan Storr, founder & CEO, Blue Ocean Robotics, Australia.

Peter Turner, founder & MD of Tribotix, Australia.

Yoshua Bengio, founder of Element AI & Montreal Institute for Learning Algorithms, Canada.

Ryan Gariepy, founder & CTO, Clearpath Robotics, found & CTO of OTTO Motors, Canada.

Geoffrey Hinton, founder of DNNResearch Inc, Canada.

James Chow, founder & CEO of UBTECH Robotics, China.

Robert Li, founder & CEO of Sankobot, China.

Marek Rosa, founder & CEO of GoodAI, Czech Republic.

Søren Tranberg Hansen, founder & CEO of Brainbotics, Denmark.

Markus Järve, founder & CEO of Krakul, Estonia.

Harri Valpola, founder & CTO of ZenRobotics, founder & CEO of Curious AI Company, Finland.

Esben Østergaard, founder & CTO of Universal Robotics, Denmark.

Raul Bravo, founder & CEO of DIBOTICS, France.

Ivan Burdun, founder & President of AIXTREE, France.

Raphael Cherrier, founder & CEO of Qucit, France.

Alain Garnier, founder & CEO of ARISEM (acquired by Thales), founder & CEO of Jamespot, France.

Jerome Monceaux, founder & CEO of Spoon.ai, founder & CCO of Aldebaran Robotics, France.

Charles Ollion, founder & Head of Research at Heuritech, France.

Anis Sahbani, founder & CEO of Enova Robotics, France.

Alexandre Vallette, founder of SNIPS & Ants Open Innovation Labs, France.

Marcus Frei, founder & CEO of NEXT.robotics, Germany.

Kristinn Thorisson, founder & Director of Icelandic Institute for Intelligence Machines, Iceland.

Fahad Azad, founder of Robosoft Systems, India.

Debashis Das, Ashish Tupate & Jerwin Prabu, founders (incl. CEO) of Bharati Robotics, India.

Pulkit Gaur, founder & CTO of Gridbots Technologies, India.

Pranay Kishore, founder & CEO of Phi Robotics Research, India.

Shahid Memom, founder & CTO of Vanora Robots, India.

Krishnan Nambiar & Shahid Memon, founders, CEO & CTO of Vanora Robotics, India.

Achu Wilson, founder & CTO of Sastra Robotics, India.

Neill Gernon, founder & MD of Atrovate, founder of Dublin.AI, Ireland.

Parsa Ghaffari, founder & CEO of Aylien, Ireland.

Alan Holland, founder & CEO of Keelvar Systems, Ireland.

Alessandro Prest, founder & CTO of LogoGrab, Ireland.

Frank Reeves, founder & CEO of Avvio, Ireland.

Alessio Bonfietti, founder & CEO of MindIT, Italy.

Angelo Sudano, founder & CTO of ICan Robotics, Italy.

Domenico Talia, founder and R&D Director of DtoK Labs, Italy.

Shigeo Hirose, Michele Guarnieri, Paulo Debenest, & Nah Kitano, founders, CEO & Directors of HiBot Corporation, Japan.

Andrejs Vasiljevs, founder and CEO of Tilde, Latvia.

Luis Samahí García González, founder & CEO of QOLbotics, Mexico.

Koen Hindriks & Joachim de Greeff, founders, CEO & COO at Interactive Robotics, the Netherlands.

Maja Rudinac, founder and CEO of Robot Care Systems, the Netherlands.

Jaap van Leeuwen, founder and CEO Blue Ocean Robotics Benelux, the Netherlands.

Rob Brouwer, founder and Director of Operatins, Aeronavics, New Zealand.

Philip Solaris, founder and CEO of X-Craf Enterprises, New Zealand.

Dyrkoren Erik, Martin Ludvigsen & Christine Spiten, founders, CEO, CTO & Head of Marketing at BlueEye Robotics, Norway.

Sergii Kornieiev, founder & CEO of BaltRobotics, Poland.

Igor Kuznetsov, founder & CEO of NaviRobot, Russian Federation.

Aleksey Yuzhakov & Oleg Kivokurtsev, founders, CEO & COO of Promobot, Russian Federation.

Junyang Woon, founder & CEO, Infinium Robotics, former Branch Head & Naval Warfare Operations Officer, Singapore.

Jasper Horrell, founder of DeepData, South Africa.

Onno Huyser and Mark van Wyk, founders of FlyH2 Aerospace, South Africa.

Toni Ferrate, founder & CEO of RO-BOTICS, Spain.

José Manuel del Río, founder & CEO of Aisoy Robotics, Spain.

Victor Martin, founder & CEO of Macco Robotics, Spain.

Angel Lis Montesinos, founder & CTO of Neuronalbite, Spain.

Timothy Llewellynn, founder & CEO of nViso, Switzerland.

Francesco Mondada, founder of K-Team, Switzerland.

Jurgen Schmidhuber, Faustino Gomez, Jan Koutník, Jonathan Masci & Bas Steunebrink, founders, President & CEO of Nnaisense, Switzerland.

Satish Ramachandran, founder of AROBOT, United Arab Emirates.

Silas Adekunle, founder & CEO of Reach Robotics, UK.

Steve Allpress, founder & CTO of FiveAI, UK.

John Bishop, founder and Director of Tungsten Centre for Intelligent Data Analytis, UK.

Joel Gibbard and Samantha Payne, founders, CEO & COO of Open Bionics, UK.

Richard Greenhill & Rich Walker, founders & MD of Shadow Robot Company, UK.

Nic Greenway, founder of React AI Ltd (Aiseedo), UK.

Daniel Hulme, founder & CEO of Satalia, UK.

Bradley Kieser, founder & Director of SMS Speedway, UK.

Charlie Muirhead & Tabitha Goldstaub, founders & CEO of CognitionX, UK.

Geoff Pegman, founder & MD of R U Robots, UK.

Demis Hassabis & Mustafa Suleyman, founders, CEO & Head of Applied AI, DeepMind, UK.

Donald Szeto, Thomas Stone & Kenneth Chan, founders, CTO, COO & Head of Engineering of PredictionIO, UK.

Antoine Biondeau, founder & CEO of Sentient Technologies, USA.

Steve Cousins, founder & CEO of Savioke, USA.

Brian Gerkey, founder & CEO of Open Source Robotics, USA.

Ryan Hickman & Soohyun Bae, founders, CEO & CTO of TickTock.AI, USA.

John Hobart, founder & CEO of Coria, USA.

Henry Hu, founder & CEO of Cafe X Technologies, USA.

Zaib Husain, founder and CEO of Makerarm, Inc.

Alfonso Íñiguez, founder & CEO of Swarm Technology, USA.

Kris Kitchen, founder & Chief Data Scientit at Qieon Research, USA.

Justin Lane, founder of Prospecture Simulation, USA.

Gary Marcus, founder & CEO of Geometric Intelligence (acquired by Uber), USA.

Brian Mingus, founder & CTO of Latently, USA.

Mohammad Musa, founder & CEO at Deepen AI, USA.

Elon Musk, founder, CEO & CTO of SpaceX, co-founder & CEO of Tesla Motor, USA.

Rosanna Myers & Dan Corkum, founders, CEO & CTO of Carbon Robotics, USA.

Erik Nieves, founder & CEO of PlusOne Robotics, USA.

Steve Omohundro, founder & President of Possibility Research, USA.

Jeff Orkin, founder & CEO, Giant Otter Technologies, USA.

Greg Phillips, founder & CEO, ThinkIt Data Solutins, USA.

Dan Reuter, found & CEO of Electric Movement, USA.

Alberto Rizzoli & Simon Edwardsson, founders & CEO of AIPoly, USA.

Dan Rubins, founder & CEO of Legal Robot, USA.

Stuart Russell, founder & VP of Bayesian Logic Inc., USA.

Andrew Schroeder, founder of WeRobotics, USA.

Stanislav Shalunov, founder & CEO of Clostra, USA

Gabe Sibley & Alex Flint, founders, CEO & CPO of Zippy.ai, USA.

Martin Spencer, founder & CEO of GeckoSystems, USA.

Peter Stone, Mark Ring & Satinder Singh, founders, President/COO, CEO & CTO of Cogitai, USA.

Michael Stuart, founder & CEO of Lucid Holdings, USA.

Madhuri Trivedi, founder & CEO of OrangeHC, USA.

Massimiliano Versace, founder, CEO & President, Neurala Inc, USA.

Reza Zadeh, founder & CEO of Matroid, USA.

AI Principles Japanese

アシロマの原則

これらの原則は、2017年アシロマ会議 (ビデオはこちら)に関連して、こちらに記載されているプロセスを通じて策定されました。

Click here to see this page in other languages:  English Chinese   German Korean     Russian

世界中の人々が毎日使用する役に立つツールとして、すでに人工知能は利用されています。人工知能の開発が今後以下で示す原則に基づいて行われるならば、それは数十年さらに数世紀にわたる将来において、人々に役立ち豊かな暮らしをもたらしうるでしょう。

研究課題

1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

  • 将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
  • 人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
  • 人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
  • 人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。

3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

倫理と価値

6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

長期的な課題

19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。

謝辞: 本和訳にあたり、山川宏氏をはじめとするNPO法人全脳アーキテクチャ・イニシアティブの皆様、および、福井綾子(株式会社アラヤ)さまにご協力いただいたことに感謝いたします。

今日まで、この原則には1,197名の AI・ロボット工学研究者たちが署名し、その他2,320名が署名しています。(これらの原則がどのように策定されたかについては こちら で、そしてその議論への参加は こちらをご覧ください。) 署名リストは英語版をご覧ください。

AI FAQ Japanese

Get Involved Japanese

Future of Life Instituteに参加しましょう

Click here to see this page in other languages: English Chinese china_flag  Russian

ボランティア

FLIは現在ボランティアによって運営されており、メンバーが集まり進行中の、および予定されているプロジェクトを議論するブレインストーミング会議に基づいています。私たちの活動についての導入として、私たちの最初の1年の要約ビデオ をご覧下さい。ボランティアに興味がある場合は、申込書. にご記入ください。
私たちは、多くのボランティア申込を頂戴しております。そのため、あなたのスキルや興味と私たちの現在のプロジェクトとの間に一致がある場合のみご連絡いたします。

寄付

FLIは完全に民間の寄付 によってサポートされています。私たちは、個人や財団からの寄付を受け付けています。私たちは、501C(3)の非営利団体であるため、あなたの寄付は米国では非課税となります。納税申告のために私たちの組織番号(EIN)が必要な場合は、47-1052538です。私たちをサポートしたい場合は、寄付ボタンをクリックして下さい。あなたの寛大なサポートに事前に感謝いたします!


また、Amazonのスマイルプログラムを通じてあなたがオンラインで買い物をするたびにAmazonが私たちへ寄付するように設定することも可能です。

ウェブサイト

私たちは、このウェブサイトを壊滅的なリスクを回避し技術を有益に保つ方法についての良質な情報を提供しダイナミックで広く読まれるソースにするために賢明に努力しています。興味のある記事にコメントを追加したり、ソーシャルメディア上で記事を共有したり、このサイトを友人に広めることで、私たちの目標を達成する手助けをして下さい。

研究

頑丈で有益なAIシステムを作るために研究を行うことに興味がある場合は、私たちの研究助成金を申請して下さい。私たちの最初の助成金プログラムの締め切りは2015年3月1日でしたが、私たちは今後もより多くの機会を発表していきたいと考えています。私たちが現在資金を提供している研究の詳細については、提案要求助成金に関するよくある質問を参照してください。

実存する及び壊滅的なリスクに関するキャリア

私たちのパートナー組織の多くは、年間を通じて求人を投稿しています。私たちはこちらに完全な現在の求人をまとめたリストを用意しております。