Team Japanese

フューチャー オブ ライフ インスティテュート(FLI)

Click here to see this page in other languages:  English US_Flag Chinese   Russian 

ミッション: 新しい技術と挑戦を考察し、人類のための建設的な道へのかじ取りを含め、生命保護のためのイニシアティブと研究をサポートし、促進させ、未来への楽観的ビジョンを啓発する。

SAB_short

こんにち私たちは、石器時代と比べてすべての面で良くなったと感謝できる技術を持っています。そして科学技術は、その進化の速度を上げ続けていくでしょう。

当団体は、未来の最も強力なテクノロジーが、人類にとって有益であるよう働きかける慈善事業と奉仕活動をする組織です。より小さなパワーである重火器のような技術から間違いを学習し、私たち人類はそのリスクを大幅に最小化することを学びました。よりパワフルな核兵器、合成生物学、未来の強力な人工知能などは、間違いから学ぶよりも前もって計画するほうがより良い戦略といえるでしょう。当団体は、こうした問題をまず避けるための研究やその他の努力をサポートします。

現在、当団体では人工知能のメリット(有益)に焦点を当て続けており、このほか核兵器 やバイオテクノロジーのリスク低減の方法を探求しています。FLIはボストンを拠点とし、ボストン付近や世界中からの科学者、学生、慈善家を歓迎します。こちらは、当団体初年度の活動ハイライトについての 動画です。

創立者

ジャン・タリン, Skype共同創始者

SkypeとKazaaの創設エンジニア。 また、実存リスク研究ケンブリッジセンター(CSER)の創設者であり、慈善的にフューチャー・オブ・ヒューマニティー・インスティテュート、グローバル・カタストロフィック・リスク・インスティテュート、マシン・インテリジェンス・リサーチ・インスティテュートなど、その他の実存リスク研究組織を支援している。エストニア大統領学術顧問。

マックス・テグマーク, マサチューセッツ工科大(MIT)教授

型破りのアイデアと冒険への情熱、精密宇宙論から現実の究極的本質までの幅広い科学的興味から「マッド・マックス」として知られ、その興味のすべてが探求された人気新著に『Our Mathematical Universe』がある。MIT物理学教授として、200ページ以上のテクニカルな論文を執筆し、十数個の科学ドキュメントを特集。スローン・デジタル・スカイサーベイ(SDSS)との銀河団に関するコラボレーションは、科学雑誌の「ブレークスルー・オブ・ザ・イヤー2003」の一等を受賞。また、アンソニー・アギレーとともにファンデーショナル・クエスチョンズ・インスティテュート(FQXi)の創立者でもある。

tegmark

ヴィクトリヤ・クラコブナ, DeepMind社の科学研究員

Google DeepMind社のAI安全科学研究員。ハーバード大学における博士論文:統計とマシンラーニングは、解釈可能なモデル構築にフォーカスしている。数多くの顕著な業績には、国際数学オリンピックでの銀メダリスト、エリザベス・ローウェル・プットナム賞受賞などがある。

krakovna

アンソニー・アギレー, カリフォルニア大学サンタクルーズ校教授、FLI共同創立者

カリフォルニア大学サンタクルーズ校の情報物理学教授。理論宇宙論、重力、統計力学やその他物理分野の研究を行う。またサイエンス・アウトリーチに強い関心があり、多くの科学ドキュメントに登場する。科学や技術の予測プラットフォームMetaculus.comとファンデーショナル・クエスチョンズ・インスティテュート(FQXi)の創立者でもある。

aguirre

メイア・チタ・テグマーク, ボストン大学博士候補

哲学の教養バックグラウンドとともに、人類の未来とその全体像に対する問いに強い関心がある。ボストン大にてオーティズム研究エクセレンスセンターを指揮。非定型言語の開発、注意の仕組み、学習戦略といった、発達心理学に関する幅広いトピックに関心を寄せている。

chita-tegmark

Alan Alda

アラン・アルダ, 俳優、ライター、ディレクター、科学コミュニケーター

国際的な俳優、ライター、ディレクター。オスカー賞、トニー賞、エミー賞など数々の賞にノミネートされ、著書にベストセラーとなった『all in the same year (2005)』がある。一般の人々に科学の理解を広める活動を続けて20年以上となる。客員教授であるストーニー・ブルック大学でアラン・アルダ科学コミュニーション・センター設立を支援した。11歳の子供に複雑な科学の概念を説明する、毎年行われる科学者の国際的コンテスト、フレイム・チャレンジを創設。2008年よりニューヨークで例年行われ、発足からのべ100万人以上が参加したワールド・サイエンス・フェスティバルに物理学者のブライアン・グリーンとともにプレゼンテーターを務める。このほかサイエンス・アメリカン・フロンティアズ、ヒューマン・スパーク、PBSテレビのブレインズ・オン・トライアルなどで、世界の著名な科学者をインタビューするホストを務めている。

Nick Bostrom

ニック・ボストロム, オックスフォード大学フューチャー・オブ・ヒューマニティ・インスティテュート(FHI) ディレクター

オックスフォード大学の哲学教授、同大マーティン・スクールのフューチャー・オブ・ヒューマニティ・インスティテュートと、プログラム・オン・ザ・インパクツの創立ディレクター。約200の出版物の著者であり、そのなかには『Anthropic Bias』『Global Catastrophic Risks』『Human Enhancement』、スーパーインテリジェンスについての『Paths, Dangers, Strategies』(OUP, 2014)がある。実存リスク、シミュレーション仮説、人類学、AIの安全性、グローバル帰結主義といった分野でのパイオニアとして知られる。人類進化のための継続的追求によりユージーン・R・ギャノン賞を受賞。フォーリン・ポリシー誌よりブローバル・シンカー100人のうちの1人に名前を挙げられる。

Erik Brynjolfsson

エリック・ブリニョルフソン, マサチューセッツ工科大学デジタルビジネスMITセンター・ディレクター

MITスローンスクール経営学教授、デジタルビジネスMITセンター・ディレクター、MITスローン・マネジメント・レビューの教授、インフォーメーション・システム・ネットワークの編集。インターネットなど、インフォメーション・テクノロジーが経営にどのように有効に使えるかということが研究と授業の中心である。著作には『Race Against the Machine: How the Digital Revolution is Accelerating Innovation, Driving Productivity, and Irreversibly Transforming Employment and the Econom』と、『The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies』があり、両書ともアンドリュー・マッカフィーとの共著である。

George Church

ジョージ・チャーチ, ハーバード大学遺伝学教授

ハーバード・メディカルスクールの遺伝学教授、またハーバード大学、マサチューセッツ工科大学(MIT)の健康科学とテクノロジー学の教授。ウォルター・ギルバートとともに最初の遺伝配列方法を開発し、ヒューマン・ゲノム・プロジェクトを支援する。分子多重とタグ(molecular multiplexing and tags)、相同遺伝子組み換え法、DNA配列の合成などの概念を啓発する責任者。2005年にパーソナル・ゲノム・プロジェクトと合成生物学の研究に着手した。ハーバード大とMITにて米エネルギー省科学部バイオエネルギー研究センター所長、同じくハーバード大とMIT、そしてワシントン大学のゲノム科学エクセレンス・ヘルスセンター国立研究所所長。ネイチャーEMBOモレキュラー・システムズ・バイオロジーの上級編集員。

Morgan Freeman

モーガン・フリーマン, 俳優、ディレクター、ナレーター、科学コミュニケーター

俳優、映画ディレクター、ナレーター、科学コミュニケーター。1989年にゴールデン・グローブ賞、2004年にアカデミー賞、2005年にオスカー賞を受賞。2010年より、テレビの科学ドキュメンタリー『Through the Wormhole』のナレーターを務める。

Alan Guth

アラン・グース, マサチューセッツ工科大学物理学教授

宇宙の起源説として最も広く認められた宇宙の膨張論によって、米グルーバー賞と基礎物理学賞を受賞。物質の亜原子粒子の小さい点がどれだけ速く、そして反復してそのサイズを倍増するかを示したことで、ビッグ・バンを起こすメカニズムを提唱し、その予測は実験的に確証されている。研究の中心は、素粒子物理学は宇宙の歴史について何を語れるのか、宇宙論は自然の基本法について何を語るか、といった初期の宇宙の素粒子物理学論の適用。

Stephen Hawking

ステファン・ホーキング, ケンブリッジ大学理論宇宙学センター研究ディレクター

2012年に量子重力理論におけるパイオニア的働きにより基礎物理学賞を受賞。この受賞内容には、ブラック・ホールの蒸発を起こすホーキング放射の予測が含まれる。そしてこの同じプロセスが、なぜ私たちの宇宙が膨張する間に重力波を生み出すかを説明し、これは2014年にBICEP2実験によって確認された。ケンブリッジ大学の理論物理学センターの研究ディレクター、同大の前ルーカス教授。著書に『ホーキング、宇宙を語る』、『A Briefer History of Time』、『ホーキング、未来を語る』などがある。

Christof Koch

クリストフ・コッホ, 脳科学アレン研究所最高科学責任者

意識の神経基盤におけるパイオニア的業績を作り、カリフォルニア工科大学で25年間教授を務める。彼の他分野にまたがる感心は、理論的、計算的、実験的神経科学に統合され、2つの有名な著書『Consciousness: Confessions of a Romantic Reductionist』『The Quest for Consciousness: A Neurobiological Approach』、さらに技術本である『Biophysics of Computation: Information Processing in Single Neurons and Methods in Neuronal Modeling: From Ions to Networks』が出版されている。

Elon Musk

イーロン・マスク, スペースX とテスラモーターズ創立者

スペースX社の最高経営責任者、最高技術責任者。テスラモーターズの共同創立者で最高経営責任者。近年、競争力のある再生可能エネルギーと技術(テスラ、ソーラーシティ)、また手ごろな価格の宇宙飛行と宇宙植民の将来的現実(スペースX)に力を注いでいる。地球規模の問題や地球のリスクにおける技術リーダーの責任について語っており、進化したAIの潜在的リスクに焦点を当てている。

Saul Perlmutter

ソール・パールマッター, カリフォルニア大学バークレー校教授

宇宙の加速膨張を同時に発見した2つのチームのうち一つを率いて、2011年にノーベル物理学賞を受賞。カリフォルニアバークレー校の物理学教授でローレンス・バークリー国立研究室の天体物理学者。研究以外にも、科学教育やアウトリーチ活動に強い関心がある。数々の人気論文を執筆し、天体学や宇宙学のテレビドキュメンタリーに出演している。

Martin Rees

マーティン・リース, ケンブリッジ大学宇宙物理学、天体物理学名誉教授

ラドローのリース男爵、王室天文官、ケンブリッジ大学の宇宙学、宇宙物理学の名誉教授。主に宇宙物理学と宇宙学の500以上の研究論文、8つの著書(そのうち6つはリーダーシップについて)、教養科目や科学について多くの雑誌や新聞の記事を執筆。2005年に貴族院に任命され、元ケンブリッジ大学トリニティ・カレッジ学寮長。王立協会、王立天文学会、英国学術協会メンバー。王立天文学会の金メダル、バルザン賞、ピーター・グルーバー財団宇宙学賞、世界文化カウンシルのアインシュタイン賞、スウェーデン王立アカデミー・クラフォード賞などを受賞。

Francesca Rossi

フランチェスカ・ロッシ, IBM とパドヴァ大学研究員

IBM T.J. ワトソンリサーチセンターの科学研究員。イタリアのパドヴァ大学の教員で、現在はIBM T.J. ワトソンリサーチセンターの科学研究員であるため、大学教員職を休職中。制約推論、選択(嗜好)、マルチエージェント・システム、コンピューターの社会選考を含む、人工知能の研究を行っている。こうした研究やその他、人工知能についての論文を170以上発表した。制約プログラミング(ACP)国際交流協会と人工知能国際共同会議(IJCAI)の会長。現在、人工知能研究ジャーナル(JAIR)副編集長を務め、AAAIとECCAIのフェローでもある。

Stuart Russell

スチュアート・ラッセル, カリフォルニア大学バークレー校人工知能学教授

バークレー校のコンピュータ・サイエンスの教授で、インテリジェンス・システムズセンターのディレクター。人工知能に関する幅広いトピックの論文を100以上発表。テキスト本『Artificial Intelligence: a Modern Approach』や『The Use of Knowledge in Analogy and Induction』、『Do the Right Thing: Studies in Limited Rationality』などの著作で知られる。アメリカ国立科学財団の大統領青年研究者賞(PYI)とComputers and Thought Awardを受賞。コンピューター科学分野の国際学会であるAssociation for Computing Machineryとアメリカ人工知能学会のフェロー。

Frank Wilczek

フランク・ウィルチェック, マサチューセッツ工科大学(MIT)物理学教授

MIT物理学教授で2004年にstrong nuclear force (強い核の力)の研究に対してノーベル賞を受賞。漸近的自由性、量子色力学の開発、アクシオンの創案、量子統計(anyons)の新しいフォームの発見と開発を行った。プリンストン大学を卒業したわずか21才の時に、理論物理学者のデイビッド・グロスとともに陽子と中性子の中でクォークを共に固定する色荷グルーオンの属性を定義した。

コアチーム

アリエル・コーン

FLIのメディアとアウトリーチを担当。科学コミュニケーションの向上を目的とするMag10 Media を創設した。英文学、物理、地球物理学を学び、広告、マーケティング、科学研究といった業界の経歴を持つ。NASA、米エネルギー省国立研究室、マサチューセッツ工科大学、バージニア工科大学などで勤務経験がある。

conn

ジェシカ・クッシンズ

FLIのAI政策責任者。短期・長期のプログラム、ストラテジー、AI政策を開発している。将来、実用化が期待される先端技術の倫理とガバナンス(統治)に情熱を傾けており、ボストンのケンブリッジにあるベルファー科学・国際関係センター、フューチャー・ソサエティにて5年以上働いている。ハーバード・ケネディスクールにて公共政策学修士号を取得。また、カリフォルニア・バークリー校にて人類学学士を最優秀の成績で卒業。ハフィントンポスト、バイポリティカル・タイムス、サイコロジー・トゥデーなどでコラムやブログを連載。ロサンゼルス・タイムスやCNBCなどでも記事を執筆した。

Cusins

タッカー・ダヴェイ

2016年にボストン大学を卒業。政治学を専攻し、哲学、ヒスパニック研究を学ぶ。大学の最終学年の時に実存リスク、効果的利他主義の思想に出会い、ホンジュラスの孤児院で夏季ワークをした後に、この2つの思想の交点に注力した。FLIでは主に、気候変動や人工知能についての研究や執筆をしている。特に関心を持つのが、科学技術と社会、心理学と実存リスクの間の関係性である。

conn

リチャード・マラーケンブリッジ・セマンティックス社のアドバンス・アナリティクス・ディレクター

知識統合プラットフォーム企業で、製薬の発見から詐欺の検出等のアプリケーションを出しているケンブリッジ・セマンティックス社で、人工知能とテキスト解析の研究を指揮している。Web マーケティング促進企業のMarketMuse社の役員をしており、このほか他のスタートアップ企業や非営利団体で人工知能、ナレッジマネジメント、持続可能性についてのアドバイザーをしている。人工知能アルゴリズム開発、プロダクト・チームマネジメント、金融や医療、技術企業におけるCTO(最高技術責任者)職などにおいて、十数年の経歴がある。コロンビア大学にてコンピュータ・サイエンスと人工知能の学位を取得。自然哲学にも精通している。

mallah

ルーカス・ペリー

知覚生命の進化における、科学と技術の役割について情熱を注いでいる。ネパールの寺院にて学び、そこで瞑想リトリートと修行に従事する。人間の感覚の浸食、引用の主観-客観的フレームなどに取り組んでいる。メレオロジー的虚無主義と人間自身の幻想が、急進的ポストヒューマン(人間進化)帰結主義者の倫理形成にどのように寄与するかを探求するプロジェクトに取り組んでいる。生物保護主義とトランスヒューマニズムの間の対立を解くことにも取り組んでいる。

perry

デイビッド・スタンリー,ボストン大学研究員

ボストン大学の計算論的神経科学を専門とする博士研究員。ディープ・ニューラル・ネットワーク、ニューラル・ネットワーク・ダイナミクス、神経性障害についての研究を発表した。人工知能と神経科学の交点について、長期にわたって関心がある。次世代のデータ解析技術の脳機能理解への適用と、関連する神経学の技術が倫理的に使用されることを目指している。

stanley

上位寄付者

Elon Musk

イーロン・マスク, スペースX とテスラモーターズ創立者

スペースX社の最高経営責任者、最高技術責任者。テスラモーターズの共同創立者で最高経営責任者。近年、競争力のある再生可能エネルギーと技術(テスラ、ソーラーシティ)、また手ごろな価格の宇宙飛行と宇宙植民の将来的現実(スペースX)に力を注いでいる。地球規模の問題や地球のリスクにおける技術リーダーの責任について語っており、進化したAIの潜在的リスクに焦点を当てている。

tallinn

ジャン・タリン, Skype共同創始者

SkypeとKazaaの創設エンジニア。 また、実存リスク研究ケンブリッジセンター(CSER)の創設者であり、慈善的にフューチャー・オブ・ヒューマニティー・インスティテュート、グローバル・カタストロフィック・リスク・インスティテュート、マシン・インテリジェンス・リサーチ・インスティテュートなど、その他の実存リスク研究組織を支援している。エストニア大統領学術顧問。

wage

マット・ウェイジ

プリンストン大学在学時に哲学の卒業論文で表彰される。現在、金融取引企業に勤務し、その収入のおよそ半分を慈善事業に寄付している。

stiennon

ニサン・スティーンノン

スタンフォード大学で数学の博士号を取得し、現在はGoogle 社でソフトウエア・エンジニアとして勤務している。Applied Rationality and Cognitionにて、影響力のあるアプリケーションについて、技術的に才能のある青年のための数学キャンプ夏季プログラムで教えている。

harris

サム・ハリス, プロジェクト・リーズン

『The End of Faith』『Letter to a Christian Nation』『The Moral Landscape』『Free Will』『Lying, and Waking Up』といった著書のベストセラー作家。『The End of Faith』は、2005 PEN 賞のノンフィクション部門を受賞。神経科学、倫理学、宗教、スピリチュアル、暴力、人間の論理的思考など、手掛ける著書や一般公開講座の題材は幅広い。通常注目しているものに、「自己と世界の認識拡大が、どのように生きるべきかという人間の意識を変えるのか」がある。

trefethen

ジェイコブ・トレフェセン, ハーバード大学

ハーバード大学の経済学部系列のヘンリー・フェロー。それ以前には、ケンブリッジ大学で哲学を専攻し、2014年に卒業。倫理的キャリアと利他的精神の人々がどのようなキャリアを選ぶべきかをコーチするケンブリッジの組織、80,000 Hoursを創設した。研究の関心は、倫理学と経済学の交点にある。

AI Open Letter Japanese

公開質問状

堅牢かつ有益な人工知能のための研究優先事項

Click here to see this page in other languages: English US_Flag Chinese  German Russian  

人工知能(AI)研究は、その端緒からさまざまな問題やアプローチを探求してきました。過去20年ほどにわたり、こうした研究の主眼は、一定の環境において知覚し、行動するシステムである知的エージェントの構築を巡る問題に置かれてきました。

この文脈における知能の基準とは、統計的および経済的な合理性の概念に関するものです(わかりやすく言えば、よい決定や計画、または推論を行なう能力のこと)。確率的表現と統計的学習方法の採用によりAI、機械学習、統計学、制御理論、脳神経学およびその他の分野の大幅な融合や相互交流が生まれました。データや処理能力を共通の理論的枠組みで取り扱えるようになったことで音声認識、画像分類、自動運転車、機械翻訳、脚式移動や質問応答システムなどのさまざまな構成要素となるタスクにおいて、目覚ましい成功が成し遂げられてきました。

こうした分野や他の領域での能力が、研究室内での研究からビジネス応用が可能なレベルになるに従って、パフォーマンスのわずかな改善が顕著な経済的価値をもたらすようになるため、研究への投資が拡大するという好循環が定着しました。現在、AI研究が着実に進歩を遂げており、その社会に対する影響は拡大傾向にあるというコンセンサスが広く存在しています。文明のあらゆる果実が人間の知能の産物であることを考えれば、潜在的な利益は莫大なものになるでしょう。AIのもたらすツールが人間の知能を拡大したときに、わたしたちが何を成し遂げうるか予測は不可能ですが、疾病や貧困の根絶は実現不可能ではありません。AIのもつ大きな可能性を鑑みれば、潜在的な不利益を避けつつ、その恩恵をいかに享受するかについて検討することは有益でしょう。

AI研究の進歩により、AIの能力向上のみならず、AIの社会的利益をも最大化するための研究へ注力すべき好機がもたらされました。こうした考察が、「AAAI 2008–09長期的なAIの将来に関する大統領パネル (Presidential Panel on Long-Term AI Futures, Horvitz and Selman 2009) 並びにAIの将来的な影響に関するその他のプロジェクト及びコミュニティとしての取り組み」に対する動機となりました。

わたしたちは、ますます有能なAIシステムの確保を目指した研究が、堅牢で有益であることを推奨します。わたしたちがAIに望むことをAIシステムはせねばなりません。添付の研究優先事項ドキュメント は、AIの社会的利益の最大化を促進する、そのような研究の方向性の多くの例を示しています。この研究は必然的に学際的です。なぜなら、社会とAIが関わるからですその対象には経済学、法学および哲学からコンピューターセキュリティ、形式的方法、そしてAIそのものの様々な支流までが含まれています。

堅牢で有益なAIシステムを構築する研究は、重要で時宜にかなっており、存在する具体的な研究の方向性を追求することができるとわたしたちは信じています。

現在までに、8,000名の人によってこの公開状は署名されています。 署名者リストは、 [英語バージョン] をご覧ください。

Open Letter on Autonomous Weapons Japanese

この公開状は、7月28日に行われた国際人工知能会議(IJCAI) 2015 会議のオープニングで発表されたものです。

本会議のプレスリリースをご覧になりたいプレス関係者は、Toby Walshまでご連絡ください。

主催、署名検証、リストマネジメントはFLIが後援しております。この公開状に関する運営上のご質問につきましてはMax Tegmarkまでご連絡ください。

自律型兵器:人工知能とロボット工学研究者からの公開質問状

Click here to see this page in other languages : English German Russian 

自律型兵器は、人間の介入なしに攻撃対象を選択し、交戦します。こうしたロボット兵器には、例えば事前に定義された基準に合う人々を探し出し殺害することができる、武装したクアッドコプター(回転翼機)などが含まれますが、人間が全ての攻撃対象を決定できる巡行ミサイルやリモートコントロールのドローンなどは含まれません。人口知能 (AI) 技術は、このような兵器システムの配備が、実質的に不法であれば数十年ではなく、あと数年で達成可能となるポイントにたどり着きました。この代償は大きいです: 自律型兵器は、戦争行為における火薬、核兵器に続く第3の革命兵器と評されてきました。

自律型兵器に関してなされてきた多くの議論は、例えば人間の兵士をマシンに代えることは所有者にとって負傷者の削減につながるため良いことですが、それによって戦闘への敷居を低くするという悪い面があります。こんにち、人類における重要な質問は、グローバルな人口知能兵器の軍拡競争を始めるか、もしくはそれを最初から予防するか、というものです。

もし、いくつかの主な軍事大国が人工知能兵器の開発を推し進めたら、グローバルな軍拡競争は避けようがなく、この技術的軌跡の終点は明らかです:人工知能兵器が明日のカラシニコフになるのです。核兵器のように、人工知能兵器はコストがかかったり、材料の入手が困難ではありません。ですから、人口知能兵器はあらゆるところに偏在し、主な軍事大国にとって、その大量生産は安く済むことになります。こうした兵器がブラックマーケットに現れ、テロリスト、民衆をよりコントロールしたいと願う独裁者、民族浄化を犯したいと願う軍隊などの手に渡るのは時間の問題です。自律型兵器は暗殺、国の不安定化、住民の鎮圧、特定民族グループの選択的殺害といったタスクには最適です。ですから、私たちは軍事的な人工知能兵器が人類にとって利益があるとは思いません。人々を殺すための新しいツールをつくることなしに、人口知能が人間の戦いの場をより安全にする方法はたくさんあります。

多くの化学者や生物学者が化学兵器や生物兵器の製造に興味が無いように、大多数の人工知能研究者たちも人口知能兵器をつくることに興味はありません。そして研究者以外の人々が、人口知能兵器をつくることで起こる、世間の潜在的な人口知能に対する大きな反動によって未来の社会の利益を削ぎ、人口知能の研究分野を汚すことを人工知能研究者たちは望んではいません。

実際、多くの物理学者が宇宙核兵器とレーザー兵器の製造禁止協定に協力したと同様に、化学者や生物学者らは、化学兵器と生物兵器を禁止することに成功した国際協定を広範囲に支援してきました。

要約すると、人口知能には人類の利益となる大きな可能性があると私たちは信じており、この分野の目標は、そのようにするべきです。人口知能兵器の軍拡を始めることは悪いアイデアであり、意義ある人間のコントロールを超える攻撃的自律型兵器への禁止令によって予防されるべきです。

現在までに、4,502名の人口知能やロボット工学研究者、その他26,215名によってこの公開状は署名されています。 署名者リストは、 [英語バージョン] をご覧ください。

Superintelligence survey Japanese

Click here to see this page in other languages: English  Chinese   French  German Russian 

人工知能の未来 - あなたはどう考えますか?

マックス・テグマークの人工知能についての新書, Life 3.0: Being Human in the Age of Artificial Intelligence は、ますます進化した人工知能、おそらくすべての領域で人間レベルをはるかに凌駕するスーパーインテリジェンスがどのように世の中に影響を及ぼすかについて探究しています。本書のためにマックス は、専門家たちの予測を調査し、広範囲の視点から何が起こるか、また何が起こりうるかについて研究しています。今は、対話を広げるときです。できるだけ多くの人々の利益となる未来をつくろうとするなら、私たちは可能な限り多くの声や意見を取り込む必要があります。そして、あなたの意見も含まれるのです! 以下は、本書内に収録されているアンケートに答えた人々の回答です。この対話に参加するには、 こちらのアンケート にお答えください。

人工知能の未来をどれだけ早く喜んで迎えるべきか、または恐れるべきか?

人工知能をけん引する研究者たちの間でさえ、意見を二分する最初の大きな論争は、何が起こるかについての予測です。 いずれ人工知能の未来が起こるとしたら、人工知能は全ての知的課題において人間を超えるのでしょうか。そしてそれは、よいことなのでしょうか?

 スーパーインテリジェンスを求めますか?

私たち人間が文明を愛するするのは知能があるからであり、人間の知能は機械知能を使ってさらに増幅することが潜在的に可能です。しかし、スーパーインテリジェンスがいつしか私たちをコントールすることになり、スーパーインテリジェンスと人間とを同調することが目的となるのではないか、ということを心配している人もいます。あなたはスーパーインテリジェンス、つまり人間のレベルをはるかに超えた汎用知能を望みますか?

未来はどのようあるべきでしょうか?

著書のなかでテグマークは、「何が起こるか」について、まるで未来があらかじめ設定されているかのように受け身で問うべきではないと主張しています。その代りに、何が起こって欲しいかを問い、その未来を創造するよう努力するべきだといいます。

スーパーインテリジェンスが到来したら、誰が制御下にあるべきですか?

いつか人工知能のヘルパーを入手できるとしたら、あなたは人工知能に意識、つまり主観的経験を求めますか?

未来の文明は何を努力すべきですか?

生命が宇宙に広がることを望みますか?

理想的な社会とは?

本書Life 3.0でマックスは、スーパーインテリジェンスが開発された場合とされなかった場合の次の千年に何が起こりうるか、可能性がある12のシナリオを調査しています。

そのシナリオについてここに簡単にまとめた内容をみることができますが、プラス面とマイナス面それぞれのより詳しい内容を知りたい場合には、この本の4章をご覧ください。こちらがこれまでに人々が提起するオプションの概要です:


マックスの新書を入手していただければ、人工知能とは何か、どのような仕組みで動くのか、現在の生活にどのような影響を及ぼしているのか、その他未来が何をもたらすだろうか、といった説明とともにさらに詳しい将来の可能性のあるシナリオを学ぶことができます。

上述の結果は定期的に更新されます。 こちらのアンケートに参加して、あなたの意見を加えて、下記のコメント欄で意見をシェアしてみてください。

An Open Letter to the United Nations Convention on Certain Conventional Weapons (Japanese)

自律兵器に対する公開状

Click here to see this page in other languages: English Chinese   German Russian 

2017年オーストラリアのメルボルンで開催されたIJCAI(International Joint Conference on Artificial Intelligence:人工知能に関する国際合同会議)での自律兵器に関する発表に対する公開状。この会議の焦点は、戦場における自律兵器の技術的、法的、また社会的な問題点です。

私たちは、自律兵器に転用可能な人工知能やロボット工学の技術を構築する企業として、この警告を発する責任があると感じています。

私たちは、致死性の自律兵器システムに関する、政府専門家グループ(GGE:Group of Governmental Experts)を設立するための国連の特定従来兵器(CCW:Certain Conventional Weapons)に関する条約会議の決定を温かく歓迎します。私たちの研究者や技術者の多くは、あなたの審議に技術的アドバイスを提供したいと考えています。

私たちはインドのアマンデップ・シン・ギル大使のGGE議長任命を称賛いたします。私たちは、これらの兵器の軍拡競争の防止、民間人による誤用の防止、これらの技術による社会の不安定化への対策について、GGEの締約国が全力を尽くすことを歎願します。

本日開始されたGGEの最初の会議は、一部の国が国連への資金拠出を怠ったために中止されました。私たちは、11月に予定されているGGEの第1回会合で、締約国が努力を倍増させることを強く求めます。

致死性自律的兵器は、戦争に第三の革命をもたらします。一度開発されてしまえば、武力による紛争はこれまで以上の規模で、人間の理解を超えた速度で行うことが可能になります。これらの兵器は、恐怖の兵器になりえます。テロリストなどの武装勢力が無防備な一般市民に使用する可能性や、ハッキングによる望ましくない結末も起こりえます。時間はあまり残されていません。パンドラの箱は、一度開けてしまったら、もう二度と閉じることはできないのです

これらの理由から、わたしたちは、これらの機器から人類を守るすべを見つけるために、締結国に忠誠を従います。

FULL LIST OF SIGNATORIES TO THE OPEN LETTER

Tiberio Caetano, founder & Chief Scientist at Ambiata, Australia.

Mark Chatterton and Leo Gui, founders, MD & of Ingenious AI, Australia.

Charles Gretton, founder of Hivery, Australia.

Brad Lorge, founder & CEO of Premonition.io, Australia

Brenton O’Brien, founder & CEO of Microbric, Australia.

Samir Sinha, founder & CEO of Robonomics AI, Australia.

Ivan Storr, founder & CEO, Blue Ocean Robotics, Australia.

Peter Turner, founder & MD of Tribotix, Australia.

Yoshua Bengio, founder of Element AI & Montreal Institute for Learning Algorithms, Canada.

Ryan Gariepy, founder & CTO, Clearpath Robotics, found & CTO of OTTO Motors, Canada.

Geoffrey Hinton, founder of DNNResearch Inc, Canada.

James Chow, founder & CEO of UBTECH Robotics, China.

Robert Li, founder & CEO of Sankobot, China.

Marek Rosa, founder & CEO of GoodAI, Czech Republic.

Søren Tranberg Hansen, founder & CEO of Brainbotics, Denmark.

Markus Järve, founder & CEO of Krakul, Estonia.

Harri Valpola, founder & CTO of ZenRobotics, founder & CEO of Curious AI Company, Finland.

Esben Østergaard, founder & CTO of Universal Robotics, Denmark.

Raul Bravo, founder & CEO of DIBOTICS, France.

Ivan Burdun, founder & President of AIXTREE, France.

Raphael Cherrier, founder & CEO of Qucit, France.

Alain Garnier, founder & CEO of ARISEM (acquired by Thales), founder & CEO of Jamespot, France.

Jerome Monceaux, founder & CEO of Spoon.ai, founder & CCO of Aldebaran Robotics, France.

Charles Ollion, founder & Head of Research at Heuritech, France.

Anis Sahbani, founder & CEO of Enova Robotics, France.

Alexandre Vallette, founder of SNIPS & Ants Open Innovation Labs, France.

Marcus Frei, founder & CEO of NEXT.robotics, Germany.

Kristinn Thorisson, founder & Director of Icelandic Institute for Intelligence Machines, Iceland.

Fahad Azad, founder of Robosoft Systems, India.

Debashis Das, Ashish Tupate & Jerwin Prabu, founders (incl. CEO) of Bharati Robotics, India.

Pulkit Gaur, founder & CTO of Gridbots Technologies, India.

Pranay Kishore, founder & CEO of Phi Robotics Research, India.

Shahid Memom, founder & CTO of Vanora Robots, India.

Krishnan Nambiar & Shahid Memon, founders, CEO & CTO of Vanora Robotics, India.

Achu Wilson, founder & CTO of Sastra Robotics, India.

Neill Gernon, founder & MD of Atrovate, founder of Dublin.AI, Ireland.

Parsa Ghaffari, founder & CEO of Aylien, Ireland.

Alan Holland, founder & CEO of Keelvar Systems, Ireland.

Alessandro Prest, founder & CTO of LogoGrab, Ireland.

Frank Reeves, founder & CEO of Avvio, Ireland.

Alessio Bonfietti, founder & CEO of MindIT, Italy.

Angelo Sudano, founder & CTO of ICan Robotics, Italy.

Domenico Talia, founder and R&D Director of DtoK Labs, Italy.

Shigeo Hirose, Michele Guarnieri, Paulo Debenest, & Nah Kitano, founders, CEO & Directors of HiBot Corporation, Japan.

Andrejs Vasiljevs, founder and CEO of Tilde, Latvia.

Luis Samahí García González, founder & CEO of QOLbotics, Mexico.

Koen Hindriks & Joachim de Greeff, founders, CEO & COO at Interactive Robotics, the Netherlands.

Maja Rudinac, founder and CEO of Robot Care Systems, the Netherlands.

Jaap van Leeuwen, founder and CEO Blue Ocean Robotics Benelux, the Netherlands.

Rob Brouwer, founder and Director of Operatins, Aeronavics, New Zealand.

Philip Solaris, founder and CEO of X-Craf Enterprises, New Zealand.

Dyrkoren Erik, Martin Ludvigsen & Christine Spiten, founders, CEO, CTO & Head of Marketing at BlueEye Robotics, Norway.

Sergii Kornieiev, founder & CEO of BaltRobotics, Poland.

Igor Kuznetsov, founder & CEO of NaviRobot, Russian Federation.

Aleksey Yuzhakov & Oleg Kivokurtsev, founders, CEO & COO of Promobot, Russian Federation.

Junyang Woon, founder & CEO, Infinium Robotics, former Branch Head & Naval Warfare Operations Officer, Singapore.

Jasper Horrell, founder of DeepData, South Africa.

Onno Huyser and Mark van Wyk, founders of FlyH2 Aerospace, South Africa.

Toni Ferrate, founder & CEO of RO-BOTICS, Spain.

José Manuel del Río, founder & CEO of Aisoy Robotics, Spain.

Victor Martin, founder & CEO of Macco Robotics, Spain.

Angel Lis Montesinos, founder & CTO of Neuronalbite, Spain.

Timothy Llewellynn, founder & CEO of nViso, Switzerland.

Francesco Mondada, founder of K-Team, Switzerland.

Jurgen Schmidhuber, Faustino Gomez, Jan Koutník, Jonathan Masci & Bas Steunebrink, founders, President & CEO of Nnaisense, Switzerland.

Satish Ramachandran, founder of AROBOT, United Arab Emirates.

Silas Adekunle, founder & CEO of Reach Robotics, UK.

Steve Allpress, founder & CTO of FiveAI, UK.

John Bishop, founder and Director of Tungsten Centre for Intelligent Data Analytis, UK.

Joel Gibbard and Samantha Payne, founders, CEO & COO of Open Bionics, UK.

Richard Greenhill & Rich Walker, founders & MD of Shadow Robot Company, UK.

Nic Greenway, founder of React AI Ltd (Aiseedo), UK.

Daniel Hulme, founder & CEO of Satalia, UK.

Bradley Kieser, founder & Director of SMS Speedway, UK.

Charlie Muirhead & Tabitha Goldstaub, founders & CEO of CognitionX, UK.

Geoff Pegman, founder & MD of R U Robots, UK.

Demis Hassabis & Mustafa Suleyman, founders, CEO & Head of Applied AI, DeepMind, UK.

Donald Szeto, Thomas Stone & Kenneth Chan, founders, CTO, COO & Head of Engineering of PredictionIO, UK.

Antoine Biondeau, founder & CEO of Sentient Technologies, USA.

Steve Cousins, founder & CEO of Savioke, USA.

Brian Gerkey, founder & CEO of Open Source Robotics, USA.

Ryan Hickman & Soohyun Bae, founders, CEO & CTO of TickTock.AI, USA.

John Hobart, founder & CEO of Coria, USA.

Henry Hu, founder & CEO of Cafe X Technologies, USA.

Zaib Husain, founder and CEO of Makerarm, Inc.

Alfonso Íñiguez, founder & CEO of Swarm Technology, USA.

Kris Kitchen, founder & Chief Data Scientit at Qieon Research, USA.

Justin Lane, founder of Prospecture Simulation, USA.

Gary Marcus, founder & CEO of Geometric Intelligence (acquired by Uber), USA.

Brian Mingus, founder & CTO of Latently, USA.

Mohammad Musa, founder & CEO at Deepen AI, USA.

Elon Musk, founder, CEO & CTO of SpaceX, co-founder & CEO of Tesla Motor, USA.

Rosanna Myers & Dan Corkum, founders, CEO & CTO of Carbon Robotics, USA.

Erik Nieves, founder & CEO of PlusOne Robotics, USA.

Steve Omohundro, founder & President of Possibility Research, USA.

Jeff Orkin, founder & CEO, Giant Otter Technologies, USA.

Greg Phillips, founder & CEO, ThinkIt Data Solutins, USA.

Dan Reuter, found & CEO of Electric Movement, USA.

Alberto Rizzoli & Simon Edwardsson, founders & CEO of AIPoly, USA.

Dan Rubins, founder & CEO of Legal Robot, USA.

Stuart Russell, founder & VP of Bayesian Logic Inc., USA.

Andrew Schroeder, founder of WeRobotics, USA.

Stanislav Shalunov, founder & CEO of Clostra, USA

Gabe Sibley & Alex Flint, founders, CEO & CPO of Zippy.ai, USA.

Martin Spencer, founder & CEO of GeckoSystems, USA.

Peter Stone, Mark Ring & Satinder Singh, founders, President/COO, CEO & CTO of Cogitai, USA.

Michael Stuart, founder & CEO of Lucid Holdings, USA.

Madhuri Trivedi, founder & CEO of OrangeHC, USA.

Massimiliano Versace, founder, CEO & President, Neurala Inc, USA.

Reza Zadeh, founder & CEO of Matroid, USA.

AI Principles Japanese

アシロマの原則

これらの原則は、2017年アシロマ会議 (ビデオはこちら)に関連して、こちらに記載されているプロセスを通じて策定されました。

Click here to see this page in other languages:  English Chinese   German Korean     Russian

世界中の人々が毎日使用する役に立つツールとして、すでに人工知能は利用されています。人工知能の開発が今後以下で示す原則に基づいて行われるならば、それは数十年さらに数世紀にわたる将来において、人々に役立ち豊かな暮らしをもたらしうるでしょう。

研究課題

1) 研究目標:研究の目標となる人工知能は、無秩序な知能ではなく、有益な知能とすべきである。

2) 研究資金:コンピュータサイエンスだけでなく、経済、法律、倫理、および社会学における困難な問題を孕む有益な人工知能研究にも投資すべきである。そこにおける課題として、以下のようなものがある。

  • 将来の人工知能システムに高度なロバスト性をもたせることで、不具合を起こしたりハッキングされたりせずに、私たちの望むことを行えるようにする方法。
  • 人的資源および人々の目的を維持しながら、様々な自動化によって私たちをより繁栄させるための方法。
  • 人工知能に関わるリスクを公平に管理する法制度を、その技術進展に遅れることなく効果的に更新する方法。
  • 人工知能自身が持つべき価値観や、人工知能が占めるべき法的および倫理的な地位についての研究。

3) 科学と政策の連携:人工知能研究者と政策立案者の間では、建設的かつ健全な交流がなされるべきである。

4) 研究文化:人工知能の研究者と開発者の間では、協力、信頼、透明性の文化を育むべきである。

5) 競争の回避:安全基準が軽視されないように、人工知能システムを開発するチーム同士は積極的に協力するべきである。

倫理と価値

6) 安全性:人工知能システムは、運用寿命を通じて安全かつロバストであるべきで、適用可能かつ現実的な範囲で検証されるべきである。

7) 障害の透明性:人工知能システムが何らかの被害を生じさせた場合に、その理由を確認できるべきである。

8) 司法の透明性:司法の場においては、意思決定における自律システムのいかなる関与についても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべきである。

9) 責任:高度な人工知能システムの設計者および構築者は、その利用、悪用、結果がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるステークホルダーである。

10) 価値観の調和:高度な自律的人工知能システムは、その目的と振る舞いが確実に人間の価値観と調和するよう設計されるべきである。

11) 人間の価値観:人工知能システムは、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計され、運用されるべきである。

12) 個人のプライバシー: 人々は、人工知能システムが個人のデータ分析し利用して生み出したデータに対し、自らアクセスし、管理し、制御する権利を持つべきである。

13) 自由とプライバシー:個人のデータに対する人工知能の適用を通じて、個人が本来持つまたは持つはずの自由を不合理に侵害してはならない。

14) 利益の共有:人工知能技術は、できる限り多くの人々に利益をもたらし、また力を与えるべきである。

15) 繁栄の共有:人工知能によって作り出される経済的繁栄は、広く共有され、人類すべての利益となるべきである。

16) 人間による制御:人間が実現しようとする目的の達成を人工知能システムに任せようとする場合、その方法と、それ以前に判断を委ねるか否かについての判断を人間が行うべきである。

17) 非破壊:高度な人工知能システムがもたらす制御の力は、既存の健全な社会の基盤となっている社会的および市民的プロセスを尊重した形での改善に資するべきであり、既存のプロセスを覆すものであってはならない。

18) 人工知能軍拡競争:自律型致死兵器の軍拡競争は避けるべきである。

長期的な課題

19) 能力に対する警戒: コンセンサスが存在しない以上、将来の人工知能が持ちうる能力の上限について強い仮定をおくことは避けるべきである。

20) 重要性:高度な人工知能は、地球上の生命の歴史に重大な変化をもたらす可能性があるため、相応の配慮や資源によって計画され、管理されるべきである。

21) リスク: 人工知能システムによって人類を壊滅もしくは絶滅させうるリスクに対しては、夫々の影響の程度に応じたリスク緩和の努力を計画的に行う必要がある。

22) 再帰的に自己改善する人工知能:再帰的に自己改善もしくは自己複製を行える人工知能システムは、進歩や増殖が急進しうるため、安全管理を厳格化すべきである。

23) 公益:広く共有される倫理的理想のため、および、特定の組織ではなく全人類の利益のために超知能は開発されるべきである。

謝辞: 本和訳にあたり、山川宏氏をはじめとするNPO法人全脳アーキテクチャ・イニシアティブの皆様、および、福井綾子(株式会社アラヤ)さまにご協力いただいたことに感謝いたします。

今日まで、この原則には1,197名の AI・ロボット工学研究者たちが署名し、その他2,320名が署名しています。(これらの原則がどのように策定されたかについては こちら で、そしてその議論への参加は こちらをご覧ください。) 署名リストは英語版をご覧ください。

Get Involved Japanese

Future of Life Instituteに参加しましょう

Click here to see this page in other languages: English Chinese china_flag  Russian

ボランティア

FLIは現在ボランティアによって運営されており、メンバーが集まり進行中の、および予定されているプロジェクトを議論するブレインストーミング会議に基づいています。私たちの活動についての導入として、私たちの最初の1年の要約ビデオ をご覧下さい。ボランティアに興味がある場合は、申込書. にご記入ください。
私たちは、多くのボランティア申込を頂戴しております。そのため、あなたのスキルや興味と私たちの現在のプロジェクトとの間に一致がある場合のみご連絡いたします。

寄付

FLIは完全に民間の寄付 によってサポートされています。私たちは、個人や財団からの寄付を受け付けています。私たちは、501C(3)の非営利団体であるため、あなたの寄付は米国では非課税となります。納税申告のために私たちの組織番号(EIN)が必要な場合は、47-1052538です。私たちをサポートしたい場合は、寄付ボタンをクリックして下さい。あなたの寛大なサポートに事前に感謝いたします!


また、Amazonのスマイルプログラムを通じてあなたがオンラインで買い物をするたびにAmazonが私たちへ寄付するように設定することも可能です。

ウェブサイト

私たちは、このウェブサイトを壊滅的なリスクを回避し技術を有益に保つ方法についての良質な情報を提供しダイナミックで広く読まれるソースにするために賢明に努力しています。興味のある記事にコメントを追加したり、ソーシャルメディア上で記事を共有したり、このサイトを友人に広めることで、私たちの目標を達成する手助けをして下さい。

研究

頑丈で有益なAIシステムを作るために研究を行うことに興味がある場合は、私たちの研究助成金を申請して下さい。私たちの最初の助成金プログラムの締め切りは2015年3月1日でしたが、私たちは今後もより多くの機会を発表していきたいと考えています。私たちが現在資金を提供している研究の詳細については、提案要求助成金に関するよくある質問を参照してください。

実存する及び壊滅的なリスクに関するキャリア

私たちのパートナー組織の多くは、年間を通じて求人を投稿しています。私たちはこちらに完全な現在の求人をまとめたリストを用意しております。