Skip to content
All Open Letters

AI Open Letter Japanese

Published
31 October, 2017

堅牢かつ有益な人工知能のための研究優先事項
公開質問状


Click here to see this page in other languages: English US_Flag Chinese  German Russian  

人工知能(AI)研究は、その端緒からさまざまな問題やアプローチを探求してきました。過去20年ほどにわたり、こうした研究の主眼は、一定の環境において知覚し、行動するシステムである知的エージェントの構築を巡る問題に置かれてきました。

この文脈における知能の基準とは、統計的および経済的な合理性の概念に関するものです(わかりやすく言えば、よい決定や計画、または推論を行なう能力のこと)。確率的表現と統計的学習方法の採用によりAI、機械学習、統計学、制御理論、脳神経学およびその他の分野の大幅な融合や相互交流が生まれました。データや処理能力を共通の理論的枠組みで取り扱えるようになったことで音声認識、画像分類、自動運転車、機械翻訳、脚式移動や質問応答システムなどのさまざまな構成要素となるタスクにおいて、目覚ましい成功が成し遂げられてきました。

こうした分野や他の領域での能力が、研究室内での研究からビジネス応用が可能なレベルになるに従って、パフォーマンスのわずかな改善が顕著な経済的価値をもたらすようになるため、研究への投資が拡大するという好循環が定着しました。現在、AI研究が着実に進歩を遂げており、その社会に対する影響は拡大傾向にあるというコンセンサスが広く存在しています。文明のあらゆる果実が人間の知能の産物であることを考えれば、潜在的な利益は莫大なものになるでしょう。AIのもたらすツールが人間の知能を拡大したときに、わたしたちが何を成し遂げうるか予測は不可能ですが、疾病や貧困の根絶は実現不可能ではありません。AIのもつ大きな可能性を鑑みれば、潜在的な不利益を避けつつ、その恩恵をいかに享受するかについて検討することは有益でしょう。

AI研究の進歩により、AIの能力向上のみならず、AIの社会的利益をも最大化するための研究へ注力すべき好機がもたらされました。こうした考察が、「AAAI 2008–09長期的なAIの将来に関する大統領パネル (Presidential Panel on Long-Term AI Futures, Horvitz and Selman 2009) 並びにAIの将来的な影響に関するその他のプロジェクト及びコミュニティとしての取り組み」に対する動機となりました。

わたしたちは、ますます有能なAIシステムの確保を目指した研究が、堅牢で有益であることを推奨します。わたしたちがAIに望むことをAIシステムはせねばなりません。添付の研究優先事項ドキュメント は、AIの社会的利益の最大化を促進する、そのような研究の方向性の多くの例を示しています。この研究は必然的に学際的です。なぜなら、社会とAIが関わるからですその対象には経済学、法学および哲学からコンピューターセキュリティ、形式的方法、そしてAIそのものの様々な支流までが含まれています。

堅牢で有益なAIシステムを構築する研究は、重要で時宜にかなっており、存在する具体的な研究の方向性を追求することができるとわたしたちは信じています。

現在までに、8,000名の人によってこの公開状は署名されています。 署名者リストは、 をご覧ください。

OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
2672

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
14 February, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
25 October, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
22 March, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
18 October, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram