Safe Artificial Intelligence May Start with Collaboration Chinese
Contents
安全的人工智能可始于协作
Click here to see this page in other languages: English
研究文化原则:人工智能研究人员和开发人员应该培养合作、信任和透明度的文化。
竞争和保密只是业务的一部分。即便在学术界,研究人员也常保留自己的想法和初步发现,直到经费到账或文章发表已尘埃落定。但有时,相互竞争的公司和研究实验室亦会一起工作。组织机构都知道合作的最佳利益是为了解决问题并应对挑战,否则将导致重复的成本和时间投入。
这样的友好行为有助于团队更加有效地应对规章制度、制定标准、以及分享有关安全的最佳实践。尽管这些公司或研究实验室-无论是人工智能还是任何其他领域-会在某些问题上有所合作,但他们各自的目标仍然是第一个开发出新产品或得到新的发现。
那么这些组织机构,尤其是对于人工智能这样的新兴技术,该如何在共同推动安全研究和保护个体新想法之间划分界线?由于研究文化原则并不区分于人工智能安全上的协作和人工智能发展上的协作,那么就可以有更广泛地解释,正如同以下我与人工智能研究人员和伦理学家针对这一原则的讨论 。
必要的第一步
我所访问对象的一个共同的认识是,这个原则是发展安全和有益的人工智能,重要的第一步。
“我认为这是阿西洛马(Asilomar)原则的实践精神,”哈佛教授约书亚·格林(Joshua Greene)说道,“他们尚没有法律约束力。在这个早期阶段,更多是为了创造一个共同的理解:有益的人工智能需要积极的承诺,使它受益于每一个人,然而这并不是默认的路径。为了确保这种力量在成熟时得到很好的使用,我们需要建立起致力于有益结果的一种文化、一套规范、一种期望,一些机构 。这正是其意义所在 - 在任何人有强烈的不良动机之前,让人们聚集在一起,并致力于以互惠互利的方式指导人工智能发展。”
其实我所采访的所有人都同意这个原则。他们提出的问题和疑虑通常与实施它的潜在挑战有关。
苏珊·克劳(Susan Craw),罗伯特·戈登大学的教授,欣赏这个原则,但她想知道这如何适用于企业。
她说道:“这可能是一个可爱的原则,但是在大学里可能会更好的发挥作用,那里与企业对竞争优势有不一样的理解。…以及研究人员之间的合作与信任…没有合作,我们都不能达到目标,因为我们不能独自去完成事情。所以我想研究文化的这个想法不仅仅对人工智能如此 – 你会希望在人们研究的许多学科中都是如此。”
同时,康乃迪克大学教授苏珊·施奈德(Susan Schneider)对政府是否实施此原则表示担忧。“这是一个很好的理想,”她说,“但不幸的是,可能会有组织,包括政府,不遵循透明度原则与合作原则。…为应对那些可能抵制合作和透明度文化规范的人,在国家内建立监管机构可能是有用的。”
“当然,”她补充道,“重要的是我们制定了这些准则,并且旨在让人们认为需要遵循这样的规范。…引起人们对于人工智能安全的注意是非常重要的。”
“我欣赏它的论调,并完全同意这一点。IEEE负责人工智能和自主系统伦理事项全球倡议的执行董事约翰·哈文斯(John Havens)说道。
“但是,”他继续道,“我想定义什么是合作,信任和透明度的文化。这意味着什么? 在伦理学家与制造商接触的地方,自然会有两极化的意见。而在或风险或合法方面,他们认为技术专家可能没有想到某些问题。…当双方都表示,‘这些信息是我们真正需要进一步推进的工作。 那我们如何知道你需要哪些,以便我们能够很好地解决这些问题呢?’合作、信任和透明的文化才可建立起来。 …这个是伟大的,但下一句应该是:请告诉我下一步该如何做到这一点。”
粘合一个分裂的社区
加利福尼亚理工大学教授帕特里克·林(Patrick Lin)看到了一个不同的问题,特别是在人工智能社区中,一个他们试图建立信任与合作时可能会面临的挑战。
林先生解释说,“我认为建立一个凝聚力强的文化合作将会帮助很多事情。这将有助于加速研究和避免竞赛,但我认为人工智能社区面临着的一个大问题就是目前根本没有人工智能社区,它是分散的,它是一个弗兰肯斯坦,拼凑在一起的各个社区。你有程序员、工程师、机器人专家; 你有数据科学家,以及甚至不清楚什么是数据科学家。他们是统计学或经济学家,还是工程师,或他们是程序员吗?…没有一个共同的凝聚力的身份,这就使得创造一个信任、透明、有凝聚力的文化成为一个极大的挑战,但这是一个值得努力的目标。”
实行原则
为了应对这些围绕如何成功实施有益人工智能研究文化的担忧,我向现存风险研究中心(CSER)的研究人员寻求建议。CSER的研究员沙哈尔·阿温(Shahar Avin)指出,“人工智能研究社区在合作、信任和透明度方面已经有了非常显著的规范,从NIPS,AAAI和IJCAI充满活力的气氛,到学术界、企业界和非政府组织之间越来越多的研究合作 (无论是从项目方面还是兼任多职位方面),再到丰富的人工智能研究博客社区中大家都不回避指出不良做法或有违规范的行为。”
马丁纳·昆茨(Martina Kunz)还强调了IEEE针对全球人工智能行动计划所做的努力,包括组建人工智能合作伙伴(Partnership for AI),“特别是其目标,‘制定和分享最佳实践’,以及‘提供开放、包容的讨论和参与平台’。”
阿温(Avin)补充道:“企业的人工智能实验室公开所发表的文章,是值得赞扬的,这似乎正在成为一个常规,迫使过去不太开放的公司开放他们的研究。坦白地说,出于对高端人工智能研究技能的需求,研究人员,无论是个人还是团体,都可以从工作环境的实际性、开放性和项目选择的规范性问题等方面对工作环境提出强烈的要求。”
“人工智能研究中强烈的个人主义也表明,若想促进长期的、有益的人工智能上的合作,与已从事和将从事研究工作的人们讨论潜在的风险,并培养他们对未来的责任感和监督意识至关重要。一个知情、有道德且积极主动的研究群体,将能够奉行最佳做法,并将其雇主和同事亦引向有益人工智能的规范之中。我们已经看到这个研究群体的雏形了 。”
你如何看待呢?
如人工智能合作伙伴这样的合作逐渐形成,我们或已看到行业和学术界开始朝着合作、信任和透明的方向前进的迹象。但是这足够吗,还是全球政府的加入也有必要?整体而言,人工智能企业和研究实验室该如何共同合作,已确保他们在不牺牲自己的想法和产品的情况下共享必要的安全研究呢?
这篇文章是“23 个阿西洛马(Asilomar) 人工智能原则”系列的一部分。 此“原则”提供了一个框架来帮助人工智能尽可能多地受益。但是,正如人工智能专家托比·沃尔什(Toby Walsh)所说的那样,“当然,这只是一个开始,一个正在进行中的工作。”这些原则代表了一个谈论的开始,现在我们需要对各个原则进行广泛的讨论。您可以在这里阅读有关以前原则的讨论。
About the Future of Life Institute
The Future of Life Institute (FLI) is a global non-profit with a team of 20+ full-time staff operating across the US and Europe. FLI has been working to steer the development of transformative technologies towards benefitting life and away from extreme large-scale risks since its founding in 2014. Find out more about our mission or explore our work.