3个案例研究证明AI可以进行道德发展

2020-05-09 16:03:56
导读到目前为止,几乎所有能够制造或管理人工智能产品(包括生物识别技术)的组织都知道创建道德原则以保护强大技术的重要性。当然,认识到对原则

到目前为止,几乎所有能够制造或管理人工智能产品(包括生物识别技术)的组织都知道创建道德原则以保护强大技术的重要性。

当然,认识到对原则的需求并加以发展是两回事。采纳道德原则并实际执行这些原则也是如此。

加州大学伯克利分校的研究人员撰写了一份报告,重点介绍了在实施原则方面的值得注意的工作,并将其用作其他寻求实施的组织的指南。

该报告是由大学的长期网络安全中心编写的。它在三个实施案例研究中寻找教训,这些案例研究涉及Microsoft公司的AI,工程与研究中的道德与影响(AETHER)委员会,非营利性研究实验室OpenAI Inc.和一个智囊团,经济合作组织与发展组织(OECD)。

报告还概述了其他35项正在进行的实施原则的努力。审查的项目包括设计工具,框架,计划和标准,所有这些工具均旨在开发“可信赖”的AI。

在第一个案例研究中,微软高管明确成立了AETHER委员会,以使AI工作与公司的核心价值保持一致。实际上,这是公司范围内的七个工作组,旨在寻找针对AI及其客户开发和使用AI所产生的相应问题的答案。

报告称,提出的问题集中在敏感和战术性话题的混合上,包括“偏见与公平,可靠性与安全以及对人权和其他危害的潜在威胁”。面部识别的怀疑论者列举了所有这些威胁,微软去年才实施了这些原则。

OpenAI案例研究的重点是去年9个月以来分阶段发布的GPT-2(一种无监督的AI语言模型)。通常,一个模型会完全发布,但是该机构选择了“负责任公开的实验”。

OpenAI领导者担心,如果他们不刻意,他们的模型可能会被部署来综合产生误导性新闻,滥用内容或网络钓鱼攻击。因此,他们发布了越来越大的模型(以参数衡量)。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章