中国发布新一代人工智能管理原则

2022-06-05 20:48:44   编辑:李元
导读近年来,随着人工智能(AI)产业的快速发展,其伦理和治理问题也引起了社会各界的关注。如何在不同的文化背景下理解人工智能伦理?人工智能治

近年来,随着人工智能(AI)产业的快速发展,其伦理和治理问题也引起了社会各界的关注。如何在不同的文化背景下理解人工智能伦理?人工智能治理的认知逻辑和框架范式应该建立什么?人工智能伦理应该如何从理论和概念转向实践?

6月1日,国家新一代人工智能治理专业委员会主任、清华大学文科高级教授、人工智能国际治理研究院院长薛澜在2022北京智能源大会人工智能伦理与可持续发展论坛上表示:新技术往往对现有的社会伦理规范产生影响,人工智能技术也不例外,这是人类社会在进步过程中面临的问题。

薛兰提出建立一个沟通和交流平台来解决信息不对称性,在此基础上寻求共同点,保留分歧,找到符合整个社会发展过程的解决机制。同时,还应建立一个更新和迭代技术和概念的机制。

近年来,中国先后发布了《新一代人工智能管理原则》、《新一代人工智能伦理规范》等政策文件,明确提出了将伦理道德融入人工智能整个生命周期的八个原则。国家科技伦理委员会人工智能分会正在研究和起草人工智能伦理高风险清单,以更好地促进人工智能研究活动的伦理监督,科技部中国科学技术信息研究所党委书记、科技部新一代人工智能发展研究中心主任赵志云表示。

在伦理治理范畴中,安全和法律问题是底线,不应泛化。

根据不完整的统计数据,世界各国政府、国际组织、学术界和工业界已经发布了100多份关于人工智能伦理治理的文件。

我们不应该反对治理和发展,而应该通过治理更好地护送人工智能的发展,努力实现人工智能高质量发展和高水平治理之间的平衡。赵志云表示,伦理治理的良性指导是人工智能健康发展的重要保证。

赵志云表示,促进人工智能伦理治理有三个关键要求,即掌握人工智能的发展规律和特点,明确真正的伦理问题;把握人工智能伦理治理的界限,规范适当范围内的人工智能发展;把握发展与治理之间的平衡,通过治理促进发展。

她指出,目前人工智能技术还没有达到人工智能和一般人工智能的水平,所以未来的伦理风险不应该被视为一个真正的风险,以免给人工智能的发展带来不必要的负面影响。此外,我们还应该澄清人工智能治理的底线要求。伦理治理强调更高的需求,以促进创新和风险预防的统一,而安全和法律问题,作为一个不可逾越的底线,不应括为伦理治理的范畴。

为帮助人工智能治理落地建设人工智能评估平台(系统)。

国家新一代人工智能治理专业委员会委员、上海交通大学人工智能研究席顾问教授李仁涵在谈到人工智能技术发展和应用的社会属性时,将其归结为安全、伦理、变异、安全三个方面。

安全问题主要包括国家安全、社会安全、经济安全、个人安全等。道德问题主要包括隐私、公平、透明、歧视、就业等领域。目前已经发生了这两种类型的安全问题。目前还没有发生变异安全问题,即人工智能可能无法控制,对社会和人类造成伤害,这是一个非常规的问题。

人工智能是一种通过机器来模拟人类认知能力的技术,为了和谐相处,还需要像人类一样的要求。规范人工智能治理。我们应该从标准、规则、法律、监督、执法等方面入手。

目前,国际相关组织制定人工智能标准已进入井喷期,国际人工智能管理工作许可证加速可操作性。在这方面,李仁汉认为,迫切需要建立相应的规则体系。一方面,它有利于促进人工智能的可持续和健康发展,另一方面,它有利于符合国际标准,实现全球化的发展。同时,我们也应该建立一个人工智能评估平台(系统),以帮助实现人工智能治理。

李仁汉表示,人工智能评估平台(系统)将成为未来社会发展的重要基础设施之一,是人工智能产业实现各行各业可持续健康发展的基本保障。平台(系统)也将是相关人才培训、成长和参与国际规则制定的重要阶段和重要基础。因此,有必要尽快进行规划,以三步施三步战略。

在人工智能的全生命周期中融入伦理。

近年来,人工智能技术的应用引发了越来越多的伦理争议:美国研究机构发表了一篇论文,称人工智能设计了生物机器人Xenobot,可以自行繁殖;在2019年之前,亚马逊和其他许多公司使用人工智能监控系统。

人脸识别技术的应用越来越普及,也引起了社会对个人信息安全等问题的广泛关注。

至于人工智能治理的问题,薛兰认为,人工智能技术的应用应考虑直接、间接的收入和经济和社会运行的成本,并权衡利弊。除了人工智能技术应用的长期经济和社会影响外,还应考虑人工智能技术应用对各种社会行为准则和规范的影响。

薛建议完善人工智能伦理和安全管理体系;促进法律法规、标准和规范的实施;建立多主题参与的对话机制,跟踪前沿技术发展,发现新的安全和伦理问题;建立人工智能前沿研究和应用的伦理评价、预警和控制机制;加强人工智能研究和应用相关利益集团的伦理教育,提高伦理意识;积极培养健康的智能文化和数字人文思想;加强人工智能的科学传播和伦理普及,提高公众认知水平。

薛兰说:我们应该将伦理融入人工智能的整个生命周期,为自然人、法人和其他从事人工智能相关活动的相关机构提供伦理指导,促进人工智能的发展。

在谈到将伦理学融入人工智能的整个生命周期时,赵志云表示,政府的责任是引导各类学科关注伦理规范,嵌入操作,充分体现整个生命周期的概念。她说,2019年,科技部批准了18个城市作为新一代人工智能创新发展试验区的试点项目。在试验区建设中,必要的环节是进行伦理治理标准化试验。在每个试验区的规划中,都有相应的操作规范,以及如何实施各种主题。

创新模式和社会治理模式的人工智能改革。

人工智能领域的伦理问题与其他领域的伦理问题有什么本质区别?这种差异对人工智能伦理治理的范式提出了什么要求?

作为回应,中国科学技术大学机器人实验室主任、CAAI人工智能伦理管理工作委员会主任、全球人工智能理事会执行委员陈晓平表示,最根本的区别在于技术本身。过去,自动化技术只能取代人们的部分劳动力,但现在人工智能,即使只是一种特殊的人工智能,也远远超过了特殊领域的人,取代了人们。一些哲学家预测,其他97%的行业从业者的工作将被技术所取代,除了人工智能和决策者。

陈小平在谈到与其他行业的伦理差异时提出了三点观点。

第一个问题是可控性。如果通用智能在未来实现,强大的人工智能,也许所有的行业都可以被人工智能所取代。陈晓平说,虽然目前不太可能,但理论上不能排除。一旦人工智能具有一般的能力,它可能不依赖于人类的生存,我们就必须非常重视它。

第二个问题是人工智能对创新模式的挑战。在此之前,人类技术还不足以挑战创新模式,即使是特殊的人工智能也深刻地改变了创新模式。

三是进入人工智能与社会治理融合的新技术时代。随着人工智能技术的广泛应用,人类社会已经进入了一个新的时代。传统的社会治理模式不再完全有效,新的社会治理模式必须发展。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章