人工智能逐日发展势头,到底哪里才是它的伦理底线?

2022-07-03 20:57:24   编辑:小美
导读 人工智能(Artificial intelligence)作为计算机科学的一个分支,是为了模拟、扩展和延伸人类智能而研究和开发的理论、方法和技术。

人工智能(Artificial intelligence)作为计算机科学的一个分支,是为了模拟、扩展和延伸人类智能而研究和开发的理论、方法和技术。随着计算机技术和各种信息技术的发展,中国正在逐步加快从中国制造向中国智造的转变。以人工智能为代表的新一代信息技术,将成为“十五”期间我国推动经济高质量发展、建设创新型国家、实现新型工业化、信息化、城镇化和农业现代化的重要技术保障和核心驱动力之一。各行各业都要不断创新应用人工智能技术的新模式、新手段。然而,在人工智能为审计行业带来诸多优质高效服务的同时,一系列伦理问题也随之而来。如何应对,使其更好地服务于审计行业,成为一个亟待解决的问题。

一,人工智能审计的发展现状

随着深度学习和大数据技术的发展,人工智能逐渐从操作智能向感知智能和认知智能转变,功能越来越强大,逐渐渗透到许多领域。人工智能致力于模仿人的思维和认知。如果能被事务所合理应用于审计和咨询业务,将大大提高风险发现的速度和水平,提高审计的质量和效率。国际“四大”会计师事务所相继探索人工智能技术与审计的融合,多项人工智能技术已应用于审计实践。

二,人工智能审计的伦理问题

未来,人工智能技术将进一步与审计结合,对审计模式产生更大的冲击和影响。审计人员、监管人员和技术人员逐渐意识到,在享受技术带来的高效便捷服务的同时,其带来的伦理问题也不容忽视。从人工智能现有的能力和技术潜力以及给人类社会带来的负面后果来看,会出现两种问题。第一,人工智能被赋予了对人类事务进行决策的能力,但对决策结果进行伦理判断的能力不足;第二,人类缺乏引导人工智能发挥作用的终极伦理标准。

对此,本文将人工智能在审计领域应用中存在的伦理问题归纳为五个方面:

1.审计师的主体地位动摇。

审计师对被审计公司的正确审计判断,一般是基于长期的专业知识学习和实践积累。而审计人员的知识容量和信息控制,与学习能力更强、存储容量更大的人工智能相比,存在一些不足。目前,基于RPA的审计机器人可以高效地完成数据密集型、重复性、规律性、易出错或信息敏感的工作,7×24小时连续开展审计工作。会计师事务所审计过程中与计划阶段、实施阶段、报告阶段相关的技术工作正在逐步被人工智能技术所取代,大大节省了审计时间,提高了审计效率,避免了一些由于精力、时间、职业道德等原因造成的审计错误,减少了抽样调查。人工智能以其高效、准确、快捷的特点,大大提高了审计效率,降低了审计风险,也给审计人员带来了可能被人工智能取代的风险和压力。2018年,普华永道发布的《人工智能报告》预测,未来20年,人工智能及相关技术将取代中国约26%的现有工作岗位。牛津大学研究团队利用应用概率分类模型,估算了美国未来702个工作岗位被计算机取代的可能性,发现其中47%的岗位存在被取代的高风险。

2.审核事故责任认定。

人工智能技术在审计中的应用发展喜人,但其责任认定引发的伦理问题也不容忽视。在审计过程中,使用审计智能机器人所犯的错误导致审计风险增加,如何认定其责任值得深思。基于目前的审计行业,虽然人工智能已经参与到审计过程中,但审计的主体仍然是审计人员,处于主导地位。目前人工智能的审核错误主要是设计疏漏或操作不当造成的。随着技术的不断进步,人工智能在开发过程中可能会失控,会出现违背设计目的或主题的行为。至于如何控制其行为,如何加强法律约束,如何划分审核员、厂商、人工智能等诸多主体的权责,目前相关的法律规则和伦理标准仍不完善。因此,应尽快建立和完善相关规章制度,明确各主体的权责边界,促进责任的归属和落实。

3.审计单位数据泄露。

人工智能技术结合大数据和云计算技术,对数据进行收集、汇总、分析和处理。人工智能审计涉及的被审计单位的数据存储在云端或内存中,即使有加密措施,数据也不可能完全私密,因此存在泄密风险。审计涉及的活动具有很高的商业价值,如果泄露出去后果将不堪设想。人工审计的数据隐私问题主要包括以下几个方面:数据信息访问和提取过程是否被企业认可;会计师事务所、人工智能技术公司或企业本身,谁有获取企业数据的资格;万一数据泄露,如何界定责任方。

目前,审计过程中的数据泄露包括内部窃取数据和网络安全风险泄露数据等内外途径。在审计人员辞职、退休、调动等过程中,由于主客观因素的影响,审计数据和信息的泄露可能会对被审计单位造成较大影响。2021年,咨询行业爆出“内幕窃密”新闻。安永在检查多名离职员工电脑的过程中,发现ERP系统中数万份机密资料被访问下载,甚至部分原始资料在安永的服务器中被完全删除,并依法追查相关当事人。网络安全风险的存在也容易导致事务所网站或服务器受到攻击,导致相关数据泄露。

2017年3月,德勤确认遭遇数据泄露。黑客成功地访问了公司客户的电子邮件,获得了一些重要客户的用户名、密码和个人信息,以及公司自己的商业计划和员工健康信息等。更重要的是,受此事件影响的机构甚至包括美国政府部门,影响范围之广令人咋舌。

4.人工智能项目的成本负担。

在审计过程中使用人工智能技术,可以大大提高审计效率和质量,使审计人员能够全身心投入到更高层次的审计工作中,从而在一定程度上降低审计成本。但是,人工智能项目本身是有一系列成本的。如果成本不能得到有效控制,就会增加事务所和被审计单位的负担。首先是开发和外包的成本。会计师事务所需要决定是内部开发,外包给有经验的制造商进行定制开发,还是与人工智能技术公司合作开发。选择不同,投资回报也会不同;其次,技术升级的成本和新时代技术的不断发展,使得会计师事务所不得不充分利用这些技术来满足客户的需求,并根据技术的升级不断进行调整;最后,对人工智能的人力成本进行监督和管理,人工智能在审计行业的应用处于初级阶段,需要对人工智能系统审计的过程进行监督,以保证其可靠性。虽然管理人工智能项目的初期成本并不大,但是随着业务的增加或者额外的流程优化需求,相关的管理成本会逐渐增加。

5.人工智能算法的监督。

为了保证人工智能审计的安全性、科学性和可靠性,有必要对其算法进行监管。很多学者强烈要求算法公开透明。但在现实生活中,由于深度学习、人工神经网络、自然语言处理等各种技术的快速增长,除了极其专业的技术人员,几乎没有人能够深入理解算法的运行原理和过程。即使要求算法公开,监管人员也可能很难发现算法存在的问题。算法本身的原理是公开透明的,算法的细节是根本。但如今,算法的细节可能成为会计师事务所的核心竞争力,开放的算法也可能触及知识产权问题。那么,算法应该如何公开,公开到什么程度,向谁公开,都成了公开的问题。这些问题的存在,使得人工智能的算法监管成为一个难题。

三、人工智能审计伦理问题的应对策略

从根本上说,人工智能在审计应用中存在的伦理问题的特殊性,来自于人工智能与人类的关系。与传统伦理学不同的是,人工智能的伦理学讨论的不再是人与人之间的关系或自然界(如动物和生态)的既定事实,而是人类与自己发明的一种产品之间的关系。一旦这种特殊的产物——按照未来学家库兹韦尔在《奇点临近》中的说法——在这种情况下超过了某一个,如何更好地利用法律、道德和伦理来约束这一点就非常重要了。针对人工智能审计面临的伦理问题,提出了五点对策和建议。

1.强化审计主体地位,提高审计质量。

人工智能技术的快速发展为审计行业注入了新的活力,但也给审计人员带来了风险和挑战。要想不被时代发展的浪潮所抛弃,审计人员就应该与时俱进,不断提高自己的能力和水平,促进审计质量的提高:

第一,审计人员要不断提高专业知识和技能,丰富实践经验。审计是一个需要专业判断的岗位。人工智能无法取代人类的感知,实现人与人之间的近距离交流和情感互动。从计划阶段审计策略的制定、审计风险点的判断到实施阶段审计证据的合理获取再到报告阶段审计意见的形成,审计人员需要与被审计单位密切沟通。这个时候,沟通分析能力和丰富的实践经验就显得尤为重要。审计人员要不断提高专业技能和职业素养,加快分析判断能力的培养,不断将业务重心转移到风险防范、预测分析和专业咨询上来。

二是培养新时代的复合型人才。面对人工智能的大潮,注册会计师仅仅掌握扎实的会计和审计专业知识是无法满足人工智能审计的需求的。人工智能技术在审计过程中的应用降低了他们对低水平审计技能的需求,反而对审计人员的知识结构和能力水平提出了更高的要求。审计人员需要掌握计算机信息技术、数理统计等相关技能,拓宽专业视野,发展成为新时代的复合型人才。

2.重构伦理框架,落实责任认定。

由于人工智能的行为决策受其最初设定目标的影响,因此在人工智能的设计过程中,应贯彻人类绝大多数所遵循的伦理原则和利益目标,使其在多变的环境中仍能做出相对正确的决策,减轻人类的疑虑和焦虑。AI伦理的设定应该基于社会和公众的深入研究和共识,并融入一些共识原则,以发展负责任的AI。目前,欧洲、美国、日本等国家已经充分重视人工智能的伦理标准。美国2016年发布的《人工智能研究与发展国家战略计划》指出,应了解并解决人工智能的伦理、法律和社会影响,创建健康可信的AI系统。

2019年欧盟发布的《可信AI伦理指南》构建了可信AI体系。首先,它应尊重基本权利、相关法律法规、核心原则和价值观,并确保其目的是合乎道德的;其次,它使用的技术应该非常健壮和可靠。日本2019年发布的《人工智能战略》提出在日本实施“以人为本的人工智能社会原则”,包括以人为中心原则、教育应用原则、隐私保护原则、安全保障原则、公平竞争原则、宽容透明原则、创新原则等七项原则。所有国家的政策都强调围绕人工智能道德标准制定更充分的部署计划。从人工智能审计的技术应用层面,充分考虑人工智能开发部署过程中的责任和过错问题,为人工智能技术开发者、产品生产者或服务提供者、最终用户设定权利和义务的具体内容,按照主体责任的思想划分各方的权利、责任和利益,从而达到落实安全需求的目的。

3.强化隐私观念,保护数据安全。

当人工智能技术应用于审计时,应制定一系列准则来保护公司的隐私和数据安全。会计师事务所、被审计单位和数据中心对企业数据的收集、保存、提取和使用应制定详细的规则。在收集和整理被审计公司数据的过程中,可能存在未经授权的数据;在数据使用过程中,由于系统本身的缺陷或黑客攻击,数据可能会被泄露。

这是人工智能技术不断发展带来的弊端,需要不断完善相关法律法规。数据安全治理应遵循国家和行业安全政策,包括网络安全法、等级保护政策和具体行业政策,并结合审计实践,具有一定的针对性。会计师事务所在进行管理分析时,必须对被审计单位的隐私数据进行编码。另外,要做好数据加密和脱敏,在一定程度上保证数据的安全性。对于任何审计访问,登录状态、访问路径、访问内容等。应实时存储和记录,以确保整个访问的可追溯性和可审计性。一旦发生数据泄露,可以落实相应的主体责任。

4.控制人工智能成本,减轻审计负担。

公司应该建立一个专业的管理团队来控制和监督人工智能项目。主要目标是管理和评估每个AI项目的必要性,优化和监控相关成本,提高AI的使用效率。对于选择内部开发、外包给厂商定制开发还是与人工智能技术公司合作,要做好前期调研和预算。内部开发需要公司拥有专业的技术开发团队和强大的资金储备,而外包给制造商的定制服务也需要很高的成本。需要比较不同方案的投入产出比,选择最合适的方案。

人工智能技术发展迅速。要根据审计工作的实际需要,明确客户的需求及其变化,有针对性地进行人工智能转型升级,以最小的成本获取最大的收益。有必要对人工智能的人力成本进行监督和管理,这些成本用于优化和监控AI项目。在控制AI成本的同时,保证AI的可靠性和安全性,提高审计效率,减轻应用层面的审计负担。

5.完善监管体系,强化专项监管。

在监管方面,由于人工智能监管的特殊性,通过算法透明来监管算法既不科学也不合理,但可以通过构建合理的约束来引导人工智能行为向正确的方向发展。审计行业可以借鉴伦理委员会的运作模式,成立专门的AI审计管理委员会,主要由AI专家、审计专业人士、法律专家、社区代表等组成。,并负责在审计中评估AI的伦理性和安全性。

建立会计师事务所人工智能强制注册制度,建立过错透明制度和追溯制度。故障透明化便于技术人员分析事故原因,溯源系统则是监督人工智能决策的全过程,帮助各个主体了解人工智能的决策行为,并进行必要的修正和调整。中国应积极参与全球人工智能治理的沟通和对话,共同探索人工智能治理思路和监管模式,在联合国等多边和双边框架下加强交流,达成共识,推动共建全球人工智能治理和监管体系。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章