人类与AI之间还有明确界线吗

2022-07-30 20:10:25   编辑:李元
导读 近日,一则谷歌工程师认为人工智能可能有自己的意识的新闻报道在网上引发了讨论。 你觉得这个怎么样? 他的想法有任何理由吗?陈小平:这个

近日,一则谷歌工程师认为人工智能可能有自己的“意识”的新闻报道在网上引发了讨论。 你觉得这个怎么样? 他的想法有任何理由吗?

陈小平:这个问题可以从两个方面来看。 一方面是不合理的,另一方面是合理的。 两个方面同时存在。

说这种想法是不合理的,主要基于科学判断,AI没有个性。 另一方面,我认为这位谷歌员工认为人工智能具有“个性”是有客观原因的。 例如,他可能对这个 AI 系统有同理心。

五年前我就做过一个预测,未来类似的现象会越来越多地出现。 目前对人工智能有不同的理解。 根据图灵的说法,人工智能只是模仿人类的某些功能,而这种模仿并不要求人类的工作原理是一样的。 比如阿尔法围棋有下围棋的功能,但它下围棋的原理和人类完全不同。 所以,无论人工智能如何发展,它永远不会是人类。 因此,说AI有人格或人的情感、意识、道德等是不真实的。但是,AI可以利用与人不同的工作原理来模仿人类的语言、情感等功能,让人们对AI产生共鸣, 所以有些人会想,“AI是人,或者说具有人的一些精神品质。”

现在我们身边大概有很多人工智能产品可以和人“交流”。 对于这个时代的人们来说,人类与人工智能之间的界限似乎越来越模糊。 在您看来,两者之间是否有明确的界限?

陈小平:我觉得有两种界限,一种是科学的,一种是人的。

从科学的角度来看,根据图灵的说法,这个界限是非常明确的。 AI只是模仿人类的一部分功能,本质上并不具备人类的素质,包括人格、情感、道德等。

图灵也有一些不同的观点。 例如,有一种观点认为,除了硬件之外,人工智能与人类相同。 所以人工智能也可以有个性、情感和道德。 估计这位前谷歌员工持有这种观点。

所以,一方面,他认为 AI 可以和人类一样,除了硬件; 另一方面,从报道中,他对这个人工智能系统产生了同理心。 仅仅因为人工智能在科学上缺乏情感等人类品质,它就可以被排除或禁止一个人会同情人工智能吗? 这属于人文边界,而这个边界,至少目前来看,是非常模糊的。

记者:作为中国人工智能学会人工智能伦理委员会的负责人,您认为如果有人认为人工智能有个性,会不会给人类带来一些问题或麻烦?

陈小平:如果我们认为AI有个性,那肯定会带来很多麻烦。 也会有一些负面的后果,有的很严重。

例如,人类如何对待 AI。 如果我们认为人工智能有个性,那我们应该把人工智能当人吗? 如果把它当作人对待,是不是给它人权? 包括生存权、财产权、选举权等等,甚至AI无论做什么伤害人类,都必须像人一样对待。

人类应该如何看待人工智能? 这是一个非常基本的问题。 如果AI真的有人格、有情感、有道德,它的综合能力超过了人类,就会出现可控性问题。 几乎可以肯定的是,只要 AI 能模仿一个功能,这个功能迟早会比人类更好,就像 Alpha Go 下国际象棋一样。 如果 AI 的通用能力也超过了人类,那么到时候人类如何控制 AI? 这是一个问题。 我们现在就需要思考这些问题,提前做好风险防范。

当然,人工智能已经让一些人产生了同理心,未来会有越来越多的人产生同理心。 这是客观事实。 这将给人机关系和人际关系带来巨大的新挑战和新机遇,是一个新的重大课题。

您在之前的致远会议论坛上提到了人工智能伦理治理的几个挑战。 我们应该如何应对这样的挑战?

陈小平:人工智能如何分类,应该分人还是物? 我认为我们应该将人工智能视为非人类和非物体的第三种存在。 从科学上讲,它不是一个人; 从人文主义的角度来看,这不是一回事。 那是非人非客体的第三种存在。 这种观点与根深蒂固的“二元论”有着本质的区别,因此人工智能带来的颠覆性其实远远超出了技术的范畴。

如果从这个角度考虑,很多矛盾和问题是可以解决的,包括上面提到的法律问题,科学和人文可以在一定程度上调和; 但仍有挑战。 写人类爱情的科幻作品很多在人工智能中,如果采用三分法,会不会出现这样的问题? 其实还是有这样的问题。

因此,未来如果要适应这样的社会,就要判断是否会出现人类无法接受的严重后果,是否提前采取措施。

记者:目前国内在这方面的进展如何?

陈小平:近年来,我国人工智能伦理研究的发展速度非常快,无论是私营部门还是政府都非常重视人工智能伦理。 这是一个非常好的现象,我们需要提前计划。

在实施过程中,中国的情况总体上比较顺利。 这体现在大家对一些基本原则有共识,普遍认为治理不仅要在理论上进行,还要在实践中进行。 当然,如何在治理实践中落实社会共识,仍然是我们需要努力的方向。

怎么处理? 这涉及到很多实际问题。 我的研究发现,我们前面谈到的可控性和长期后果的不确定性,用传统的治理模式很难有效处理,需要探索新的治理方法。

此外,传统社会治理模型可以有效处理用户隐私、数据安全、算法公平透明等问题。 我们不必担心这类问题会失控和无法解决,一些具体问题实际上正在得到解决。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章