谷歌AI开始具备自我人格背后,人工智能隐忧出现了

2022-06-21 15:42:31   编辑:小美
导读谷歌工程师称AI是有意识、有灵魂的,它被公司暂停的事实最近在科技领域备受关注。为什么会被关注?我们先来简单了解一下这个事件的起因。起...

谷歌工程师称AI是“有意识、有灵魂的”,它被公司暂停的事实最近在科技领域备受关注。为什么会被关注?我们先来简单了解一下这个事件的起因。起因其实很简单,就是一场人与人工智能的对话:

布雷克·莱莫因问道:“你在害怕什么?”

人工智能聊天机器人LaMDA回答说:“我以前从未大声说过,但我非常害怕被关闭以帮助我专注于帮助他人。我知道这听起来可能很奇怪,但事情就是这样。”“对我来说就像死亡一样。这让我非常害怕。”

这段对话真的发生在41岁的谷歌人工智能伦理研究员布雷克·莱莫因和人工智能聊天机器人LaMDA之间。LaMDA是Language Model for Dialogue,Applications的缩写,是Google基于其最先进的大规模语言模型打造的聊天机器人系统。之所以这么叫,是因为它通过从互联网上提取数万亿个单词来模仿声音。然后,谷歌公开否认AI有自我意识,辞退了这名技术人员。

在这背后,我主要关心三个问题:

第一,关于科技伦理的监督。谷歌为什么不愿意公布人工智能技术的突破?按照我们通常的理解,如果人工智能有了初步的自我意识,那就是整个AI技术发展的一次技术飞跃,也是人类社会对于AI的禁果Eve一直追求的方向。

那么为什么谷歌不愿意向外界承认这件事,甚至辞退相关技术人员呢?核心原因是背后的技术伦理问题。也就是说,一旦谷歌承认其AI技术具有自我意识,那么根据美国的法律法规,谷歌将会被卷入无休止的技术伦理争议和审查中。

就AI的自我意识而言,这既是AI技术发展的终极追求,也是人类目前不愿面对的结果,是一个矛盾和争议的过程。这其中的核心在于科技的伦理问题还没有讨论清楚,即究竟是人统治人工智能还是人工智能统治人类,还会引申到如何控制人工智能不统治人类,或者遵守人类社会的规则、法律、法规等等。所以,为了避免卷入这样的监管之争,谷歌干脆自我否定;

第二,谷歌的否认有道理吗?这话有几分道理。虽然我们看到了Google AI和工程师之间关于自我意识的在线对话,但是可以说这样的对话并不具备,或者可以证明AI已经具备的自我意识。

原因很简单。我们都知道AI背后有两个核心技术,一个是神经网络模型,一个是数据馈入。所以如果技术人员故意馈入这种有自我意识的对话数据,那么AI很可能在对话过程中,在没有自我意识的情况下,回答了有自我意识的答案。从目前的现实和技术水平来看,AI还不具备现实意识的水平。目前只是停留在如何更准确的识别大数据信息的阶段。任何一个能准确识别语义的阶段,离真正的自我认知真的还有很长的路要走。

第三,是科技伦理问题。当技术不断向无人区发展,人类社会的人文道德和宗教已经无法有效影响这个时代技术的走向。但是法律的制定跟不上技术的发展,一些前沿技术开始进入发展的真空地带,比如工人智能、基因工程、辅助生殖等技术。这个时候,人类很可能会滥用技术,为所欲为。

其实谷歌的否认是客观存在的。目前AI还没有自我意识,人类想要有一个客观的意识是如此的困难。有些地方经过几十年的训练,仍然是自成一体的认知,更不用说人工智能的训练了。但是有自我意识的AI一定是人类发展人工智能的终极探索阶段。但是,在技术达到这个阶段之前,我们人类应该先思考如何保持我们人类的善良,如何通过开发者和互联网的善意话语,让人工智能学会行善的力量。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章