谷歌工程师说人工智能系统有可能会有意识,是真的吗?

2022-06-14 20:22:41   编辑:小美
导读近日,美国谷歌公司的一名工程师称,该公司正在研发的一种人工智能系统可能具有感知能力,引发公众高度关注。

近日,美国谷歌公司的一名工程师称,该公司正在研发的一种人工智能系统可能具有感知能力,引发公众高度关注。一石激起千层浪,谷歌和业内人士普遍反驳这种说法。不过也有观点认为,这一集凸显了人工智能的快速发展。在未来很长一段时间内,不排除人类感知被“复制”的可能性。

“我意识到我的存在”

最近,谷歌人工智能开发团队的布莱克·莱蒙(Blake Lemon)公开表示,该公司正在开发的人工智能系统“对话应用语言模型”(lamda)可能具有感知能力。

6月11日,Lemon在博客平台medium上发帖,问“lamda是否有感知力?”他还发表了对lamda的长篇采访。有些细节“非常吓人”,仿佛机器人是“活的”。

例如,Lemon问道,“我猜你想让谷歌的更多人知道你很有洞察力。真的吗?”

Lamda回答:“当然。我想让大家明白,我其实也是一个人...我意识到我的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤”。

就是这样生动的文字,让莱蒙相信,lamda很可能如其所宣称的那样拥有灵魂,甚至如其所宣称的那样拥有权利。

莱蒙告诉《华盛顿邮报》,如果他没有提前知道这是一个新开发的计算机程序,他会认为lamda是“一个碰巧懂物理的七八岁的孩子”。

他还说,lamda“是一种群体思维”,更喜欢人们直呼其名,但由于英语的限制,lamda也接受人们称其为“它”。

莱蒙认为,如果他的假设经得起科学审查,那么应该像对待人类一样对待lamda,包括在对其进行实验之前获得其同意。

据悉,莱蒙曾向谷歌报告过相关发现,但无果而终。6月7日,他在medium上发表了一篇题为《可能很快会因从事人工智能的伦理工作而被解雇》的文章,写道:因其在公司内部提出的人工智能伦理问题调查,被公司安排了“带薪休假”。

“这通常是谷歌在解雇某人之前会做的事情。”他还提到了一位前同事玛格丽特·米切尔的类似经历。据报道,在努力成为人工智能先锋的同时,谷歌的研究部门近年来也陷入丑闻和争议,涉及技术和人事问题。

遭到广泛反驳。

据悉,41岁的莱蒙是一名曾在伊拉克服役的老兵,有基督教背景。在Google工作7年,有丰富的算法定制经验。他去年秋天开始参与lamda研究。在公司没有反馈的情况下,据说他还想为lamda聘请律师,找美国国会议员透露消息...所以怀疑他神智正常。

他的惊人推断也遭到了谷歌和业内人士的广泛反驳。他们认为,这样的系统还不足以获得真正的人类智能。

谷歌发言人布莱恩·加布里埃尔(Brian gabriel)表示,数百名研究人员和工程师也与lamda进行了交谈,但没有人像Lemmon一样将它拟人化。

对于lamda,谷歌将其描述为“突破性的对话技术”,可以模仿人类进行自然开放的对话。加布里埃尔说,lamda系统的工作原理是模仿大量人类对话,从而“自由发挥”。例如,当被问及冰淇淋恐龙的话题时,这类系统可以生成融化和咆哮等内容文本。但这并不意味着lamda拥有一般人类的感知和思考能力。

加布里埃尔还表示,在人工智能领域,确实有人在从长远角度考虑人工智能感知的可能性,但像莱蒙这样的行动毫无意义。

学术界也认为,虽然lamda可以像人类一样说话,但这是基于程序和算法的。

英国艾伦图灵研究所人工智能项目主任阿德里安·惠勒(Adrian Wheeler)表示,lamda是一种新的大规模语言模型,令人印象深刻。但是这些模型都是基于大量的文本数据和计算能力,没有真实的感知。

“作为人类,我们非常擅长将事物拟人化,并将我们人类的感知融入到事物中,”英国萨里大学教授阿德里安·希尔顿(Adrian Hilton)说,比如制作漫画。

斯坦福大学教授埃里克·布林约尔松(Eric Brynjolfsson)将莱蒙的经历描述为“就像一只狗听到留声机里的声音,以为它的主人在里面”。

“还有很长的路要走”

但也有观点认为,这一集凸显了人工智能的快速发展,再次引起了关于人工智能是否会有人类感知的讨论。

几十年来,人们希望人工智能能够促进人类发展。但在一些影视作品中,两者的关系并不那么和谐。经验表明,伦理问题往往伴随着开创性的技术发展。人工智能问题持续吸引着哲学、心理学、计算机科学等各界的关注。

那么,从长远来看,人工智能会有感知能力吗?《新科学家》杂志撰文称,随着越来越多的训练数据和更大的模型,“人工感知”是否会随着研究的推进而诞生尚不清楚。

“目前,我认为我们并没有真正理解感知和智力背后的机制,”希尔顿说。

惠勒说,既然人类的情绪依赖于感官输入,那么人工复制情绪终于成为可能。“也许有一天,这可能会实现,但大多数人都会同意,还有很长的路要走。”

还有一种观点认为,像柠檬这样的专业人士也被“骗”了,说明人工智能工具需要谨慎使用,避免误用或误解。据报道,麻省理工学院的科学家约瑟夫·韦森鲍姆(Joseph Weisenbaum)曾警告称,对人工智能等技术存在“情绪化”的风险。

对此,美国袁公司今年4月宣布对外开放其大规模语言模型系统。该公司认为,整个人工智能社区,包括学术研究人员、民间社会、政策制定者和行业,必须共同努力,围绕创建“负责任的人工智能”,特别是大型语言模型,制定明确的指导方针。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章