为什么人工智能无法理解文本

2022-01-24 15:26:33   编辑:廖宽舒
导读 2022年1月24日整理发布:考虑一下Rebooting AI中提到的以下文本:Elsie 试图通过电话联系她的阿姨,但她没有接听。 阅读这句话后,您无

2022年1月24日整理发布:考虑一下Rebooting AI中提到的以下文本:“Elsie 试图通过电话联系她的阿姨,但她没有接听。” 阅读这句话后,您无需成为天才即可快速做出以下假设:

我们所说的“联系”并不是指 Elsie 试图与她的阿姨进行身体接触,而是试图通过电话联系她。

“在电话中”是指 Elsie 试图通过电话与她的阿姨交流,而不是在电话的物理表面上寻找她。

“她没有回答”指的是 Elsie 的阿姨,而不是 Elsie 本人。

但即使是最复杂的人工智能算法也很难得出同样的结论。

需要明确的是,深度学习在自然语言处理方面带来了一些非常有趣的进步。由于神经网络创新的爆炸式增长,机器翻译、搜索引擎、智能回复和自动更正功能以及语法检查器已经变得更好。

最近,艾伦人工智能研究所的科学家们开发了一种可以通过 8 年级科学测试的 AI 语言模型。而 OpenAI 的海量语言模型 GPT-2 引起了人们对AI 生成的假新闻威胁的极大关注。

然而,正如马库斯和戴维斯所说,人工智能在处理和生成语言方面的成就往往具有误导性。深度神经网络是巨大的统计机器,海量的数学函数,可以在大量数据之间找到复杂而错综复杂的相关性。这使得它们在分类任务中非常有效。但是我们在推理语言时所做的很多事情都与相关性和统计无关。

正如科学家在重新启动 AI中解释的那样,机器现在擅长做的事情(将事物分类)与执行平凡任务所需的推理和现实世界理解之间存在不匹配,例如理解我们的句子。较早前提过。

“[深度学习] 在理解句子等对象与其部分(如单词和短语)之间的关系时遇到了困难,”Marcus 和 Davis 写道。“为什么?它缺少了语言学家所说的组合性:一种从复杂句子各部分的意义中构建意义的方式。”

事实上,如果你回到电话交谈,我们做出的很多推论是因为我们有很多关于通信和电话工作原理的背景知识。但是深度学习模型没有这种理解——它只有从训练示例中学习到的相关性。这就是为什么众所周知,深度学习和神经网络与其训练数据一样好。

在处理简单的计算机视觉任务(例如分类图像和检测对象)时,这不会造成太大问题。同样,在语言方面,深度学习可以做一些事情,例如回答直接包含在其文本语料库中的问题(例如,Elsie 试图联系谁?)。

但是,当涉及到理解隐藏和隐含的含义时,那些无法通过大量示例来教授的东西,深度学习开始打破并表现出奇怪的行为。对于语言来说尤其如此,这是大脑最复杂的功能之一。

“除了几个小句子,你听到的几乎每一句话都是原创的。你没有任何直接的数据。这意味着你有一个关于推理和理解的问题,”马库斯在 9 月告诉我。“对事物进行分类,将它们放入你已经知道的垃圾箱的技术,根本不适合这种情况。理解语言就是将你已经了解的世界与其他人试图用他们所说的话做的事情联系起来。”

目前,大多数人工智能研究人员一直在寻求通过投入更大的数据集和计算资源来解决模型的错误。他们希望通过更多的数据,他们的人工智能最终能够回答每一个可能的角落和边缘情况。

但正如 Marcus 和 Davis 在Rebooting AI中解释的那样,“统计数据不能替代对现实世界的理解。问题不仅在于这里和那里存在随机错误,还在于足以进行翻译的统计分析类型与系统真正理解它们所需要的认知模型构建之间存在根本的不匹配。正在努力阅读。”

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章