为什么AI人工智能不能解决未知问题

2021-12-21 15:28:53   编辑:茅曼香
导读我们什么时候才能拥有通用人工智能,那种可以全方位模仿人类思维的人工智能?专家们在这个话题上存在分歧,答案的范围从几十年到从来没有。

我们什么时候才能拥有通用人工智能,那种可以全方位模仿人类思维的人工智能?专家们在这个话题上存在分歧,答案的范围从几十年到从来没有。

但每个人都同意的是,当前的人工智能系统与人类智能相去甚远。人类可以探索世界,发现未解决的问题,并思考他们的解决方案。同时,AI 工具箱继续增长,算法可以执行特定任务,但不能将其功能推广到其狭窄的领域之外。我们的程序可以在星际争霸中击败世界冠军,但在业余水平上却不能玩稍微不同的游戏。我们有人工神经网络,可以在乳房 X 光照片中发现乳腺癌的迹象,但无法区分猫和狗。我们有复杂的语言模型 每小时可以发表数千篇看似连贯的文章,但当你问他们关于世界的简单逻辑问题时,就会开始崩溃。

简而言之,我们的每项 AI 技术都设法复制了我们对人类智能的了解的某些方面。但是,将所有这些放在一起并填补空白仍然是一项重大挑战。数据科学家 Herbert Roitblat在他的著作Algorithms Are Not Enough中深入回顾了 AI 的不同分支,并描述了为什么每个分支都未能实现创建通用智能的梦想。

Roitblat 讨论到,所有 AI 算法的共同缺点是需要预定义的表示。一旦我们发现了一个问题并可以用可计算的方式表示它,我们就可以创建可以解决它的 AI 算法,而且通常比我们自己更有效。然而,那些未被发现和无法代表的问题仍然让我们望而却步。

符号 AI 中的表示

纵观人工智能的历史,科学家们经常发明新的方法来利用计算机的进步以巧妙的方式解决问题。早期的人工智能专注于符号系统。

人工智能的这一分支假设人类思维是基于对符号的操纵,任何可以计算符号的系统都是智能的。符号 AI 要求人类开发人员精心指定定义计算机程序行为的规则、事实和结构。符号系统可以执行非凡的壮举,例如记忆信息、以超快的速度计算复杂的数学公式以及模拟专家决策。我们每天使用的流行编程语言和大多数应用程序都源于在符号 AI 上所做的工作。

但是符号 AI 只能解决我们可以提供结构良好的、循序渐进的解决方案的问题。问题是人类和动物执行的大多数任务都无法用明确的规则来表示。

“下棋、化学结构分析和微积分等智力任务相对容易用计算机执行。即便是一岁大的人类或老鼠也能做的活动要困难得多,”罗伊特布拉特在算法不够用中写道。

这被称为“莫拉维克悖论”,以科学家汉斯·莫拉维克的名字命名,他表示,与人类相比,计算机可以毫不费力地执行高级推理任务,但在人类和动物自然习得的简单技能上挣扎。

“数百万年来,人类大脑已经进化出让我们执行基本感觉运动功能的机制。我们接球,我们识别面孔,我们判断距离,这一切似乎都毫不费力,”Roitblat 写道。“另一方面,智力活动是最近的发展。我们可以通过大量的努力和经常进行大量的训练来完成这些任务,但是如果我们认为是这些能力造就了智能,而不是智能使这些能力成为可能,我们就应该怀疑。”

因此,尽管符号 AI 具有非凡的推理能力,但它与人类提供的表征严格相关。

机器学习中的表示

机器学习为 AI 提供了一种不同的方法。工程师不是编写明确的规则,而是通过示例“训练”机器学习模型。“[机器学习] 系统不仅可以执行他们专门编程的任务,而且还可以将其能力扩展到以前未见过的事件,至少是在特定范围内的事件,”Roitblat 在Algorithms Are Not Enough 中写道。

最流行的机器学习形式是监督学习,其中模型在一组输入数据(例如,湿度和温度)和预期结果(例如,下雨的概率)上进行训练。机器学习模型使用此信息来调整一组将输入映射到输出的参数。当呈现以前看不见的输入时,训练有素的机器学习模型可以非常准确地预测结果。不需要明确的if-then规则。

但是有监督的机器学习仍然建立在人类智能提供的表征之上,尽管它比符号 AI 更松散。Roitblat 是这样描述监督学习的:“[M] 机器学习涉及将要解决的问题表示为三组数字。一组数字代表系统接收的输入,一组数字代表系统产生的输出,第三组数字代表机器学习模型。”

因此,虽然监督机器学习并没有像符号 AI 这样的规则紧密绑定,但它仍然需要由人类智能创建的严格表示。在创建机器学习模型之前,操作员必须定义特定问题、策划训练数据集并标记结果。只有当问题以自己的方式被严格表示时,模型才能开始调整其参数。

“表示由系统的设计者选择,”Roitblat 写道。“在许多方面,表征是设计机器学习系统最关键的部分。”

在过去十年中越来越流行的机器学习的一个分支是深度学习,它通常被比作人脑。深度学习的核心是深度神经网络,它将简单的计算单元层层叠加以创建机器学习模型,这些模型可以执行非常复杂的任务,例如对图像进行分类或转录音频。

但同样,深度学习在很大程度上依赖于架构和表示。大多数深度学习模型需要标记数据,并且没有通用的神经网络架构可以解决所有可能的问题。机器学习工程师必须首先定义他们想要解决的问题,策划一个大型训练数据集,然后找出可以解决该问题的深度学习架构。在训练期间,深度学习模型将调整数百万个参数以将输入映射到输出。但它仍然需要机器学习工程师来决定神经网络的层数和类型、学习率、优化函数、损失函数和其他不可学习的方面。

“与大部分机器智能一样,(深度学习的)真正天才来自系统的设计方式,而不是来自其自身的任何自主智能。聪明的表示,包括聪明的架构,可以产生聪明的机器智能,”Roitblat 写道。“深度学习网络通常被描述为学习它们自己的表征,但这是不正确的。网络的结构决定了它可以从其输入中获得哪些表示。它如何表示输入以及它如何表示解决问题的过程,对于深度学习网络和任何其他机器学习系统来说都是一样的。”

机器学习的其他分支遵循相同的规则。例如,无监督学习不需要标记示例。但它仍然需要一个明确的目标,比如网络安全异常检测,客户细分市场营销,降维,或嵌入表示。

强化学习是机器学习的另一个流行分支,与人类和动物智能的某些方面非常相似。AI 代理不依赖标记的示例进行训练。相反,它被赋予一个环境(例如,国际象棋或棋盘)一组它可以执行的动作(例如,移动棋子、放置石头)。在每一步,代理执行一个动作并以奖励和惩罚的形式从其环境接收反馈。通过反复试验,强化学习代理找到产生更多奖励的动作序列。

计算机科学家理查德萨顿将强化学习描述为“第一个智能计算理论”。近年来,它在解决复杂问题(例如掌握计算机和棋盘游戏以及开发多功能机械臂和手)方面变得非常流行。

但是强化学习环境通常非常复杂,并且一个代理可以执行的可能动作的数量非常大。因此,强化学习代理需要大量人类智能的帮助来设计正确的奖励、简化问题并选择正确的架构。例如,掌握在线视频游戏 DotA 2 的强化学习系统OpenAI Five 就依赖其设计者简化游戏规则,例如减少可玩角色的数量。

“除了微不足道的系统之外,不可能检查所有可能导致奖励的可能行为的所有可能组合,”Roitblat 写道。“与其他机器学习情况一样,需要启发式方法将问题简化为更易于处理的问题,即使不能保证产生最佳答案。”

以下是 Roitblat 在Algorithms Are Not Enough 中总结当前 AI 系统的缺点的方式:“当前的人工智能方法有效,因为他们的设计者已经弄清楚如何构建和简化问题,以便现有的计算机和流程可以解决这些问题。为了拥有真正的通用智能,计算机需要能够定义和构建自己的问题。”

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章