人工智能没有像大家想象的那么迫在眉睫

2022-06-20 19:11:55   编辑:小美
导读如果你仔细观察,你会发现最新的系统,包括DeepMind大肆宣传的加托,仍然受到同样的老问题的困扰。

如果你仔细观察,你会发现最新的系统,包括DeepMind大肆宣传的加托,仍然受到同样的老问题的困扰。

在普通人看来,人工智能(AI)领域似乎进步很大。比如一些有感染力的媒体账号的新闻稿和报道,OpenAI的DALL E 2(一个人工智能程序)似乎可以根据任何文字的描述,创造出壮观的图像;另一个名为GPT-3(一种自回归语言模型)的OpenAI系统可以谈论任何事情;Alphabet旗下的DeepMind在今年5月发布了一款名为加托的系统,似乎已经能够完成Alphabet交给它的每一项任务。

DeepMind的一位高管甚至夸口说“游戏结束了!”在追求具有人类智能的灵活性和独创性的通用人工智能(AGI)的道路上。埃隆马斯克(Elon Musk)最近也表示,如果我们在2029年之前没有实现通用人工智能(AGI),他会非常惊讶。

但我想说的是,不要被这些信息所迷惑。机器也许有一天会和人类一样聪明,甚至比人类更聪明,但这场游戏远没有结束。在创造能够真正理解和推理我们周围世界的人工智能机器方面,我们还有很多工作要做。我们现在真正需要的是少摆姿态,多做基础研究。

可以肯定的是,人工智能确实在某些方面取得了进步。例如,合成图像看起来越来越逼真,语音识别可以在嘈杂的环境中工作。但离我们追求的人类级别的通用人工智能还很远。比如我们可以理解文章和视频的真正含义,或者应对各种意想不到的阻碍和干扰。我们仍然面临着多年来一直存在的挑战:让人工智能变得可靠,并使其能够应对不寻常的情况。

以最近著名的加托为例。叫做“百事通”。让我们来看看它是如何给一张投球手投掷棒球的图片添加标题的。系统返回三个不同的答案,分别是:“一个棒球运动员在棒球场上投球”、“一个人在棒球场上向一个投球手投球”、“在棒球比赛中,一个击球手和一个接球手在泥土中”。除了第一个答案是正确的,其他两个答案都包含了图像中看不到的其他玩家的“错觉”信息。该系统不知道图片中的实际内容,但识别出大致相似的图像中的典型内容。任何一个棒球迷都知道这是投球手刚刚投出的球,而不是相反——虽然我们知道接球手和击球手就在附近,但他们显然不会出现在图像中。

同样,DALL-E 2也分不清“蓝方顶上的红方”和“红方顶上的蓝方”。今年5月发布的新版系统仍然分不清“宇航员骑马”和“马骑宇航员”的区别。

图片来源:Imagen;摘自Chitwan Saharia等人《具有深度语言理解的照片级真实感文本到图像扩散模型》。

当你看到DALL-E这样的系统错误时,你可能会觉得结果很有趣,但如果是其他AI错误,就会导致严重的问题。例如,最近一辆自动驾驶特斯拉直接开到一名挂有停车标志的工人面前,只有在司机干预时才减速。系统可以识别人本身(如他们在训练数据中出现的那样)和他们通常的停车标志位置(如他们在训练图像中出现的那样),但当这两种情况结合在一起时,停车标志对于系统来说处于不寻常的位置,它无法减速。

不幸的是,实际上这些系统还是不可靠的,它们在试图让人们注意不到这些信息。加托在DeepMind报告的所有任务中表现良好,但很少能像其他当代系统一样好。GPT-3经常能写出流畅的散文,但完成基本的算术还是有困难。此外,它对现实的控制非常有限。写“一些专家认为吃袜子的行为有助于大脑走出冥想导致的改变状态”这样的句子很容易,但从来没有专家说过这样的话。如果你粗略看一下最近的头条,没有一条会告诉你这些问题。

这里的次要背景是,人工智能领域最大的研究团队不再出现在学术界,而是出现在企业——同行评议曾经是学术界的重中之重。不像大学,企业没有公平竞争的动力。企业不是把吸引眼球的最新论文提交给学术评审,而是通过新闻稿发布,吸引记者,避免同行评审。这样,我们只知道他们想让我们知道的。

在软件行业,有一个词可以形容这种策略:demoware(试用软件)。这个设计在演示时看起来不错,但在现实世界中不一定足够好。通常试用软件会变成原子化(太监)软件,是发布出来吓唬竞争对手的产品,但永远不会发布。

但是,最后还是会自食其果。冷聚变可能听起来很棒,但你在商场里还是买不到。人工智能的代价很可能是一个充满失望预期的冬天。太多的产品,比如无人驾驶汽车、自动放射科医生、通用数字代理人,已经被论证并公之于众,却从未交付使用。目前来看,投资资金已经兑现(谁不喜欢自动驾驶汽车?),但如果可靠性、处理离群值等核心问题得不到解决,投资就会枯竭。除了制造了很多深刻的假象,留下了巨大的碳排放网络,在机器翻译、语音识别、物体识别方面取得了进步,除了这些过早的炒作,其他方面的进步实在太少了。

深度学习提高了机器识别数据模式的能力,但它有三个主要缺陷。讽刺的是,它学到的模式是表面的,而不是概念上的;它产生的结果很难解释,这些结果也很难用于其他过程,比如记忆和推理。正如哈佛大学计算机科学家Les Valiant所指出的那样,“[未来]的核心挑战是以统一的方式阐明……学习和推理的理念。”如果你不能真正理解什么是停车标志,你就不能和一个有停车标志的人打交道。

目前,我们陷入了“局部最小值”的困境。公司追求的是基准,而不是基本理念。他们一直在利用现有技术进行小规模的改进,而不是停下来追求更本质的问题。但我们需要更多人提出一些本质问题,比如如何建立一个可以学习和推理的系统,而不是追求直接面对媒体的炫酷演示。相反,目前的工程实践远远领先于科学技能,正在努力使用尚未完全理解的工具,而不是开发新的工具和更清晰的理论基础,这就是基础研究仍然必不可少的原因。

令人心碎的是,大部分人工智能研究的人(比如喊着“游戏结束”的人)甚至没有看到这一点。

想象一下,如果某些外星人只通过俯视地面上的阴影来研究人类的所有互动。他们注意到一些阴影比其他的大,所有的阴影在晚上都会消失。他们甚至可能会注意到阴影以一定的周期间隔有规律地生长和收缩,但他们从来不抬头看太阳,也不知道他们上方的三维世界。

人工智能研究者该抬头了。我们已经不能仅靠PR来“解决AI”了。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章