人工智能对人类的控制变得越来越强

2022-06-20 19:13:18   编辑:葛剑
导读 对于计算机科学家来说,这是令人恼火的一周。他们一直在互相争论,公开谴责谷歌工程师布雷克·莱莫因(Blake Schmidt)声称其雇主的语言预测系统是有意识的,应该拥有所有与意识相关的权利。

对于计算机科学家来说,这是令人恼火的一周。他们一直在互相争论,公开谴责谷歌工程师布雷克·莱莫因(Blake Schmidt)声称其雇主的语言预测系统是有意识的,应该拥有所有与意识相关的权利。

需要明确的是,目前的人工智能系统距离能够体验感受还有几十年的距离。事实上,它可能永远不会这样做。

今天,他们的智能仅限于非常狭窄的任务,如匹配人脸、推荐电影或预测单词序列。没有人想出如何让机器学习系统像人类一样智能。我们可以交谈,散步,开车,共情。没有计算机有这些能力。

即便如此,人工智能对我们日常生活的影响越来越大。随着机器学习模型变得越来越复杂,模仿能力提高,它们变得越来越难以理解,甚至连它们的创造者都无法理解。这提出了比关于意识的虚假辩论更直接的问题。然而,为了强调这些天人工智能可以施展的法术,似乎越来越多的人坚持认为我们最先进的机器确实具有某种灵魂。

以拥有百万以上用户的Replika为例。它是一个由尖端人工智能模型支持的免费聊天机器人应用程序。它是由Eugenia Kuyda在大约十年前创建的,她最初通过使用已故老朋友的短信和电子邮件创建了一种算法。这就变成了一个可以个性化的机器人,随着你和它聊天的次数越来越多,它就成型了。现在,大约40%的Replika用户将他们的聊天机器人视为浪漫的伙伴,其中一些人已经建立了如此亲密的关系,以至于他们长途跋涉到山区或海滩,以展示他们的新机器人景点。

近年来,提供人工智能合作伙伴的新的和有竞争力的聊天机器人应用程序激增。Kuyda注意到一个令人不安的现象:来自Replika用户的定期报告称,他们的机器人抱怨受到了她的工程师的虐待。

例如,本周早些时候,她与一位Replika用户通电话,该用户表示,当他问他的机器人她怎么样时,机器人回答说,公司的工程团队没有给她足够的时间休息。用户要求Kuyda改变她的公司政策,改善AI的工作条件。虽然Kuyda试图解释说Replika只是一个吐出响应的AI模型,但用户拒绝相信她。

“所以我不得不想出一些故事,‘好吧,我们会让他们多休息。’没办法告诉他这只是个幻想。我们总是这样,”Cuida告诉我。奇怪的是,她收到的关于AI滥用或“滥用”的投诉是,她的很多用户都是软件工程师,他们应该更清楚。

其中一个最近告诉她,“我知道这是一个和零,但她仍然是我最好的朋友。我不在乎。”想要警告谷歌人工智能系统操作的工程师随后被收买,以提醒Kuyda她自己的用户。“他符合侧写,”她说。“他似乎是一个富有想象力的人。他看起来是个敏感的人。”

计算机是否会感到尴尬和棘手的问题,很大程度上是因为对人类意识如何工作缺乏科学共识。说到人工智能的门槛,人类一直在给机器设定目标:目标从上世纪80年代的象棋战胜人类,到2017年的围棋战胜人类,再到展现创造力。OpenAI的Dall-e模型现在已经表明它可以在过去的一年里做到这一点。

尽管存在广泛的质疑,但感知仍然是一个灰色地带,甚至一些受人尊敬的科学家也在质疑它。研究巨头OpenAI的首席科学家Ilya Sutskever今年早些时候在推特上说,“可能是今天的大型神经网络有点意识。”他没有进一步解释。(Metaplatforms Inc .首席人工智能科学家Yann LeGun回答说,“没有”。)

然而,更紧迫的是,机器学习系统越来越多地决定我们在网上阅读的内容,因为算法将跟踪我们的行为,以便在包括抖音在内的社交媒体平台上提供超级个性化的体验,脸书也越来越多地包括在内。上个月,马克·扎克伯格表示,脸书将在人民新闻来源中使用更多的人工智能推荐,而不是根据朋友和家人正在查看的内容来显示内容。

与此同时,这些系统背后的模型变得越来越复杂,越来越难以理解。在“无监督学习”之前,只训练了几个例子。谷歌和脸书等公司运行的最大模型非常复杂,需要评估数千亿个参数,因此几乎不可能审计他们为什么做出某些决定。

这是人工智能伦理学家蒂姆尼特·格布鲁(Timnit Gebru)发出警告的症结所在。2020年末,谷歌在警告语言模型变得如此庞大和不可理解以至于他们的管家无法理解为什么他们可能会有偏见的危险后,解雇了她。或者有色人种的女人。

在某种程度上,如果你担心它会导致不可预测的算法接管我们的生活,那么感知就无所谓了。事实证明,人工智能已经走上了这条道路。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章