人工智能背后的想法是开发一个可以学习填补空白的深度学习系统

2022-01-12 16:12:47   编辑:从伦炎
导读2022年1月12日整理发布:你向系统展示一段输入、一段文本、一段视频,甚至是一张图像,你压制其中一段,掩盖它,然后训练一个神经网络或你

2022年1月12日整理发布:“你向系统展示一段输入、一段文本、一段视频,甚至是一张图像,你压制其中一段,掩盖它,然后训练一个神经网络或你最喜欢的类或模型来预测丢失的那一段。这可能是视频的未来,也可能是文本中缺少的文字,”LeCun 说。

我们最接近自监督学习系统的是 Transformers,这是一种在自然语言处理中被证明非常成功的架构。Transformer 不需要标记数据。他们接受过大型非结构化文本语料库的培训,例如维基百科文章。事实证明,他们在生成文本、参与对话和回答问题方面比他们的前辈要好得多。(但他们离真正理解人类语言还很远。)

Transformer 已经变得非常流行,并且是几乎所有最先进语言模型的基础技术,包括 Google 的 BERT、Facebook 的 RoBERTa、OpenAI 的 GPT2和 Google 的Meena 聊天机器人。

最近,人工智能研究人员已经证明,变压器可以执行积分并解决需要符号操作的微分方程。这可能暗示变压器的发展可能使神经网络超越模式识别和统计近似任务。

到目前为止,Transformer 已经证明了它们在处理文字和数学符号等离散数据方面的价值。“训练这样的系统很容易,因为对于哪个单词可能会丢失存在一些不确定性,但我们可以用整个字典的巨大概率向量来表示这种不确定性,所以这不是问题,”LeCun 说。

但变形金刚的成功并没有转移到视觉数据领域。“事实证明,在图像和视频中表示不确定性和预测比在文本中要困难得多,因为它不是离散的。我们可以生成字典中所有单词的分布。我们不知道如何表示所有可能的视频帧的分布,”LeCun 说。

对于每个视频片段,都有无数可能的未来。这使得人工智能系统很难预测单个结果,比如视频中的接下来的几帧。神经网络最终计算可能结果的平均值,这导致输出模糊。

“如果我们想将自监督学习应用于视频等多种形式,这是我们必须解决的主要技术问题,”LeCun 说。

LeCun 最喜欢的监督学习方法是他所说的“基于潜变量能量的模型”。关键思想是引入一个潜在变量 Z,它计算变量 X(视频中的当前帧)和预测 Y(视频的未来)之间的兼容性,并选择具有最佳兼容性分数的结果。LeCun 在演讲中进一步阐述了基于能量的模型和其他自我监督学习的方法。

深度学习的未来不受监督

“我认为自我监督学习是未来。这将让我们的人工智能系统、深度学习系统更上一层楼,或许可以通过观察来学习足够多的关于世界的背景知识,从而产生某种常识,”LeCun 在演讲中说道。 AAAI 会议。

自我监督学习的主要好处之一是人工智能输出的信息量巨大。在强化学习中,人工智能系统的训练是在标量级别进行的;该模型接收一个单一的数值作为其行为的奖励或惩罚。在监督学习中,人工智能系统为每个输入预测一个类别或一个数值。

在自我监督学习中,输出改进为整幅图像或一组图像。“这是更多的信息。要学习相同数量的关于世界的知识,您将需要更少的样本,”LeCun 说。

我们仍然必须弄清楚不确定性问题是如何运作的,但是当解决方案出现时,我们将解锁人工智能未来的一个关键组成部分。

“如果人工智能是一块蛋糕,那么自我监督学习就是蛋糕的大部分,”LeCun 说。“人工智能的下一次革命不会受到监督,也不会纯粹得到加强。”

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章