3月4日迁移学习方式解决了许多训练AI人工智能模型的问题

2022-03-04 16:45:24   编辑:公孙贵凡
导读 但是,它也有权衡。如果预训练的神经网络存在安全漏洞,则使用它作为迁移学习基础的 AI 模型会继承这些漏洞。例如,基础模型可能无法抵御

但是,它也有权衡。如果预训练的神经网络存在安全漏洞,则使用它作为迁移学习基础的 AI 模型会继承这些漏洞。

例如,基础模型可能无法抵御对抗性攻击,精心设计的输入示例会迫使 AI 以不稳定的方式改变其行为。如果恶意行为者设法为基础模型开发了一个对抗性示例,他们的攻击将适用于从中派生的大多数 AI 模型。芝加哥大学、加州大学圣克拉拉分校和弗吉尼亚理工大学的研究人员在去年的 Usenix 安全研讨会上发表的一篇论文中展示了这一点。

此外,在某些领域,例如教 AI 玩游戏,迁移学习的使用非常有限。这些人工智能模型经过强化学习训练,这是人工智能的一个分支,计算量非常大,需要大量的反复试验。在强化学习中,大多数新问题都是独一无二的,需要自己的 AI 模型和训练过程。

但总而言之,对于大多数深度学习应用程序,例如图像分类和自然语言处理,您有可能通过大量巧妙的迁移学习来走捷径。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章