导读 但是,它也有权衡。如果预训练的神经网络存在安全漏洞,则使用它作为迁移学习基础的 AI 模型会继承这些漏洞。例如,基础模型可能无法抵御
但是,它也有权衡。如果预训练的神经网络存在安全漏洞,则使用它作为迁移学习基础的 AI 模型会继承这些漏洞。
例如,基础模型可能无法抵御对抗性攻击,精心设计的输入示例会迫使 AI 以不稳定的方式改变其行为。如果恶意行为者设法为基础模型开发了一个对抗性示例,他们的攻击将适用于从中派生的大多数 AI 模型。芝加哥大学、加州大学圣克拉拉分校和弗吉尼亚理工大学的研究人员在去年的 Usenix 安全研讨会上发表的一篇论文中展示了这一点。
此外,在某些领域,例如教 AI 玩游戏,迁移学习的使用非常有限。这些人工智能模型经过强化学习训练,这是人工智能的一个分支,计算量非常大,需要大量的反复试验。在强化学习中,大多数新问题都是独一无二的,需要自己的 AI 模型和训练过程。
但总而言之,对于大多数深度学习应用程序,例如图像分类和自然语言处理,您有可能通过大量巧妙的迁移学习来走捷径。