人工智能可以通过预测你会说什么来停止窥探

2022-04-28 09:18:41   编辑:桑宇玲
导读我们被带有麦克风的智能设备所包围,但如果它们被入侵窃听我们怎么办?为了保护我们的谈话免受窥探,哥伦比亚大学的研究人员开发了一种神经

我们被带有麦克风的智能设备所包围,但如果它们被入侵窃听我们怎么办?

为了保护我们的谈话免受窥探,哥伦比亚大学的研究人员开发了一种神经语音伪装方法,可以实时破坏自动语音识别系统,而不会给人们带来不便。

“随着 [智能语音激活设备] 侵入我们的生活,隐私的想法开始消失,因为这些监听设备始终处于开启状态并监控所说的内容,” Deep Instinct网络宣传总监Charles Everette告诉 Lifewire通过电子邮件。“这项研究是对隐藏或伪装个人的声音和对话的需求的直接回应,这些电子窃听者在一个地区已知或未知。”

谈心

研究人员开发了一种系统,可以产生耳语般安静的声音,你可以在任何房间播放这些声音,以阻止流氓麦克风监视你的谈话。

这种技术对抗窃听的方式让 Everette 想起了降噪耳机。研究人员并没有产生耳语般的安静声音来消除背景噪音,而是广播背景声音,扰乱将声波解释为可理解音频的人工智能 (AI) 算法。

这种伪装人声的机制并不是独一无二的,但神经语音伪装与其他方法的不同之处在于它可以实时处理流音频。

研究人员在他们的论文中指出:“要对现场语音进行操作,我们的方法必须预测未来 [正确的加扰音频],以便可以实时播放它们。” 目前,该方法适用于大多数英语语言。

Brand3D 的首席执行官Hans Hansen告诉Lifewire,这项研究非常重要,因为它攻击了当今 AI 系统的一个主要弱点。

在电子邮件对话中,Hansen 解释说,当前的深度学习 AI 系统通常是在处理从数千名说话者收集的数百万条语音数据记录后,特别是自然语音识别系统。相比之下,神经语音伪装仅在两秒钟的输入语音上进行自我调节后起作用。

“就个人而言,如果我担心监听设备,我的解决方案不会是添加另一个试图产生背景噪音的监听设备。”

错误的树?

BeyondTrust的首席安全策略师Brian Chappell认为,这项研究对那些担心自己可能处于受感染设备中的企业用户更有利,这些设备正在侦听表明正在说出有价值信息的关键字。

BeyondTrust 的首席网络安全研究员 James Maude通过电子邮件告诉 Lifewire :“这项技术可能更有趣的是在一个更加专制的监视状态下,人工智能视频和声纹分析被用于对付公民。”

Maude 建议,更好的选择是对这些设备如何捕获、存储和使用数据实施隐私控制。此外,Chappell 认为研究人员的方法的用处有限,因为它并非旨在阻止人类窃听。

“对于家庭,请记住,至少在理论上,使用这样的工具会导致 Siri、Alexa、Google Home 和任何其他通过口头触发词激活的系统忽略你,”Chappell 说。

但专家认为,随着人工智能/机器学习特定技术越来越多地包含在我们的智能设备中,这项技术完全有可能在不久的将来最终出现在我们的手机中。

Maude 很担心,因为人工智能技术可以快速学习区分噪音和真实音频。他认为,虽然该系统最初可能会成功,但随着监听设备学会过滤干扰噪音,它可能会很快变成一场猫捉老鼠的游戏。

更令人担忧的是,莫德指出,事实上,任何使用它的人都可以引起人们对自己的注意,因为干扰语音识别会显得不寻常,并且可能表明你正试图隐藏某些东西。

“就个人而言,如果我担心监听设备,我的解决方案不会是添加另一个试图产生背景噪音的监听设备,”莫德分享道。“特别是因为它只会增加设备或应用程序被黑客入侵并能够听我讲话的风险。”

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章