黑客居然用AI换脸技术应聘 人工智能的安全问题不可忽视

2022-06-30 19:10:14   编辑:小美
导读6月28日,美国联邦调查局发布公告,披露有人在远程求职面试中使用Deepfake技术伪装成别人。

6月28日,美国联邦调查局发布公告,披露有人在远程求职面试中使用Deepfake技术伪装成别人。

美国疫情发生后,许多企业采用了“在家工作”(WFH)的模式。联邦调查局(FBI)犯罪投诉中心表示,他们最近收到了许多雇主的投诉。在招聘过程中,一些求职者盗用他人身份,利用Deepfake技术参与远程面试。

这些职位涉及信息技术、计算机程序、数据库和软件相关领域。一些求职者试图利用他人的背景和专业知识来获得工作,并通过Deepfake技术伪造视频。

他们发现,在对求职者进行在线面试时,求职者的动作或嘴唇的开合与声音并不一致。例如,当打喷嚏或咳嗽的声音出现时,图片并不同步。

当他们给这些求职者回电时,发现有些求职者其实是在冒用别人的身份来找工作。如果只是找工作的小问题,但如果是黑客,他们一旦签约成功,就能成功进入企业,接触到机密数据。

你是不是也很好奇,这个软件有这么好用吗?

答案是,真的很高级。

Deep可以利用生成对抗网络(GAN)强大的图像生成能力,在源图像和视频上组合叠加任何已有的图像和视频。它可以记录一个人面部的细节。Deepfake技术经过多年的发展,已经可以实时变脸,毫无违和感。

但在视频中,Deepfakes很难做出面部动态表情的高置信度动画。在视频中,人们要么从不眨眼,要么眨眼过于频繁或不自然。此外,音频和虚拟图像不会自然匹配。

所以这种视频长达10秒,让人生疑。整个面试时间会更长,更容易露出破绽。

科学的进步和变化是一把双刃剑。

人工智能技术虽然给我们提供了极大的便利,但也可能带来安全、伦理、隐私等一系列问题。

人工智能发展的本质是通过算法、计算能力和数据来解决完全信息和结构化环境中的确定性问题。在这个数据支撑的时代,人工智能面临诸多安全风险,

首先,有可能面临中毒袭击。

即黑客注入恶意数据,降低AI系统的可靠性和准确性,导致人工智能决策失误。在训练数据中加入虚假数据和恶意样本,会破坏数据的完整性,导致训练算法模型的决策出现偏差。

这种操作如果用在自动驾驶领域,很可能导致车辆违反交通规则,甚至引发交通事故。

其次,还会有数据泄露的问题。

反向攻击会导致算法模型内部的数据泄漏。现在智能手环、智能音箱生物识别系统、智能医疗系统等各种智能设备广泛应用,全方位采集个人信息。包括人脸、指纹、声纹、虹膜、心跳、基因等。这些信息具有唯一性和不可更改性,一旦泄露或被滥用,将会造成严重后果。

比如一旦被曝光,国内大量店铺收集的大量人脸照片未经用户同意就被泄露。这些人脸照片或多或少都流出了黑产,会有诈骗或资金安全的风险。

第三,将面临网络风险。

网络连接中必然会引入人工智能,人工智能技术本身也可以提高网络攻击的智能化水平,进而进行数据情报窃取和数据勒索攻击或自动生成大量虚假威胁信息攻击分析系统。

那么主要的攻击手段包括:旁路攻击、推理攻击、后门攻击、模型提取攻击、归因推理攻击木马攻击、模型反转攻击、反水印攻击和重编程攻击。

我们应该清醒地认识到,在人工智能时代,数据安全也面临着许多新的挑战。保护数据和算法的安全已经成为企业的当务之急。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章