最近,谷歌的一名软件工程师开发了一种AI人脸识别技术,可以识别二战大屠杀时期老照片中的人脸。未来寻找失散已久的亲人将成为现实?
AI面部识别领域是否开辟了新的业务?
这次是为了识别二战老照片中的人脸图像。
最近,来自谷歌的软件工程师丹尼尔·帕特(Daniel Patt)开发了一种名为N2N(Numbers to Names)的AI人脸识别技术,可以识别二战和大屠杀前欧洲的照片,并将其与现代人联系起来。
寻找与艾失散已久的亲人
2016年,帕特在参观华沙的波兰犹太人纪念馆时产生了一个想法。
这些陌生的面孔会和自己有血缘关系吗?
他的祖父母中有三人是来自波兰的大屠杀幸存者,他想帮助他的祖母找到被纳粹杀害的家人的照片。
二战期间,因为波兰犹太人多,被关押在不同的集中营,很多人失踪。
仅凭一张发黄的照片很难分辨出这张脸是谁的,更别说寻找走失的亲人了。
于是他回家后立刻把这个想法变成了现实。
软件最初的想法是通过数据库收集人脸的图像信息,利用人工智能算法帮助匹配相似度最高的前十个选项。
大部分图片来自美国大屠杀纪念博物馆,来自全国各地数据库的图片超过百万张。
用户只需选择电脑文件中的图像,点击上传,系统会自动筛选出匹配度最高的前十个选项。
此外,用户可以点击源地址查看图片的年份、地点、收藏等信息。
有一个槽点,如果输入现代人的图像,检索结果可能会离谱。
这就是结果?(黑色问号)
总之系统功能有待完善。
此外,Patt还与谷歌的其他软件工程师和数据科学家团队合作,提高搜索的范围和准确性。
由于面部识别系统存在隐私泄露的风险,Patt表示,“我们不对身份做任何评价,我们只负责用相似度分数呈现结果,让用户自己判断”。
人工智能面部识别技术的发展
那么这项技术是如何识别人脸的呢?
人脸识别技术首先要从“如何判断检测到的图像是否是人脸”入手。
2001年,计算机视觉研究人员Paul Viola和Michael Jones提出了一个高精度实时人脸检测框架。
这个框架可以基于训练模型来理解“什么是脸,什么不是脸”。
在训练之后,模型将提取特定的特征,然后将它们存储在一个文件中,以便新图像中的特征可以与先前存储的各个阶段的特征进行比较。
为了帮助确保准确性,该算法需要在“包含数十万张正负图像的大型数据集”上进行训练,以提高算法确定图像中是否存在人脸及其位置的能力。
如果所研究的图像已经通过特征比较的每个阶段,则已经检测到面部,并且可以继续操作。
尽管Viola-Jones框架在实时应用中具有很高的准确性,但它也有一些局限性。
例如,如果一张脸戴着面具,或者一张脸的方向不正确,则框架可能不起作用。
为了帮助消除Viola-Jones框架的缺点,改善人脸检测,他们开发了其他算法。
例如基于区域的卷积神经网络(R-CNN)和单透镜检测器(SSD)来帮助改进该过程。
卷积神经网络(CNN)是一种用于图像识别和处理的人工神经网络,专门用于处理像素数据。
R-CNN在CNN框架上生成区域建议,用于对图像中的对象进行定位和分类。
虽然基于区域提议网络(如R-CNN)的方法需要两个镜头——一个用于生成区域提议,另一个用于检测每个提议对象——但SSD只需要一个镜头就可以检测图像中的多个对象。所以SSD明显比R-CNN快。
近年来,深度学习模型驱动的人脸识别技术的优势明显优于传统的计算机视觉方法。
早期的人脸识别大多使用传统的机器学习算法,研究的重点是如何提取更具鉴别性的特征,以及如何更有效地对齐人脸。
随着研究的深入,传统机器学习算法在2D图像人脸识别中的性能提升已经逐渐达到瓶颈。
人们开始研究视频中的人脸识别,或者结合3D模型进一步提高人脸识别的性能,同时也有少数学者开始研究3D人脸识别。
在最著名的LFW开放库上,深度学习算法突破了传统机器学习算法在2D图像中人脸识别性能的瓶颈,识别率首次提高到97%以上。
即利用CNN网络建立的高维模型,直接从输入的人脸图像中提取有效的识别特征,直接计算余弦距离进行人脸识别。
人脸检测从基本的计算机视觉技术发展到机器学习(ML)的进步,再到日益复杂的人工神经网络(ANN)及相关技术,导致性能不断提高。
现在,它作为许多关键应用的第一步发挥着重要作用——包括人脸跟踪、人脸分析和人脸识别。
二战期间,中国也遭受了战争的创伤,当时照片中的很多人物已经难以分辨。
许多遭受战争创伤的祖父母一代的亲戚和朋友都失踪了。
这项技术的研发或许能帮助人们揭开尘封的岁月,为过去的人们找到些许慰藉。