对抗人脸识别的一个新方法:隐藏身份、随机换脸

雷锋 AI 科技评论按:人脸识别技术已经进入了大规模应用,个人数据的隐私问题也得到越来越多关注,针对隐私保护、躲避和攻击人脸识别系统的研究也陆续出现。

这其中,有篡改输入人脸识别系统的图像,让它无法识别图中存在人脸的,比如多伦多大学的《Adversarial Attacks on Face Detectors using Neural Net based Constrained Optimization》。

也有 CMU 设计的特殊眼镜,佩戴以后,即便经过监控设备的采集,仍然无法识别到图像中存在人脸,或者会被识别为另一个人;而且这种装饰方法算不上夸张,不那么容易引起别人怀疑。(论文《Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition》)

隐藏身份的「换脸」

近日又出现了一篇新的论文,来自挪威科技大学的《DeepPrivacy: A Generative Adversarial Network for Face Anonymization》(arxiv.org/abs/1909.04538),从新的、更有挑战的角度欺骗人脸识别系统:在不改变原来的数据分布的前提下把人脸匿名化,更通俗地说就是模型的输出还是一张逼真的人脸,姿态和背景也和原图相同,但完全无法识别出原来的人脸身份,也就是「换了一张脸」。

不同人脸匿名方式的对比,从左到右依次为:原图,DeepPrivacy 模型的遮挡后的输入,马赛克,高斯模糊,DeepPrivacy 模型输出

Flickr Diverse Faces 数据集中一些人脸样本

相关研究比较

另一些人脸匿名化结果 —— 左图大家本来可能熟悉,现在就难认出来了

可能有人已经想到了,DeepPrivacy 所做的「生成匿名逼真人脸」的任务,其实就和图像补全(Image Inpainting)高度相似,都是让模型为图像中的指定区域填充全新的内容。不过图像补全任务中要补全的内容就不仅仅是人脸了,包含了各种日常物体和场景。也有图像补全的研究人员尝试过补全人脸的效果,他们在高清晰度、数据丰富、姿态单一的 Celeb-A 数据集上进行尝试,结果模型并不能生成逼真的、身份不同且随机的人脸。

另外,雷锋 AI 科技评论认为值得一提的是来自英伟达的《A Style-Based Generator Architecture for Generative Adversarial Networks》(arxiv.org/abs/1812.04948),它是 CVPR 2019 的 最佳论文之一,也是目前为止生成高清晰度、高多样性的人脸效果最好的方法。毋庸置疑,这种方法生成的人脸比 DeepPrivacy 更逼真,而且也同样可以生成随机的新身份,不过就没办法控制同样的姿态和背景了。

一些讨论

在 Reddit 以及 Twitter 的讨论上,有人提出,仅仅更改面部是不足以完全隐藏身份的,有的人(比如奥巴马)仅凭发际线就有机会认得出来,再加上穿着、场景、身边的人的话,知名人物能够被认出来的可能性大大增加;也有人提出,变成随机的身份,还不如都用 DeepFake 把所有的脸都换成同一张生成的虚拟人脸,同样可以达到无法通过面部识别确定身份的效果。(另外 友们还吐槽了为什么要起 DeepPrivacy 这么一个烂大街的名字)

论文地址:
https://arxiv.org/abs/1909.04538

开源项目地址:
https://github.com/hukkelas/DeepPrivacy

雷锋 AI 科技评论 道。

声明:本站部分文章内容及图片转载于互联 、内容不代表本站观点,如有内容涉及侵权,请您立即联系本站处理,非常感谢!

(0)
上一篇 2019年9月10日
下一篇 2019年9月10日

相关推荐