AI研究人员为您的照片设计“隐私过滤器”

每次将照片或视频上传到社交媒体平台时,其面部识别系统都会对您有所了解。这些算法会提取有关您的身份,位置和您认识的人的数据,并且这些数据会不断改进。

随着对社交网络隐私和数据安全性的关注不断增长,由Parham Aarabi教授和研究生Avishek Bose领导的T工程研究人员创建了一种动态破坏面部识别系统的算法。

“个人隐私是一个真正的问题,因为面部识别变得越来越好,”Aarabi说。“这是有益的反面部识别系统能够对抗这种能力的一种方式。”

他们的解决方案利用了一种称为对抗性训练的深度学习技术,该技术将两种人工智能算法相互对立。Aarabi和Bose设计了一套两个神经网络:第一个用于识别面部,第二个用于破坏第一个面部识别任务。两人正在不断争斗并相互学习,建立了持续的AI军备竞赛。

结果是一个类似Instagram的过滤器,可以应用于照片,以保护隐私。他们的算法改变图像中非常特定的像素,进行人眼几乎察觉不到的变化。

“破坏性人工智能可以'攻击'人脸检测的神经网络正在寻找什么,”Bose说。“例如,如果检测AI正在寻找眼角,它会调整眼角,使它们不那么明显。它会在照片中产生非常微妙的干扰,但对于探测器而言,它们非常重要欺骗系统。“

Aarabi和Bose在300W面部数据集上测试了他们的系统,这是一个包含600多种面孔的行业标准库,包括各种种族,照明条件和环境。他们表明,他们的系统可以将最初可检测到的面部比例从近100%降低到0.5%。

“这里的关键是训练两个神经网络相互对抗 - 一个创建一个越来越强大的面部检测系统,另一个创建一个更强大的工具来禁用面部检测,”该项目的第一作者Bose说。该团队的研究将于今年夏天晚些时候在2018年IEEE国际多媒体信号处理研讨会上发布并发布。

除了禁用面部识别外,新技术还会破坏基于图像的搜索,特征识别,情感和种族估计以及可以自动提取的所有其他基于面部的属性。

接下来,该团队希望通过应用程序或网站公开提供隐私过滤器。

“十年前,这些算法必须由人类定义,但现在神经网络自学 - 除了训练数据外,你不需要提供任何东西,”Aarabi说。“最终他们可以做一些非常棒的事情。这是一个非常迷人的时间,有巨大的潜力。”