基于视觉对抗重构的DeepFake防御方法和系统
成果类型:: 发明专利
发布时间: 2023-08-16 09:48:01
中国科学院自动化研究所开展了基于视觉对抗重构的DeepFake防御方法和系统的攻关研究,近年来,以 Deepfakes 为代表的换脸技术开始在网络兴起。此类技术可将视频中的人脸替换成目标人物,从而制作出目标人物做特定动作的假视频。为了尽量减少深度伪造技术带来的影响,制定有效措施打击DeepFake,以保护的个人安全和隐私。该科技成果提出基于视觉对抗重构的DeepFake 防御方法和系统,其方法包括两阶段,第一阶段将真实人脸数据转化为潜在编码, 能够通过一个生成器逼真地重建真实图像。将这个问题看做GAN的逆向问题,训练一个编码器来生成潜在嵌入,将其作为初始化,然后再对其进行微调。第二阶段在第一阶段获得的潜在嵌入的临近域中搜索,以获得最优嵌入,该嵌入可以产生完美的重建并且使DeepFake失效。此过程中,潜在嵌入使用来自目标DeepFake模型的梯度信息进行优化,并限制在一个小的修改范围中,以满足视觉相似性要求。
该科技成果提出一种基于视觉对抗重构的DeepFake防御方法的技术方案,在威胁发生之前进行主动预防,可以产生完美的重建并且使DeepFake失效,通过主动防御将虚假内容的广泛传播带来的负面影响降到最低,在保持人脸高质量的同时,探索更合理更强力的防御方法,发展前景非常可观。
Deepfake的滥用不仅让诸多虚假新闻得以传播,同时,含有虚假政治、色情信息的视频和图片也对人们的生活造成了巨大的伤害,随着生成技术的不断发展,由Deepfake引起的身份盗用、诈骗勒索等安全问题也日益显著。在这样的背景下,通过主动防御的方法防止Deepfake被恶意利用,阻止Deepfake图片、视频的生成和传播,避免虚假内容造成的伤害。
中国科学院自动化研究所多媒体鉴伪关键技术团队长期从事多媒体内容安全、人工智能安全等方面的研究工作,在图像、视频鉴伪等领域有着多年的技术积累和雄厚的科研实力,是国内较早开展鉴伪取证研究的科研团队之一。公开发布了国际上首个大规模鉴伪数据库,举办了国际首个深度伪造对抗博弈赛,并连续举办三届。在包括T-IFS、CVPR、AAAI、ICCV、ACM MM等国际顶级刊物和会议上发表相关学术论文80余篇,获得授权专利26项,包含3项国际专利。团队负责人主持或主要参与了国家863计划、973计划,科技支撑计划、重点研发计划、国家自然科学基金等40余项国家级、省部级和企业合作科研项目。
团队负责人董晶研究员现为中国人工智能学会(CAAI)理事、杰出会员;中国图象图形学学会(CSIG)理事、副秘书长;CSIG女科技工作者委员会秘书长;CSIG数字媒体取证与安全专委会常委、副秘书长;北京图象图形学学会(BSIG)常务理事、青工委主任委员;中国科学院青年创新促进会会员;首都海智新型海智工作基地专家;美国电气电子工程师学会(IEEE) 高级会员、IEEE亚太区执行委员(2017-2022)、IEEE亚太区女工程师委员会主席(2017-2018)、IEEE女工程师协会北京分会副主席(2018-2022)、IEEE信号处理协会全球会员发展主席(2022-2024);亚太信号与信息处理协会(APSIPA)多媒体安全取证专委会委员;国际模式识别联合会(IAPR)出版委员会委员、 IAPR 《Newsletter》主编, Elsevier 《Journal of Information Security and Application》国际期刊的副主编。
(1)社会效益:随着人工智能的快速发展,DeepFake防御方法将为媒体生产和内容安全带来很大影响。在加强社会公共安全方面,为媒体内容的治理提供强有力的技术支撑,为我国信息安全、公益事业贡献科技力量。
(2)经济效益:利用互联网上可获取的数据生成众多虚假假视频,DeepFake防御方法可以降低虚假视频对舆论、选举、股价等的影响带来的经济影响。本项目将为更多企事业单位提供技术支撑,为视听内容制作提供新思路、新方法。
可将专利技术授权给其他公司或组织,让其在特定领域或应用中使用该技术。通过与行业领先企业合作,共同开发适用于特定领域的解决方案,可以加速技术的落地和推广,同时也有助于深入了解市场需求,根据实际情况进行定制开发。
同时,针对特定行业或组织的需求,开发定制的DeepFake防御解决方案。通过与客户合作,了解其具体需求,并根据专利技术设计和开发符合其需求的解决方案,从而为客户提供定制化的防御策略。
此外,与研究机构、大学等合作,共同开展深入的研究,推动该专利技术在相关领域的应用。科研合作项目可以为技术的优化和改进提供更多资源和支持。