加利福尼亚大学伯克利分校和南加州大学的研究人员已经开发出一种方法,通过法医检测个人语音的微妙特征来检测深度视频,并检查视频以查看特征是否存在。
研究论文“保护世界领导者免受极度假动作”由加州大学伯克利分校计算机科学研究生Shruti Agarwal和她的论文顾问Hany Farid以及南加州大学和南加州大学创新技术研究所的团队撰写,并由计算机视觉基金会出版。该技术被发现用于确定视频是假的还是真实的,准确度在92%到96%之间,在加利福尼亚州长滩的计算机视觉和模式识别会议上展示,适用于“面部交换”和“唇形同步” “深度伪造方法,USC计算机科学家用它来创建用于研究目的的视频。
研究人员使用了OpenFace2 面部行为分析 用于检测小脸部抽搐的工具包,例如凸起的眉毛,鼻子皱纹,下颌运动和压迫的嘴唇,然后创建团队称为“软生物识别”模型的面部表情与数据。通过分析美国五大政治人物的视频,研究人员发现,每个人在讲话时都有不同的习惯。
报告作者写道:“我们发现,面部表情和头部运动之间的相关性可以用来区分一个人与其他人以及他们的假冒伪劣视频。”他们还测试了针对压缩,视频片段长度和所考虑的语音环境的技术。他们发现它比基于像素的检测技术更能抵抗压缩,但是如果说话者处于不同的语音环境中 - 例如非正式场景,而不是提供准备好的言论 - 检测成功是有限的。更大,更多样化的培训视频可以缓解这种限制。
Tech Xplore报告称,研究人员还建议使用数字水印来暴露深度伪造,但这些技术很容易受到调整大小或压缩等技术的影响。