“深度伪造”(Deepfake)技术正以极具迷惑性的虚假内容冲击数字社会的信任基石,不仅颠覆了“眼见为实”的传统认知范式,更对网络信息生态安全构成系统性威胁。因此在技术反制和法律规制之外,深入探讨影响公众识别深度伪造视频能力的关键个体因素,有助于培养公众的数字认知韧性,并为“以受众为中心”的欺骗性人工智能治理策略提供实证支持。在此背景下,苏州大学传媒学院数字传播系主任王国燕教授的科技传播团队依托国家社科基金重大课题“欺骗性人工智能的信息传播、社会影响与风险治理研究”,与中国科学技术大学网络空间安全学院执行院长俞能海教授领衔的深度伪造技术团队再度合作,系统地探索了个体认知倾向与视觉素养对深度伪造识别能力的影响。题为“Identifying individual differences in deepfake discernment: the effects of cognitive disposition and visual literacy”的研究成果,2025年4月25日在线发表于传播学领域的中国科学院一区TOP期刊Information, Communication & Society,苏州大学博士研究生金心怡为论文第一作者,这是苏州大学以第一和通讯署名单位发表于该刊的首篇论文。
深度伪造检测工具的运行示意图(图片来源:DALL-E借助AI制作)
这项研究采用混合方法,在量化分析部分,研究团队基于对516名参与者的在线调查,采用分层多元回归分析验证了人口学特征、认知倾向(包括直觉信念和认知需求)、视觉素养(包括创造性视觉素养和解释性视觉素养)和自我评估的知识水平等个体差异因素对深度伪造辨识能力的影响。在质化分析部分,研究采用主题分析法对成功识别深度伪造视频的参与者进行深入探究,通过开放性问题(如“为什么认为该视频不可信?”)挖掘其判断依据,揭示个体辨别虚假内容的认知过程与决策逻辑。
研究材料截图(左为深度伪造视频,右为真实视频)
研究显示,参与者判断视频真伪主要有两大依据:一是视频内容的逻辑合理性,如视频中人物言论是否与其身份相符;二是技术操纵痕迹,如视频中人物的面部表情和声音是否存在异样等。数据分析结果揭示了视觉素养与辨别能力之间的紧密联系。解释性视觉素养较高的个体,也就是那些具备更强的批判性解读和分析视觉内容能力的人,能更敏锐地捕捉视频中的逻辑漏洞,从而更精准地识别深度伪造视频。与之形成鲜明对比的是,直觉信念与辨识能力呈现显著的负相关。这意味着依赖直觉思维的个体,往往缺乏系统、深度处理信息的内在动力,容易忽略视频中暗示伪造的线索,进而对视频可信度做出错误评估。值得注意的是,有关深度伪造技术的知识水平虽不能直接提升个体的辨识能力,但在识别视频中的技术处理痕迹方面能起到一定的辅助作用。研究结果有力地证实了信息处理双加工模型在深度伪造识别场景中的适用性:采用中心路径对视频信息进行深度处理,通过识别视频内容的不合逻辑和视频画面的不自然之处,有助于个体更准确地判断视频真伪。在此过程中,批判性评估的动机和能力是共同发挥作用的两个关键因素。
基于上述发现,研究指出提升公众的视觉素养或许是应对深度伪造负面影响的有效策略,这需要从两个方面同时发力:一方面,要提升个体的辨别能力,可通过开展差异化的认知训练、加深对视觉元素和技术的理解等方式实现;另一方面,要增强个体的辨别动机,比如提高对深度伪造风险的认识、培养信息决策的责任感等。这项研究不仅深化了我们对个体评估视觉信息过程的理解,以及认知和素养差异对这一过程的影响,还为制定因人而异的防御模式以应对深度伪造挑战提供了有力支持,在当前深度伪造技术日益泛滥的媒介环境下,具有迫切的现实意义。
作为SSCI收录的国际权威期刊,Information, Communication & Society持续聚焦新兴信息与通信技术对社会、经济及文化的颠覆性影响,被誉为“当代信息时代学术辩论的中心”,2024年中国学者发表于该刊的论文总数为10篇。该论文的收录彰显了我国研究学者在深度伪造研究领域的学术国际影响力。此前,苏州大学传媒学院王国燕教授课题组与中国科学技术大学俞能海教授课题组合作开展的“技术+人文”的深度伪造控制实验研究,探索了信息线索对视频感知可信度的影响机制,已于2023年9月发表于新闻传播学领域的中国科学院一区TOP期刊New Media & Society。
国家社科基金重大课题“欺骗性人工智能的信息传播、社会影响与风险治理研究”由苏州大学牵头,中国科大、华南理工、科大讯飞等高校和机构联合攻关,拟整合多学科力量探索深度伪造视频、语音诈骗、钓鱼软件、社交机器人水军等欺骗性人工智能技术的传播影响与治理路径。未来,团队将持续追踪技术演进带来的新挑战,深化研究成果向政策实践转化,为欺骗性人工智能的风险治理贡献智慧。
拟稿:金心怡
校稿:王国燕
审稿:张 健