据西班牙《趣味》月刊网站2月28日报道,在像素可塑、面孔合成的时代,模糊真伪之间边界的容易程度令人不安。所谓的深度伪造,也就是通过人工智能(AI)生成的以惊人准确度模仿真人的图像和视频,已经不是什么技术奥秘,而是一个可能改变公众感知、评价和决策的工具。在这种变幻莫测的情况下,有一个问题很重要:谁更擅长区别真伪,是人类还是机器?
美国佛罗里达大学一个跨学科团队针对这个问题的研究结果既具启发性又具反直觉色彩。根据这项发表在《认知研究:原则与启示》上的研究,算法在检测静态照片中伪造面孔的表现大大强过人类。但在同样的面孔开始在视频里说话和打手势时,优势便易主了。突然之间,人眼就占了上风。
在静态图像领域,人工智能展示出压倒性的识别效率。在分辨人工生成面孔的照片时,检测算法的准确率高达97%。相比这种近乎手术级精度的准确率,人类参与者区分真伪的准确率仅相当于随机猜测。
该研究的设计很细致。研究人员收集和生成了数百个图像和视频,其中一些是真实的,其他则是通过深度伪造技术创造的。数千名参与者评估了这些素材的真实性,与此同时,同样的文件也交给专门检测伪造的算法。对比很明显:针对静态图像,机器仿佛拥有一个隐形的放大镜,能够检测人类直觉察觉不到的瑕疵。
这种技术优势表明,至少在照片领域,自动化工具能够成为对抗视觉虚假信息的关键助力。算法分析微观特征(不连贯的阴影、不合逻辑的对称、数字伪影)的能力大大超越人类的有意识感知。
然而,这种优势在场景不再静止不动后,就显现出脆弱性。
在图像活动起来、人物说出话语的视频中,算法的准确率下降到与随机选择相同。相反,人类参与者正确识别了近三分之二的视频,无论视频真伪。
为什么会出现这种角色转换?研究论文的作者们认为,动态带来了更丰富的背景。一段视频涉及微表情、语速、停顿、手势与声音的微妙同步。人脑在进化中受到训练,以解析复杂的社交信号,它似乎能抓住现有的算法模型无法以同样的细腻程度加以解读的不协调之处。
此外,该研究还发现了人类表现中有趣的细微差别。分析思维能力较强、数字素养较高的人表现出较强的识别伪造视频的能力。相反,自认心情较好的人往往出错较多,这或许是因为积极的情绪有助于增强信任感和削弱批判性怀疑能力。
不过,作者们提醒,这些测试是在受控条件下进行的,而且测试内容是有特定类型的。现实的数字生态系统充满了各种刺激和模糊不清的背景,要复杂得多。不论是检测技术还是伪造技术,都在以难以预料的高速度发展。
除了人类与机器的对比,该研究还提出一个根本性问题:人类集体决策的稳定性取决于信息的真实性。从政治竞选到国际冲突等诸多领域,伪造视频的流传可能在几个小时内影响大众的认知。
研究人员强调,不是每个人都必须成为数字化鉴别专家。但是,培养警惕的态度确实很重要:质疑眼之所见、核对多个信源,并且在将一张图像视作铁证之前寻找更多证据。







