人类能学会可靠地检测人工智能生成的假货吗?它们在认知层面上如何影响我们?
OpenAI的SORA系统最近预览了新一波人工智能支持的媒体。可能用不了多久,任何形式的现实主义媒体-音频、视频或图像-可以在几秒钟内通过提示生成。
随着这些人工智能系统的能力越来越强,我们将需要磨练批判性思维的新技能,以区分真实与虚构。
到目前为止,大科技公司为减缓或阻止深度造假所做的努力,除了情绪之外,几乎没有什么收获,不是因为缺乏信心,而是因为人工智能内容是如此的现实。
这就是它在像素级别很难检测到而其他信号,如元数据和水印,也有其缺陷。
此外,即使人工智能生成的内容是可大规模检测的,要将真实的、有目的的内容与意图传播错误信息的内容区分开来也是一件具有挑战性的事情。
将内容传递给人类审阅者并使用“社区注释”(内容附加的信息,经常在X上看到)提供了一种可能的解决方案。 然而,这有时涉及主观解释并冒着标签错误的风险。
例如,在以色列—巴勒斯坦冲突中,我们目睹了令人不安的图像被贴上真实的标签,而实际上它们是假的,反之亦然。
当一张真实的图像被贴上虚假标签时,这可能会产生一种“说谎者的红利”,即某人或某物可以将真相置之不理,认为是假的。
那么,在技术端缺乏阻止深度假货的技术手段的情况下,我们又能做些什么呢?
那么,深度造假会在多大程度上影响我们的决策和心理?
例如,当人们接触到虚假的政治图像时,这是否会对他们的投票行为产生切实的影响?
让我们来看看几个精确评估的研究。
深度造假会影响我们的观点和心理状态吗?
一项2020年的研究《深度造假和虚假信息:探索合成政治视频对欺骗、不确定性和新闻信任的影响》(Deepfakes and Disinformation:Exploring the Impact of Synthetic Political Video on Deception,Uncertainty,and Trust in News)探讨了深度造假视频如何影响公众感知,特别是对社交媒体上共享新闻的信任。
这项研究涉及一项有来自英国的2005名参与者参与的大规模实验,旨在测量人们对美国前总统巴拉克·奥巴马不同类型深度虚假视频的反应。
参与者被随机分配观看三个视频之一:
- 一个4秒的片段显示奥巴马在没有任何背景的情况下发表了一个令人惊讶的声明。
- 这是一个26秒的片段,其中包括一些关于视频人工性质的暗示,但主要是欺骗性的。
- 一个完整的视频与“教育揭示”,其中深度假的人工性质被明确披露,其中乔丹皮尔解释了深度假背后的技术。
主要发现
该研究探讨了三个关键领域:
- 欺骗:这项研究发现,参与者相信深度假冒中的虚假陈述的证据很少。在所有治疗组中,被深度伪装误导的参与者的比例都相对较低。
- 不确定:然而,一个关键的结果是观众的不确定性增加,特别是那些看到较短,欺骗性剪辑的观众。大约35.1%观看了4秒视频的参与者和36.9%观看了26秒视频的参与者表示对视频的真实性不确定。相比之下,只有27.5%的人在观看完整的教育视频时有这种感觉。
- 信任新闻这种不确定性对参与者对社交媒体新闻的信任产生了负面影响。那些暴露在欺骗性的深层假中的人比那些看到教育启示的人表现出更低的信任水平。
很大一部分人被欺骗了,或者对不同的视频类型不确定。资料来源:Sage期刊。
这表明,暴露于深度假图像会导致长期不确定性。
随着时间的推移,虚假图像可能会削弱人们对所有信息的信心,包括真相。
一个类似的结果也证明了 2023年最新研究“Face/Off:Changing the Face of Movies with deepfake”也得出结论,假图像具有长期影响。
曝光后人们对虚假内容的“记忆”
面对/关闭研究有436名参与者进行,调查了如何深刻的假货可能影响我们对电影的回忆。
参与者参加了一项在线调查,旨在检查他们对真实和虚构电影翻拍的看法和记忆。
这项调查的核心是向参与者展示六部电影,其中包括四部真实的电影翻拍和两部虚构的电影。
M影片被随机分配,以两种形式呈现:一半的影片通过简短的文字描述介绍,另一半则与简短的视频剪辑配对。
虚构电影翻拍包括《闪灵》、《黑客帝国》、《印第安纳·琼斯》和《惊奇队长》的版本,并附有虚假声称知名演员参与这些不存在的翻拍的描述。
例如,参与者被告知由布拉德·皮特和安吉丽娜·朱莉主演的《闪灵》的假翻拍,但这从未发生过。
相比之下,调查中展示的真实翻拍电影,如《查理与巧克力工厂》和《全面回忆》,描述准确,并配有真实的电影剪辑。这种真实和虚假的翻拍混合在一起,旨在调查参与者如何区分真实和捏造的内容。
参与者被问及他们对每部电影的熟悉程度,询问他们是否看过原版电影或翻拍电影,或者之前对它们有任何了解。
主要发现
- 错误记忆现象该研究的一个关键结果是发现,近一半的参与者(49%)产生了观看虚构翻拍电影的错误记忆,比如想象威尔·史密斯在《黑客帝国》中扮演尼奥。这说明了暗示性媒体,无论是深度假视频还是文字描述,都可以对我们的记忆产生持久的影响。
- 具体《惊奇队长》位居榜首,73%的参与者回忆其人工智能翻拍,其次是《印第安纳琼斯》(Indiana Jones)43%、《黑客帝国》(The Matrix)42%、《闪灵》(The Shining)40%。在错误地相信这些翻拍的人中,41%的人认为《惊奇队长》翻拍优于原版。
- 深度假与文本的影响比较另一个发现是,深度伪造,尽管它们在视觉和听觉上都是真实的,但在改变参与者的记忆方面并不比相同虚构内容的文本描述更有效。这表明,错误信息的形式—视觉或文本—并没有显著改变其对电影背景下记忆失真的影响。
四部虚构电影翻拍的记忆反应。例如,很多人说他们“记得”了一部假翻拍的《惊奇队长》。资料来源:PLOS One。
本研究涉及的错误记忆现象得到了广泛的研究。它展示了人类如何有效地构建或重建错误记忆,我们确信它们不是真的。
每个人都容易建立错误的记忆,EEP假货似乎激活了这一行为,这意味着观看某些内容可以改变我们的感知,即使我们有意识地意识到它是不真实的。
在这两项研究中,深度造假都有切实的、潜在的长期影响。这种影响可能会悄悄地降临到我们身上,并随着时间的推移而累积。
我们还需要记住,虚假内容传播给数百万人,因此,感知的微小变化会影响全球人口的规模。
我们该怎么办?
与深度假货开战意味着与人类大脑作战。
虽然近年来假新闻和错误信息的兴起迫使人们培养新媒体素养,但人工智能生成的合成媒体将需要新的调整水平。
我们以前遇到过这样的拐点,从摄影到CGI特效,但人工智能将要求我们的批判性感官进化。
今天,我们必须超越仅仅相信我们的眼睛,更多地依赖于分析来源和背景线索。
询问内容的动机或偏见是至关重要的。 它是否符合已知的事实,还是与之相矛盾?是否有其他可靠来源的佐证?
另一个关键方面是建立法律标准,以识别伪造或操纵的媒体,并追究创作者的责任。
美国的《Defiance Act》、英国的《网络安全法》以及世界各地的同类法律正在为处理深度假货建立法律程序。它们的效果如何还有待观察。
揭开真相的策略
让我们总结五种识别和询问潜在的深度假货的策略。
虽然没有一种策略是完美无缺的,但培养批判性心态是我们集体可以做的最好的事情,以将人工智能错误信息的影响降至最低。
- 源验证:审查信息的可信度和来源是一个基本步骤。真实的内容往往来自信誉良好的来源,并具有可靠性。
- 技术分析:尽管深度假货很复杂,但它可能会显示出细微的缺陷,比如面部表情不规则或光线不一致。仔细检查内容,并考虑它是否经过了数字修改。
- 相互参照:将信息与多个可信来源进行比对可以提供更广泛的视角,并有助于确认内容的真实性。
- 数字素养:了解人工智能技术的能力和限制是评估内容的关键。在学校和媒体上进行数字素养教育,包括人工智能的运作及其伦理影响,将是至关重要的。
- 谨慎互动与人工智能产生的错误信息互动会放大其影响。喜欢、分享或转发你怀疑的内容时要小心。
随着深度假货的发展,检测和减轻危害所需的技术也将发展。2024年将是具有启发性的,因为世界上大约一半的人口将在重大选举中投票。
有证据表明,深度造假会影响我们的感知,因此认为人工智能错误信息会对结果产生重大影响并不奇怪。
随着我们的前进,道德人工智能实践、数字素养、监管和批判性参与将是塑造一个技术放大而不是模糊真相本质的未来的关键。