2023年见证了用人工智能图像生成器创建的深度虚假图像的洪流,从五角大楼爆炸的虚假图像到虐待儿童的图像。
深度伪造技术也产生了几乎任何人的声音的强大复制品,从约翰尼·卡什演唱的芭比女孩到前苏丹总统奥马尔·巴希尔的假演讲。
因此,深度造假破坏了围绕当前以色列—哈马斯冲突已经充满担忧的数字环境,这也许并不令人惊讶。
总体而言,分析人士认为,人工智能的错误信息一直是有限的–社交媒体上流传的真实内脏内容足够多。然而,仅仅是人工智能生成的假货的前景就让人们质疑了真实的图像、视频和音频片段的合法性。
这就是所谓的“骗子的红利”。真实的内容现在可能会被视为人工智能生成的,从而在旁观者眼中错误地渲染它。
社交媒体为围绕数字内容的怀疑和偏执创造了完美的舞台,让他们像野火一样蔓延——有机会将看似真实的东西贴上假的标签,反之亦然,这是许多人将用来加强他们的观点。
正如兰德公司的比尔·马塞利诺所强调的那样,“如果你所看到的所有数字化的东西都是人工合成的,会发生什么?”
同样,数字取证和人工智能错误信息专家哈尼·法里德也对以色列和哈马斯的冲突发表了评论,“即使按照我们习惯的战争标准迷雾,这场冲突也是特别混乱的…现在,深度假货的幽灵要严重得多–它不需要数万人,只需要几个人,然后你在油井里下毒,一切都变得可疑。
值得注意的是,假冒技术的发展速度有多快。在2022年,识别人工智能生成的图像中的不一致性是简单而直观的,而现在,它往往需要专家分析。
随着关于加沙的激烈讨论仍在继续,尤其是在社交媒体平台上,信任的侵蚀变得更加明显。
虚假内容引起争议,因此曝光
可疑的虚假内容的问题在于,它引起了争论,进而引起了人们的印象、喜欢和评论
例如,X网站上的一篇帖子吸引了180万次观看,虚假地描绘了马德里竞技球迷展示一面巨大的巴勒斯坦国旗。用户指出图像中扭曲的数字,表示人工智能的生成。
据《纽约时报》报道,X平台上一个与哈马斯相关的账户发布的另一个帖子不准确地描绘了一个流离失所的以色列人帐篷营地,国旗设计不正确。该职位随后被删除。
更多的注意力和审查集中在没有明显人工智能操纵迹象的镜头上。例子包括加沙医院院长举行新闻发布会的视频,尽管有多个来源从不同角度捕捉到了这一事件,但有人将其称为“人工智能生成”。
为了将真相从人工智能生成的内容中分离出来,一些社交媒体用户转向了检测工具。这些工具声称可以识别数字操作,但事实证明不一致和不可靠。
在冲突初期,内塔尼亚胡总理在X平台上分享了一系列照片,声称这些照片描绘了“被哈马斯杀害和焚烧的婴儿的可怕照片”。
当保守派评论员本·夏皮罗(Ben Shapiro)提请注意X平台上的一张图片时,他面临着传播人工智能生成内容
一个帖子在被删除之前已经积累了超过2100万的浏览量,该帖子声称有证据表明婴儿的图像是假的,并提供了一张来自AI or Not的屏幕截图,该工具是一种检测工具,将图像标记为“由AI生成”。
该公司后来在平台X上修改了这一评估,解释说由于图像压缩和修改模糊了识别细节,结果“不确定”。该公司还宣布,已改进其检测工具作为回应。
我们正在关注Twitter上发生的辩论,就像我们一直在关注高度可见的争议案件一样。我们已经用我们的系统确认,结果是不确定的,因为事实上,照片被压缩和修改,模糊了姓名标签。https://t.co/uZihVMD7Cq
-AI与否(@AI_OR_NOT)2023年10月13日
Anatoly Kvitnitsky, 人工智能与否,在思考他们的技术的伦理影响时说:“我们意识到,在某种程度上,建造的每一项技术都被用于邪恶的…我们得出的结论是,我们正在努力做好事,我们将保持服务的活跃,并尽最大努力确保我们是真理的提供者。但我们确实考虑到了这一点–我们是不是造成了更多的混乱,更多的混乱?
这一切加在一起导致了一个令人难以置信的密集混乱局面,放大了已经超越极限的情绪。
AI既给予也剥夺了公众辩论和真相。人们如何适应它在社交媒体上的存在,科技公司能否夺回控制权?