以色列-加沙冲突已经成为不断发展的使用人工智能制造深度假货的背景,这已经成为以色列、加沙和外部观察人士的一个问题。
在加沙的各种图像中,有些特别刺耳。”流血的弃婴”,正如他们所描述的那样,在网上声名狼借。
本·夏皮罗等有影响力的人分享了一张焚烧婴儿的照片,在它出现之前就有数百万人分享了这张照片引起争议 是人工智能生成的
这些虚假图像中的许多都显示出数字操纵的微妙迹象,比如“手指奇怪地卷曲,或者眼睛闪烁着不自然的光”。“然而,在一时冲动中检测到这些迹象是异常棘手的。
此外,图像的质量各不相同。有些是不同冲突中重新利用的照片,而另一些则完全是人工智能生成的。假以时日,他们只会变得现实。
正如CREOpoint的首席执行官Jean—Claude Goldenstein所描述的那样,“在好转之前,情况会变得更糟——糟糕得多。他的公司已经编制了一个冲突中最具病毒性的深度造假数据库,展示了人工智能在冲突中制造现实方面的日益增长的作用。
深度造假的主要目的是激起震惊和痛苦,这也是为什么它们经常以孩子为目标来强化情绪反应的原因。
正如反数字仇恨中心的首席执行官伊姆兰·艾哈迈德(Imran Ahmed)解释的那样,“虚假信息的目的是让你参与其中。
深度造假不断上升
深度造假是人工智能发展的普遍效应或副作用。人工智能深度造假不仅有被视为真实的风险,而且真实内容也有被视为虚假的风险。
此外,这种现象当然不局限于加沙冲突。 在2022年俄罗斯入侵乌克兰期间,类似的人工智能生成的内容浮出水面,包括乌克兰总统泽连斯基的修改视频。
其他例子包括政客的假形象,如 特朗普拥抱福奇.这个问题并不止于图像—假声音, 与政治家的对话他们没有参与,或者根本没有发生过。
世界各地的科技公司都在通过开发人工智能过滤器来应对,这些过滤器可以检测深度假货,验证图像,并分析文本中的错误信息。谷歌、YouTube和Meta最近誓言要为人工智能生成的内容贴上标签,但在技术上实现这一目标是具有挑战性的。
我们还目睹了大量旨在突出可疑内容的事实核查服务,但它们的过程容易出错且速度缓慢。一个“信誉良好”的事实检查者错误地将某件东西贴上真假标签,这意味着什么?
随着关键的选举即将到来,更不用说2024年美国总统大选,深度造假正在激起强烈的偏执狂。其影响尚未达到极限。