最近,流行歌星泰勒·斯威夫特由人工智能生成的露骨假照片在社交媒体上流传,引发了广泛的轩然大波。
尽管对此类内容有严格的规定,但这些未经同意的图片将斯威夫特描绘成色情公开的姿势,并在发布账户被暂停之前持续了19个小时,累积了超过2700万次浏览量和26万次点赞。
这一事件引发了大量关于社交媒体政策打击深度虚假错误信息的有效性的质疑。
它能被阻止吗?似乎没有。那么我们该如何对抗它呢?好吧,人工智能检测服务(类似于事实检查器)和附加在X上帖子上的“社区笔记”是两种可能的解决方案,但两者都有其缺陷。
泰勒·斯威夫特的露骨照片主要在社交媒体平台X上传播, 他们还进入了包括Facebook在内的其他社交媒体平台,展示了有争议的人工智能内容如何像野火一样传播。
Meta的一位发言人回应了这一事件,称:”这些内容违反了我们的政策,我们正在从我们的平台上删除它,并对发布它的帐户采取行动。我们将继续监控,如果我们发现任何其他违规内容,我们将删除它并采取适当的行动。”
数百万用户在Reddit上讨论这一事件和其他最近的病毒式深度造假事件的后果和影响,包括一张埃菲尔铁塔着火的照片。
有一段TikTok视频在网上流传,观看了数百万次,声称埃菲尔铁塔着火了。埃菲尔铁塔没有着火。pic.twitter.com/IxlsKOqOsI
– Alistair Coleman(@ alistaircoleman)2024年1月22日
虽然许多人会认为这些图像相当明显是假的,但我们不能假设更广泛的公众意识到这一点。
Reddit上的一位评论者在谈到Taylor Swift事件时说:“现在我知道有多少人不知道什么是deepfakes”,暗示人们对这个问题的认识很低。
行业专家还与前Stability高管Ed Newton—Rex讨论了这个问题,认为科技公司的激烈态度和决策者参与度差是这个问题的原因。
明确的、非自愿的AI deepfakes是一系列失败的结果。
—无论后果如何,“尽可能快地发货”的生成人工智能文化
人工智能公司内部故意不知道他们的模型用于什么
—完全无视信任和…-埃德·牛顿-雷克斯(@ednewtonrex)2024年1月26日
来自数字调查机构Memetica的Ben Decker评论说,人工智能的影响缺乏控制:“这是一个很好的例子,说明人工智能出于许多邪恶的原因而被释放,但没有足够的护栏来保护公共广场。
他还指出了社交媒体公司内容监控策略的不足。
有报道称,泰勒·斯威夫特现在正在考虑对托管这些图片的深度虚假色情网站采取法律行动。
有许多类似的明显的深度造假事件,大多涉及妇女和儿童,有时意图贿赂他人,也称为”性剥削”。
儿童性虐待的AI图像是最黑暗的,最令人关注的图像生成技术的影响。最近,一名美国男子因持有此类照片而被判处40年监禁。
在这起事件和其他类似事件发生后,要求立法解决这种形式的人工智能滥用的呼声越来越高。
美国众议员乔·莫雷尔将斯威夫特深度假币的传播描述为“令人震惊”,并主张采取紧急法律行动。他指出,泰勒·斯威夫特身上发生的事情并不是什么新鲜事,这突显了这些内容对女性的不成比例的影响。
在达沃斯举行的世界经济论坛上,深层次的虚假错误信息也被广泛讨论,担心被操纵的内容可能影响股市、选举和公众舆论。
打击深度假货的努力正在进行中,初创企业和科技巨头都在开发检测技术。
例如,英特尔推出了一款能够以96%的准确率检测假视频的产品。
然而,目前的挑战仍然很大程度上是不可克服的,随着技术的迅速发展和在互联网上传播。