恋童癖正在使用人工智能来生成虐待儿童的图像

AI特色新闻11个月前发布 yundic
33 0 0

英国广播公司的一项调查发现,恋童癖者正在利用人工智能技术生成和传播儿童性虐待的真实图像。

这些非法人工智能生成的图像通常通过Patreon等内容共享网站访问。 国家警察局长委员会(NPCC)对此表示愤慨,强调了一些平台尽管赚取了大量利润,但却“令人发指”地未能承担“道德责任”。

英国政府情报和网络安全机构政府通信总部(GCHQ)对这份报告的回应是,“儿童性虐待犯罪者采用了所有技术,一些人认为儿童性虐待材料的未来在于人工智能生成的内容。”

人们使用Stable Diffusion,一个开源的图像生成AI,来生成图像。 稳定扩散允许用户输入描述所需图像的文字提示。

关键的是,Stable Diffusion的一个版本是Apache许可证2.0下开源的,与Mid Journey和DALL—E不同,后者阻止用户使用提示符生成图形或非法图像。这给了创作者自由创造几乎任何他们想要的图像。

英国广播公司发现了一些例子,其中稳定扩散被用来创造超现实的儿童性虐待的描述。英国警方证实,他们已经接触到非法人工智能生成的材料。

调查此案的自由研究员兼记者奥克塔维亚·希普尚克斯(Octavia Sheepshanks)通过儿童慈善机构NSPCC与BBC分享了她的发现。“自从人工智能生成的图像成为可能以来,出现了巨大的洪水……不仅仅是非常年轻的女孩,他们还在谈论蹒跚学步的孩子,”她说。

在另一个案例中,用户利用VR色情平台创建未成年女性的头像。据称,一名用户拍了一张真实的未成年女孩的照片,并将其叠加到其中一名模特身上。

英国法律将计算机生成的描绘儿童性虐待的“伪图像”视为真实图像,因此这些图像的拥有、发布或转让都是非法的。

NSPCC的儿童保护负责人伊恩·克里奇利认为,即使“合成”图像没有描绘真实的儿童,它们也可能导致真正的伤害。他警告说,犯罪者的行为可能会升级,“从思想到合成,再到实际虐待一个活的儿童”。

恋童癖者是如何创作和传播这些照片的?

据调查,图像分发过程包括3个步骤:

  • 恋童癖者使用人工智能软件生成图像。
  • 这些图片在日本图片分享网站Pixiv等平台上得到推广。
  • 这些平台上提供了链接,将客户引导到更明确的图像,他们可以通过在Patreon等网站上付费访问这些图像。

许多图像创作者活跃在Pixiv上,主要由漫画和动漫艺术家使用。

然而,该平台托管在日本,分享未成年人色情漫画并不违法,使创作者能够使用群组和标签推广他们的作品。

Pixiv从5月31日起禁止所有涉及未成年人的色情内容。他们还表示,他们已经加强了他们的监测系统,并将更多资源用于打击此类内容。

Sheepshanks告诉BBC,这个问题涉及“工业规模分配”。此外,Pixiv上的评论表明,有些人提供了非人工智能生成的虐待材料。

许多Pixiv账号提供了他们在Patreon上托管的“未经审查的内容”的链接。Patreon是一家总部位于美国的内容共享平台,估值约为40亿美元(31亿GB)。

Patreon拥有超过250,000名创作者,包括知名名人、记者和作家。调查发现Patreon账户公开出售人工智能生成的淫秽儿童图像,价格根据材料类型而异。

稳定AI和Patreon反应

一旦显示了一个例子,Patreon确认它违反了他们的政策,该帐户立即被删除。

用于创建这些图像的人工智能图像生成器稳定扩散是由英国稳定人工智能领导的学者和公司通过全球合作开发的。如前所述,该软件的开源版本没有滤镜,可以生成任何图像。

Stability AI的回应是加强禁止将其软件用于非法或不道德目的,包括儿童性虐待材料(CSAM)。

他们宣布坚决支持打击非法使用其产品的执法努力。

NPCC的Ian Critchley表示担心人工智能生成或“合成”图像的涌入可能会阻碍实际虐待受害者的识别过程。他说:“在警务和执法方面,它创造了额外的需求,以确定一个真正的儿童,无论它在世界的任何地方,正在遭受虐待,而不是一个人造或合成儿童。

克里奇利补充说,社会已经到了一个“关键时刻”,决定互联网和技术是否会带来机会,或成为更大伤害的来源。

NSPCC呼应了这些观点,敦促科技公司采取行动,反对滥用者采用新兴技术的惊人速度。

该慈善机构的政策和公共事务负责人安娜·埃德蒙森认为,公司意识到了这些潜在的风险,但尚未采取实质性行动,她强调,不能再有不采取行动的借口了。

一位政府发言人回应说:“网络安全法案将要求公司采取主动行动,处理所有形式的网络儿童性虐待行为,包括美容、直播、儿童性虐待材料和被禁止的儿童图片-否则将面临巨额罚款。”

英国的在线安全法案主要是在生成人工智能“主流化”之前起草的,但仍打算控制与在线人工智能相关的危害。

围绕深度假货的担忧加剧

这进一步引起了人们对人工智能在欺骗和网络犯罪中的作用的关注。深度赝品、超逼真人工智能生成的图像、视频或音频的兴起,带来了一系列道德和安全问题。

深度造假使用人工智能算法从现有音频或视频内容中提取面部动作、语音调制和肢体语言的模式。利用他们的分析,人工智能可以创造出非常有说服力的假冒产品,几乎不可能与真实产品区分开来。

此外,人工智能产生的虐待儿童可能会挑战世界各地的现有立法。虽然在英国,人工智能生成的非法儿童图像在法律上与真实儿童图像一视同仁,但在其他地方可能不是这样。

立法者很难跟上人工智能的步伐,人工智能比笨重的立法程序灵活得多。

与此同时,欺诈者和犯罪分子正在利用法律上的漏洞来模糊真实和虚假之间的界限。

第一个备受瞩目的人工智能支持欺诈案件发生在2019年,当时欺诈者使用人工智能冒充CEO的声音,说服一名高管转移22万欧元

今年早些时候,一张五角大楼爆炸的虚假图片在社交媒体上流传,导致美国股市暂时下跌0.3%。

许多人担心人工智能会被用来制造虚假新闻报道或关于政治人物的诽谤内容。政客们已经在使用人工智能生成的内容来支持他们的竞选活动。

此外,未经同意的深度虚假色情作品也有所增加,即未经同意,个人的面部被叠加到露骨的图像或视频上。

美国联邦调查局在6月早些时候警告说,“恶意行为者使用内容操纵技术和服务,利用照片和视频—通常是从个人的社交媒体帐户,开放的互联网,或从受害者那里获取的—进入以性为主题的图像,这些图像看起来像受害者,然后在社交媒体,公共论坛或色情网站上传播。许多受害者,包括未成年人,不知道他们的照片被复制,操纵和传播,直到有人提请他们注意。

英国纪录片《我的金发女孩》探讨了作家海伦·莫特生活中的一个真实的虚假复仇色情案件。

谷歌、Twitter和Facebook等技术公司正在开发检测工具来识别深度虚假内容,但随着人工智能变得越来越复杂,这种机制可能会变得不那么可靠。

虽然正在取得进展,但个人、企业和整个社会必须随时了解深度假冒技术的潜在风险,这已被强调为人工智能最紧迫、最紧迫的风险之一。

© 版权声明

相关文章

暂无评论

暂无评论...