新报告称,儿童性虐待的深层假图像正在上升

AI伦理与社会1年前 (2023)发布 yundic
392 0 0

互联网观察基金会(IWF)警告说,人工智能正在以惊人的速度创建儿童性虐待图像,引发了对互联网安全的巨大威胁的担忧。

这家总部位于英国的监管机构已经发现了近3000张人工智能生成的图像,违反了英国法律。

IWF报告说, 人工智能模型正在被提供实际虐待受害者的图像,生成新的虐待内容。此外,技术正在被用来制作虐待场景中的未成年名人的图像,以及网上发现的衣着儿童的裸体照片。

国际上有许多深度假冒虐待儿童的案件,包括最近的一个案例 几名西班牙女学生被人工智能生成的色情图像作为目标。今年6月,BBC记者曝光了Patreon等平台上流传的恋童癖AI图像。

IWF首席执行官Susie Hargreaves表示,他们“最糟糕的噩梦已经成真”,并强调人工智能技术加速用于恶意目的。

该基金会此前强调了夏季出现的威胁,现在证实人工智能生成的儿童性虐待材料(CSAM)的发生率显著增加。

在长达一个月的调查中,对一个暗网虐童论坛的研究显示,11,108张图片中有2,978张违反了英国法律。20%的内容被归类为最严重的虐待内容。

IWF首席技术官Dan Sexton指出,稳定扩散是一个广泛可用的开源人工智能模型,是论坛上讨论的创建CSAM的主要工具。

作为一个开源模型,Stable Diffusion不一定要像DALL—E3这样的商业图像生成模型那样具有同样的保护。

解决社交媒体上的剥削性人工智能生成的内容

社交媒体平台已成为色情内容和剥削性人工智能生成内容的温床。

Facebook、Instagram和TikTok等流行社交媒体平台因托管广告而受到审查将人工智能化身性感化并推广以成人为重点的应用程序。

这些广告是明确的,涉及儿童形象的性感化,利用了内容审核系统的漏洞。

尽管Meta和TikTok努力清除这些广告,但这些内容的人工智能生成性质往往会避开自动过滤。这些应用程序的年龄评级不一致,加上它们在全球范围内的可用性,使这个问题变得更加复杂。

随着人工智能算法变得越来越复杂,超逼真图像、视频和音频的创建对个人、企业和整个社会构成了重大威胁。

联邦调查局的 关于AI sextortion的警告 今年早些时候,特别是涉及未成年人的问题突出了解决这一问题的紧迫性。它似乎只是在加速。

© 版权声明

相关文章

暂无评论

暂无评论...