在西班牙南部的一个小镇Almendralejo,20多名十几岁的女孩最近发现,她们的手机收到了人工合成的自己裸体照片。
这些令人不安的真实深度假裸体是从最初发布在女孩Instagram账户上的照片中操纵的。
现在,家长和法律专家面临一个问题:根据现行法律,这些图像的创作和传播是否构成犯罪?
这些露骨的图片是使用人工智能应用程序ClothOff生成的,随后在各个WhatsApp群中传播。
照片中的主题都穿着衣服,但人工智能软件令人信服地改变了图像,使裸体看起来像是真实的。
这导致家长和法律当局越来越担心这些被篡改的照片是否可以被归类为儿童色情。
其中一名受影响女孩的母亲Miriam Al Adib在她的Instagram账户上表达了她的沮丧,她说:“蒙太奇是超级现实的,非常令人不安和真正的愤怒。
她继续说:“我女儿非常厌恶地告诉我:‘妈妈,看看他们对我做了什么。'”
Al Adib还表示担心,修改后的图像甚至可能会被带到成人网站。
另一位忧心忡忡的家长Fátima Gómez告诉西班牙新闻网, 埃斯特雷马杜拉电视台 她女儿在社交媒体上被勒索了一个男孩向她的女儿要钱,当她拒绝时,他给她寄了一个深的假裸体。
联邦调查局在今年6月警告人工智能产生的“性虐待”,几名女性已经成为受害者。
西班牙国家警察调查了这一案件,并查明了据称参与制作和传播这些图像的几名青少年。
这一情况也已提交给少年检察官办公室。Almendralejo市长警告说,这可能是一个“笑话”,可能会带来严重的法律后果。
正在讨论中的人工智能应用程序ClothOff有一个令人不安的口号:“任何人都可以免费脱掉女孩的衣服。”据称,它对生成25张裸照收取10欧元的费用。
涉案的最小女孩只有11岁。
现有法律的覆盖率很低。
曼努埃尔·坎西奥是马德里自治大学的刑法教授,告诉欧新社 现行法律可能无法充分解决这个问题。
“由于它是由deepfake生成的,所以有关人员的实际隐私不会受到影响。它(对受害者)的影响可能与真实的裸体照片非常相似,但法律落后了一步,”他解释说。
从本质上讲,这一形象是假的或虚构的,这一事实使法律变得更加复杂。
法律专家对如何对犯罪行为进行分类存在分歧。一些人认为,这可能属于儿童色情法律的范畴,导致更严厉的惩罚,而另一些人则表示,这种犯罪可能被认为是对道德操守的侵犯。
世界各地对此案的法律解释将不同,如果这种情况发生在其他国家,可能会有类似的辩论。
儿童正被卷入与人工智能相关的伤害中,世界经济论坛(WEF)最近提请人们注意, 明显缺乏保护儿童免受人工智能风险的政策。
美国议员也 提出了一些问题 围绕人工智能与儿童的互动,英国记者发现恋童癖团伙已经 产生令人不安的非法内容使用人工智能模型。
立法者们正在接受这类案件的考验, – 这再次揭示了传统立法是如何过于繁琐,难以适应人工智能相关风险,而这些风险在几年前几乎无法想象。