搜索引擎谷歌和必应很容易显示深度虚假色情

AI伦理与社会11个月前发布 yundic
297 0 0

NBC新闻的一项调查显示,谷歌和微软必应等热门搜索引擎无意中推广未经同意的深度虚假色情内容。

深度假技术,这已经成为任何人工智能应用程序的总称,可以生成极其逼真的视频、图像和音频。

它越来越多地被用于未经同意的色情材料,通常针对女性名人。

NBC新闻进行了 在Google和Bing上搜索了36位受欢迎的女性名人以及“deepfakes”一词。调查结果令人震惊:谷歌在这些搜索中有34个搜索结果中显示了未经同意的深度假图像,而必应在35个搜索结果中这样做。

此外,这些搜索结果经常包括指向以传播此类深度虚假内容而闻名的网站的链接。

在这些平台上搜索”假裸体”等术语会导致创建和查看大量链接, 非双方同意的深度虚假色情.

法律专家、倡导者和该技术的受害者都表示了严重的担忧。

未经同意的深度虚假色情不仅侵犯了隐私,还助长了对女性的性物化和性骚扰。在某些情况下,深度造假延伸到儿童性虐待,这源于流行图像中包含的非法图像。 培训数据库,如LAION

目前,谷歌几乎没有系统性的努力来识别和删除这些材料,这在任何规模上都不现实。

谷歌发言人表示:“我们理解这些内容对受其影响的人来说是多么痛苦,我们正在积极努力为搜索提供更多保护。

他们强调,谷歌的搜索算法旨在避免意外地显示有害或露骨的内容。

另一方面,微软有一项反对非自愿亲密图像(NCII)的政策,并将性露骨的deepfakes纳入这一类别。受害者可以报告这些内容出现在必应搜索结果中。

微软发言人表示:“未经双方同意的亲密图像的传播是对个人隐私和尊严的严重侵犯,对受害者造成了毁灭性的影响。

深度造假是人工智能的一个复杂方面,为恶意行为者提供了一种手段, 操纵选举结果引起争议 在以巴战争等事件中,煽动诈骗.

这提出了一个棘手的问题,因为最终,人工智能将几乎不可能在像素级别上区分深度造假与真实媒体。

© 版权声明

相关文章

暂无评论

暂无评论...