芝加哥大学的研究人员开发了一种新工具,当人工智能公司在未经同意的情况下将图像包括在其数据集中时,该工具可以对人工智能模型进行“毒化”。
OpenAI和Meta等公司因大规模窃取在线内容来培训自己的模型而面临批评和诉讼。为了让像Dall-E或MidTrik这样的文本到图像生成器有效,它们需要接受大量视觉数据的训练。
一些艺术家抱怨说,这些图像生成器现在能够在未经同意的情况下将他们的艺术品刮下来后,以他们的风格生成图像。
研究人员开发了Nightshade,这是一种将不可见像素嵌入到图像中的工具,随后会使图像对人工智能模型产生毒害作用。
人工智能依赖于正确标记的数据。如果一个人工智能模型在数千张猫的图像上训练,并且这些图像都被标记为“猫”,那么当你要求它生成一张猫的照片时,它就知道猫应该是什么样子。
夜光灯会在图像中嵌入破坏图像分类的数据。因此,例如,一座被夜莺毒害的城堡的图像将被归类为一辆旧卡车。研究人员发现,只使用100张针对一个提示的图像就可以有效地破坏一个模型。
生成的图像会因更多有毒数据而变得越来越糟糕。来源:arxiv
Nightshade是AI图像生成器的坏消息
一个受有毒数据影响的模型可能会认为蛋糕的图像是帽子,烤面包机是手袋。除了腐蚀了”夜影”所针对的特定词外,这种腐败还影响了更广泛的概念。因此,腐败的“狗”标签将扩大腐败的术语,如“小狗”以及。
如果有足够多的艺术家开始使用夜影,这可能会让公司在获取图像之前更加谨慎地征得同意。
研究小组将在他们开发的Glaze工具中加入Nightshade。Glaze错误地标记了图像的风格。例如,一个艺术家想要保护他们的作品风格,可以使用Glaze来标记它为“印象派”,而实际上它是“波普艺术”。
像Nightshade这样的工具如此有效地工作,这一事实突出了文本到图像生成器中的一个漏洞,该漏洞可能被恶意行为者利用。
像OpenAI和Stability AI这样的公司表示,他们将尊重网站可以添加到robots.txt文件中的“不刮”选择退出。如果被龙葵毒害的图像没有被刮下来,那么模型就不会受到影响。
然而,恶意行为者可能会毒害大量图像,并使其可用于抓取,意图破坏AI模型。解决这个问题的唯一方法是使用更好的标签检测器或人工审查。
Nightshade会让艺术家们对将他们的内容放在网上感到更安全,但可能会给人工智能图像生成器带来严重的问题。