芝加哥大学的Nightshade旨在毒害AI模型’

AI伦理与社会4个月前发布 yundic
286 0 0

一群芝加哥的开发人员为艺术家配备了Nightshade,这是一种反击不道德数据行为的方法。

Nightshade是一种复杂的工具,旨在通过引入“毒药”样本来保护数字艺术品免受人工智能培训中的未经授权使用。

这些改变是人眼无法察觉的,但会扰乱人工智能的学习过程,导致错误的联想和反应。

研究人员写道“人类的眼睛可能会看到绿色田野中的奶牛阴影图像,基本上没有变化,但人工智能模型可能会看到一个大皮包躺在草地上。

这种效应会累积,因此数据集中的“中毒”图像越多,模型的性能就越差。

芝加哥大学的Nightshade旨在毒害AI模型’

龙葵毒药是如何攻击的图片来源:University of Chicago by ArXiv

这个工具是芝加哥大学之前创造的Glaze的补充,Glaze也可以帮助艺术家解决数据窃取的问题。“釉可以改变颜色和笔触等东西,呈现出一种与实际不同的艺术风格,”开发者解释说。

然而,龙葵与Glaze在方法上有所不同。”虽然Glaze是一个防御工具,但Nightshade是一个进攻工具,”球队说。

夜帘的工作原理分为五个步骤

Nightshade是一个聪明的工具,它使用模型训练中涉及的机器学习功能来对抗系统本身,毒害学习过程,导致不同模型的结果较差。

了解脆弱性

Nightshade攻击利用了文本到图像生成模型中的一个特定弱点。这些人工智能模型是在大量的图像数据集和相应的文本描述上训练的。

然而,芝加哥大学的研究小组发现,对于某些特定的提示或主题,训练数据量是相当有限的。这种针对特定提示的有限数据池使这些模型容易受到有针对性的数据中毒攻击。

Nightshade背后的概念

茄子是一种复杂的方法,旨在执行所谓的即时特定中毒攻击。

简单地说,这就像是在人工智能的学习过程中引入了一个精心设计的小错误,当人工智能根据某些提示生成图像时,这会导致重大且有针对性的错误。

夜影的关键特征是它能够产生在人眼看来正常但在人工智能感知和学习方式上截然不同的“有毒”样本。

制作毒药样本

为了执行夜幕攻击,研究人员首先生成他们所说的“锚图像”。这些是与袭击的实际目标无关的概念的图像。

例如,如果目标概念是“狗”,则锚图像可能是“猫”。这些主播图像是由用户在PC上运行的人工智能模型生成的。

接下来,研究人员找到目标概念的真实图像(如狗),并巧妙地修改它们,以符合人工智能感知中锚点图像的特征。

芝加哥大学的Nightshade旨在毒害AI模型’

这是一个通过添加更多样本来逐渐毒化图像的例子。资料来源:芝加哥大学通过Arxiv。

对人类来说,这些修改后的图像看起来仍然像狗,但对人工智能来说,它们非常像猫。虽然这可能是一个难以理解的概念,但重要的是要记住,创建图像的形式和形状总是基本相似的。

这种改变被称为对抗扰动。它们经过精心计算,以将AI特征空间中的图像表示从与猫相关的区域移动到与狗相关的区域。

攻击如何影响AI模型

当生成AI模型在这些中毒样本上训练时,它开始将不相关概念(猫)的特征与目标概念(狗)相关联。

因此,当提示生成狗的图像时,人工智能模型可能会生成猫的图像。这是因为模型对什么构成“狗”的理解被有毒数据扭曲了。

虽然这并没有完全“破坏”人工智能模型,但它会降低其有效性和不可预测性,这肯定会削弱可用性。

人工智能公司可能会反击Nightshade和类似的技术,但这将需要时间和精力。

影响

龙葵攻击的一个关键影响是它的“渗透”效果。这意味着一个概念的中毒可以影响到相关的概念。

例如,毒害“狗”的概念也可能影响模型如何生成相关动物的图像,如“狼”或“狐狸”。

芝加哥大学的Nightshade旨在毒害AI模型’

这描绘了一个“狗”这个概念被毒害的模型。没有明确的目标,相关的概念
被中毒所腐蚀(称为出血穿透效应)。图片来源:University of Chicago by ArXiv

此外,当模型中的多个概念中毒时,它可能会破坏模型为广泛的提示生成连贯图像的能力。

艺术家如何使用Nightshade

Nightshade是一个你自己下载和使用的工具,但它相当占用资源,需要一个兼容的Nvidia GPU,至少有4G内存。

这一过程未来可能会简化,或者可能会有云服务,在那里你可以简单地上传你的图像,为你进行夜幕遮挡。

以下是如何使用Nightshade:

  1. 选择您的艺术作品:您可以将单个图像拖到图像占位符中,也可以使用“选择…”选择多个图像纽扣。
  2. 调整参数:强度决定了龙葵效果的强度。更高的强度会导致更有力的破坏,但可能会对您的作品造成明显的变化。渲染质量表示寻找最佳中毒级别的计算时间。质量越高,毒性越强,但需要更多的时间。如果你有一个GPU,这个过程会更快。
  3. 选择输出目录:选择要保存Nightshaded图像的位置。
  4. 选择毒药标签:Nightshade通过误导AI在你的图像中的某些概念来运作。例如,它可以改变标记为“汽车”的图像,使其被人工智能模型感知为“奶牛”。Nightshade会在选择图像时根据其内容分析建议一个标签。确保标签准确反映了图像中的关键概念,并在必要时进行调整。当您的图像通过替代文本、标题或附近文本与此标记关联时,Nightshade的效果会增加。
  5. 运行夜影:完成您的设置并确认图像标签后,点击”运行”按钮开始该过程。更改后的图像将保存在您选择的输出目录中。
  6. 官方用户指南.

社区接待活动至夜幕招待会

艺术家试图保护他们的作品免受人工智能的攻击,得到了压倒性的支持,但和以往一样,有多个派别,有些人将其比作对人工智能模型的网络攻击。

在回应批评时,该团队澄清说:“Nightshade的目标不是打破模型,而是增加未经授权数据的培训成本,以便从其创作者那里获得许可图像成为一种可行的选择。

他们断言,负责任地使用Nightshade可以帮助阻止那些无视版权、选择退出名单和不刮/robots.txt指令的模特训练师。

围绕数据抓取和人工智能模型训练的争论在Midjourney的争议和大量使用人工智能生成的艺术品的公司在这个过程中取代人工劳动的公司变得非常激烈。

© 版权声明

相关文章

暂无评论

暂无评论...