芝加哥大学的数据中毒工具Nightshade在2024年1月18日上市后的短短五天内就积累了超过25万的下载量。
Nightshade旨在帮助视觉艺术家对抗人工智能模型未经授权使用他们的作品,提供了一种新颖的方法,通过“毒害”模型,有效地破坏了他们从训练的图像中学习的能力。
这个过程 通过在像素级微妙地改变图像,使它们在人工智能模型中显得与众不同,而不会损害人眼的视觉完整性。
当人工智能模型在有毒图像上进行训练时,其输出会有缺陷,长期有效地保护了艺术家免受数据抓取。
人工智能开发人员将希望避免在有毒图像上进行训练,以避免伤害他们的模型,因此这将球放在他们的球场上。
他们要么设计一个解决方案,要么改变他们的数据抓取做法,以避免版权作品可能被毒害。
当大规模使用时,龙葵效果最好—进入人工智能模型的有毒图像越多,影响力就越大。
如果从理论上讲,数据集中的每一幅图像都是有毒的,那么人工智能模型将很难生成任何连贯的东西–它的输出将是一片混乱。
在较低的范围内,中毒图像操纵模型学习错误的联想,这意味着“云上的猫”的提示可能会产生一些看起来像“田野里的手提包”的东西。
尽管人工智能公司已经拥有海量数据,但如果它们无法建立新的、当代的数据集,那么模型最终将与现实脱节。
该项目负责人、该校计算机科学教授Ben Zhao对该工具的接待表示惊讶,他说, VentureBeat“我还是低估了它,反应简直超出了我们的想象。”
这在社交媒体上的团队声明中得到了回应,该声明强调了前所未有的需求:“对Nightshade的需求已经超出了图表,”他们说,并指出全球下载的洪水暂时淹没了大学的网络基础设施,他们最初认为这可能是一次网络攻击。
对茄子的需求一直处于超乎寻常的水平。全球请求实际上已经饱和了我们的园区网络链路。(没有DoS攻击,只有合法下载)。我们正在为茄子二进制文件添加两个快速镜像链接。
获奖名单:https://t.co/rodLkW0ivK
Mac:www.example.com-芝加哥大学的Glaze(@TheGlazeProject)2024年1月20日
该工具是该团队一系列努力中的最新产品,继Glaze之后,另一个旨在误导人工智能模型关于艺术品风格的工具。开发人员目前正在探索集成Nightshade和Glaze的方法,为数字内容提供分层防御。
龙葵是相当复杂和资源需求,需要一个笨重的计算机运行。
给多个图像下毒也很耗时,但一旦完成,就完成了。Nightshade的用户界面虽然不是特别引人注目,但都非常直观,通过简单的设置引导用户完成整个过程,并根据所选参数在30至180分钟的时间内呈现输出。
艺术家和科技爱好者正在使用该工具,一些人主张在所有个人数字内容上广泛使用Nightshade,以稀释AI模型的数据池。正如他们所说,力量在人数上。
这个艺术家的反击 今年,反对人工智能开发者使用版权数据的行为非常严重,来自各个领域的艺术家聚集在X和其他社交媒体平台上,听从Reid Southen和Jon Lam等倡导者的号角。
250K下载Nightshade!!让我们着色/釉和上传。下载只是第一步!恭喜@ TheGlazeProject
下载这里!现在就开始毒害你的艺术吧!!https://t.co/Y45iGlF6cyhttps://t.co/uiGfBVwFRu
– Jon Lam #DantScrape(@ JonLamart)2024年1月30日
人工智能开发人员需要担心的不仅仅是艺术家—他们还在与一系列 版权诉讼 和战斗 日益增长的能源需求以及迫在眉睫的半导体短缺。
虽然Nightshade在使用上仍有一些复杂性,但已有计划将其与社交和投资组合应用Cara集成,目前该应用程序正处于开放测试期,这暗示着它将被更广泛地采用。
最终,Nightshade可以完全托管在云中,使其高度可访问。
随着数字版图的持续发展,像Nightshade这样的工具代表了一种技术解决方案,也是人工智能时代正在进行的控制和尊重斗争的象征。
这是一个目前紧张不安的行业中的又一场“人工智能竞赛”。