公司正试图使用数字水印来识别人工智能图像,但最近的研究表明,他们的努力可能是徒劳的。
马里兰大学的一组研究人员测试了最先进的图像水印技术,结果并不理想。
马里兰大学计算机科学教授Soheil Feizi表示,他的团队测试了所有现有的水印技术,并将其全部打破。
该研究论文承认,水印似乎是最有希望的防御深度伪造,但随后概述了当前方法的不足。
水印的两种主要方法是低扰动和高扰动。
低扰动方法涉及到对图像进行微妙的改变,这种改变是眼睛无法察觉的,但仍然可以通过数字检测。这些方法显示了性能和误报之间的权衡。这种方法在识别人工智能假货方面越好,就越有可能将真实图像错误地识别为假货。
高扰动涉及在图像中添加可见元素,这被认为是一种更稳健的方法。研究人员也能够去除所有这些水印。他们的“模型替换对抗攻击”方法甚至去除了更微妙的高级树环水印。
随着人工智能继续推动虚假信息的创造和传播,我们需要一种有效的方法来判断图像或视频是何时由人工智能创建的。然而,这项研究的结论是,有效的解决方案看起来越来越不可能,尽管并非不可能。
菲子的团队只测试了可用的水印。谷歌和Meta正在开发自己的水印技术,但还没有测试出来。
即便如此,肥子认为,他们的研究表明,即使是大型科技公司也不会提供万无一失的解决方案。加州大学的研究人员发表的一篇论文得出结论,“所有看不见的水印都是脆弱的。”
随着生成人工智能的改进,识别人工智能生成的图像可能会变得更加困难。因此,即使像DALL—E或Midjourney这样的商业AI图像生成器使用了有效的水印,也没有什么可以迫使其他模型这样做。
Feizi的研究中强调的另一个问题是,他们能够将AI水印引入到非AI生成的图像中。
这样做的问题是,当出现照片证据时,不良行为者可能会在上面应用人工智能水印,试图诋毁证据。
我们将不得不看看谷歌和Meta的水印如何应对妃子团队的暴力攻击。现在看来,我们必须不断提醒自己,眼见为实。
一些最好的人工智能图像检测器可以通过在图像中添加纹理或稍微降低图像质量而被愚弄。
即使人工智能生成的图像还没有出现很长时间,我们知道不要相信我们的眼睛。但事实证明,我们甚至不能信任那些应该告诉我们图像是真是假的机器。
最近的一项实验 《纽约时报》报道 发现,在大多数情况下,AI图像检测器, 蜂箱 或者说,也许能够正确地分类人工智能生成的图像。直到他们在图像中添加了谷物。
当他们通过添加少量颗粒或像素化噪声来退化图像时,检测器大多相信人工智能生成的图像是真实的。在一个案例中,一个男人的黑白图像首先被正确地评为有99%的可能性是人工智能生成的。通过加入少量的颗粒,探测器突然将这一可能性降低到3.3%,基本上是说图像几乎肯定是真实的。
当教皇戴着巴黎世家河豚的假照片愚弄了一些人时,这是无害的乐趣。但是,当人工智能生成的图像被用于选举,并且不能被识别为假图像时,其影响可能会更加可怕。
罗恩·德桑蒂斯最近因在竞选中使用人工智能生成的图像而受到批评。他的竞选活动中穿插了3张特朗普的真实照片,其中有3张人工智能生成的特朗普拥抱和亲吻安东尼·福奇博士。 法新社 是第一个指出假货的人
如果你甚至对特朗普的政治政策有点熟悉,那么你不需要软件来告诉你他亲吻福奇的照片是假的。但AI图像检测器并不使用背景或主题来判断照片是否真实。他们查看人工智能图像生成器在制作图像时产生的潜在像素模式。
事实证明,如果你拍摄这些高分辨率图像,并将它们稍微降级,那么即使是最好的人工智能假探测器也会经常说图像是真的。即使要求中途制作一张质量差的复古照片也足以愚弄这些工具。
这是一个有趣的发展,但它有多重要还有待观察。现实世界的后果 人工智能生成的虚假信息都不太可能被万无一失的探测器所避免。健康剂量的怀疑和教育人们相信自己的眼睛的风险可能会有效得多。