谷歌的DeepMind研究实验室推出了SynthID的测试版,这是其用于水印和识别人工智能生成图像的新工具。
对深度造假的担忧以及人工智能促进虚假信息的潜力,凸显了需要一种方法来检测人工智能生成的图像。
为版权目的添加到图像中的传统水印可以通过剪切、添加过滤器或编辑来轻松地移除。甚至元数据也可以从图像中剥离出来。
SynthID将数字水印直接嵌入图像像素中。编辑后的像素数是如此之小,以至于水印是人眼无法察觉的。缩放、裁剪或降低图像分辨率不会移除水印。
如果你知道水印在哪里,你可以从技术上删除它,但你也会损坏图像。
Google正在利用Google的Vertex AI平台上的图像生成器Imagen向一些客户提供SynthID。
使用Imagen创建图像的用户可以添加水印或使用SynthID来检测图像是否是使用Imagen创建的。这不是一个万无一失的方法,虽然, 关于DeepMind的文章承认.
「该工具提供三个可信度,以解释水印识别结果。如果检测到数字水印,则图像的一部分可能是由Imagen生成的。
的 DeepMind博客文章 他还说,“SynthID对极端的图像操纵并不是万无一失的。
SynthID会有什么不同吗?
谷歌并没有将该工具推广为针对假图像的灵丹妙药,但这只是一个开始。如果该方法被证明是有效的,并在其他AI图像生成器中获得吸引力,那么它可能会更容易发现假货。
即使一个万无一失的方法是基于像SynthID这样的东西开发的,你将如何执行它?有这么多的人工智能图像生成器存在于任何类型的规则之外。
如果你不能阻止人们使用人工智能生成虐待儿童的图像,那么你如何强迫他们在假图像上添加水印?
谷歌这样的公司面临的另一个挑战是,作为促进信任的工具,它必须是万无一失的。如果你告诉人们,一个充满政治色彩的图像有75%的可能性是假的,这并不能消除关于其真实性的争论。
在假图像中添加一个像SynthID这样的水印似乎是个好主意,但是什么阻止了有人在真图像中添加类似的水印呢?
批判性思维和健康的怀疑态度可能是我们在一段时间内对抗人工智能假货的最佳防御。