领先的人工智能公司致力于开发水印技术

AI最新政策9个月前发布 yundic
126 0 0

为了应对严重的虚假和错误信息,同意本周美国自愿人工智能框架的7家人工智能公司承诺在人工智能生成的内容上添加水印。

白宫于6月21日宣布的自愿框架的参与者包括谷歌、OpenAI、微软、Meta、亚马逊、Anthropic和Inflection。

作为该框架的一部分,这些公司承诺开发水印,以帮助公众识别人工智能生成内容的来源,并减少欺骗。

就像传统的水印一样,人工智能水印被附加到图像、视频、音频文件或文本上。

对人工智能生成的内容进行水印可以减少诈骗、虚假的病毒活动和性勒索。白宫表示:“这一水位线将让人工智能领域的创造力蓬勃发展,但也会降低欺诈和欺骗的风险。”

博客文章 在白宫宣布后不久,OpenAI详细说明了其协议,“开发强大的机制,包括音频或视频内容的出处和/或水印系统。它还将开发“工具或API,以确定一段内容是否是用他们的系统制作的”。

谷歌计划通过整合元数据和除水印之外的“其他创新技术”来增强信息的可靠性。

白宫周五宣布了其他各种保障措施,包括在人工智能系统发布前对内部和外部测试,增加对网络安全的投资,以及促进整个行业的合作以降低人工智能风险。

OpenAI表示,这些承诺标志着“在美国和世界各地推进有意义和有效的人工智能治理的重要一步”。

该公司还承诺“投资于有助于为监管提供信息的领域的研究,例如评估人工智能模型中潜在危险能力的技术。”

Meta负责全球事务的总裁尼克·克莱格呼应了OpenAI的观点,将这些承诺描述为“确保为人工智能建立负责任的屏障的重要第一步”。

人工智能水印会奏效吗?

对人工智能生成的内容进行水印,虽然在概念上很有吸引力,但远非万无一失。

图像、视频和音频记录可以包含微小的、微弱的图形或音频,这些图像或音频表明它们是由人工智能生成的来源。

同样,将元数据集成到人工智能生成的文件中可以提供有关内容来源和创建过程的信息。然而,使用其他人工智能工具移除水印或剥离元数据可能很简单。

如果水印可以被移除,那么没有水印的人工智能生成的内容就会突然获得合法性。没有水印可以用来证明一个图像是真的,而它不是—一个潜在的危险的权衡。

当涉及到人工智能生成的文本时,没有直接的解决方案。与图像或音频不同,文本不容易嵌入水印。

这里的主要方法是通过人工智能检测器传递文本,人工智能检测器分析文本的复杂性—衡量人工智能模型预测给定单词序列的可能性—以估计它是否是人工智能生成的。

人工智能探测器有其缺点。它们通常会产生很高的误报率,导致非AI生成的内容被错误地标记。

这个问题在分析非英语母语人士所写的文本时被放大,他们可能使用不太常见的短语或有非典型的句 最近的一项研究出于这些原因,建议不要在教育和招聘环境中使用人工智能探测器。

此外,随着人工智能模型的发展,人工书写和人工书写内容之间的界限变得越来越模糊。随着人工智能在模仿人类写作风格方面的进步,基于困惑的检测器将变得不那么可靠。

虽然水印是朝着提高人工智能生成的内容的透明度和问责制迈出的一步,但它不是一个直接的解决方案,也不能起到最终威慑作用或“银弹”的作用。

© 版权声明

相关文章

暂无评论

暂无评论...