Meta宣布了新的举措,以提高其平台上人工智能生成的内容的透明度。
用一种博客文章Meta全球事务总裁Nick Clegg强调,该公司致力于标记人工智能生成的图像,以帮助用户区分人工创造和合成内容。
克莱格说:“随着人类内容和合成内容之间的区别变得模糊,人们想知道界限在哪里。”他进一步补充说,Meta一直在“与行业合作伙伴合作,在共同的技术标准上保持一致,这些标准表明何时使用人工智能创建了一段内容。”
Meta承认,真实感人工智能生成的内容越来越普遍,现在被广泛称为深度造假。
Taylor Swift是最新一个高调的受害者,明确的未经同意的人工智能生成的图像,用户追溯到4Chan上的一个“挑战”。
周一,一场由视频深度造假策划的骗局从一家跨国公司中提取了2560万美元。
防止这些图片传播的责任直接落在了X和Meta等社交媒体公司身上。
Meta一直将使用自己的Meta AI功能创建的照片级真实感图像标记为“用AI想象的”,并计划将这种做法扩展到由其他公司的工具生成的内容。
该公司表示,它正在开发能够识别嵌入到人工智能生成的图像中的不可见标记和元数据的工具,使其能够标记来自广泛来源的内容,包括谷歌、OpenAI、微软、Adobe、MidTriff和Shutterstock。
Meta现在准备在其平台上所有支持的语言中应用这些标签。
克莱格还强调了整个科技行业合作的必要性,他写道:“由于人工智能生成的内容出现在互联网上,我们一直在与我们行业的其他公司合作,通过人工智能合作伙伴关系(PAI)等论坛开发识别它的通用标准。我们用于Meta AI图像的隐形标记—IPTC元数据和隐形水印—符合PAI的最佳实践。”
尽管在打击深度造假方面做出了最大努力并取得了进展,但克莱格指出,由于缺乏可比信号,检测人工智能生成的音频和视频仍然具有挑战性。
但即使涉及到虚假图片,这些图片在被全面删除之前也会造成数百万人的印象–就像我们在最近的泰勒·斯威夫特事件中看到的那样。
其他事件,如评论员本·夏皮罗分享了一张可能由人工智能生成的以色列—巴勒斯坦冲突中一个死婴的图像,在遭到反击之前,也引起了全世界的广泛关注。
作为临时措施,Meta将引入一项功能,允许用户在共享人工智能生成的视频或音频时披露。
但是,如果他们发布的内容旨在引发争议,谁会使用它呢?
除了标签,Meta还在探索各种技术,以增强其检测人工智能生成内容的能力,即使在没有不可见标记的情况下也是如此。
这包括对不可见水印技术的研究,例如稳定签名 由Meta的人工智能研究实验室FAIR开发,它将水印直接集成到图像生成过程中。
选举即将到来,深度造假加剧
我们已经目睹了许多政治错误信息通过深度造假渠道的事件。
谷歌、Meta、YouTube、X和其他公司正在加大力度,在即将到来的选举之前解决深度造假问题,包括在美国和英国(很有可能)。
随着人工智能生成的内容变得越来越复杂和广泛,对内容认证和透明度方面的警惕和创新的需求也越来越大。
最终解决方案在望了吗?看起来并非如此。