科技公司联合起来解决深度虚假选举

AI行业新闻9个月前发布 yundic
430 0 0

在慕尼黑安全会议上,包括OpenAI、Meta、微软等在内的20家科技巨头联盟宣布将共同努力打击影响全球选举的人工智能内容。

这是因为人们越来越担心人工智能产生的深度造假可能会操纵选举进程,特别是在今年几个国家即将举行重大选举的情况下。

至少在巴基斯坦、印度尼西亚、斯洛伐克和孟加拉国的选举中,我们已经看到了深度造假的行为。

这项新协议承诺开发工具来检测和解决误导性的人工智能生成的媒体,提高公众对欺骗性内容的认识,并迅速采取行动从他们的平台上删除此类内容。

但事实是,我们已经听过很多次了。现在有什么不同?

虽然实施时间表的细节仍然模糊不清,但各公司强调需要采取集体办法来应对这一不断演变的威胁。

科技公司承诺部署协作工具,以检测和缓解有害的人工智能生成的选举内容的传播,包括用水印等技术来证明内容来源和更改。他们还承诺对他们的努力保持透明度,并评估他们的生成性人工智能模型带来的风险。

Meta Platels全球事务总裁尼克·克莱格表示:“我认为,这份协议的效用在于签署协议的公司的广度。”

“如果单个平台开发新的检测、来源、标签、水印等政策,这一切都很好,但除非有更广泛的承诺以共享的互操作方式这样做,否则我们将陷入一个不同承诺的大杂烩。

再说一次,没有什么是我们以前没有听说过的。已经达成了几项跨行业的协议,但还没有实质性有效的计划来阻止深度假货。

例如,MLCommons与Big Tech合作定义安全基准,公司致力于水印,并再次加入Frontier Model Forum,以建立一个“统一方法”。这三个全行业的协议刚刚浮现在脑海中,但肯定还有许多其他协议。

深度造假不容易被发现,尤其是在规模上。它们已经变得如此接近真实的东西,以至于使用人工智能或算法技术识别它们异常困难。

科技公司的回应是使用元数据标记内容,将其识别为人工智能生成的内容,但这如何识别图像的目的?

元数据也很容易从文件中剥离。此外,总会有人工智能公司不与协议和方法合作,以绕过现有的控制措施。

Adobe首席信任官Dana Rao解释了这些内容是如何以及为什么有效的,他说,“音频、视频和图像之间存在着情感上的联系。”“你的大脑天生就相信这种媒体。”

事实上,深度造假似乎在被宣布为假后很长一段时间内传播开来。虽然很难量化它们对我们的行为有多大的改变,但它们的影响规模——同时数百万人观看的内容——不是你可以冒险的。

事实是,我们可以期待更多与人工智能相关的深度虚假事件和争议。

个人意识和批判性思维将是人类对抗负面影响的最大武器。

© 版权声明

相关文章

暂无评论

暂无评论...