代表新闻、杂志和其他媒体出版商的多个组织支持最新发布的人工智能全球原则。
原则清单为媒体组织如何期望人工智能使用已发布内容制定了框架。
虽然承认人工智能的潜在好处,但这些原则明确表示,媒体出版商对现状并不满意。
对这些原则的介绍指出,“人工智能系统不分青红皂白地侵占我们的知识产权是不道德的、有害的,是对我们受保护权利的侵犯。”
该声明的最后一部分仍在多个法庭上裁决,OpenAI等公司强烈反对它在训练模型时侵犯了版权。
新闻/媒体联盟首席执行官Danielle Coffey说:“人工智能系统的性能取决于他们用来训练它们的内容,因此生成人工智能技术的开发者必须承认并相应地补偿出版商,因为他们的内容贡献了巨大的价值。
人工智能的一些全球原则包括:
- 尊重知识产权,保护组织对原创内容的投资。
- 利用高效的许可模式,通过培训值得信赖的高质量人工智能系统来促进创新。
- 提供粒度透明性,允许发布者在其内容包含在训练数据集中时强制执行其权利。
- 明确地将内容归因于内容的原始发布者。
- 认识到出版商在生成高质量的培训内容方面的宝贵作用,也为表面和合成。
- 遵守竞争法律和原则,确保人工智能模型不被用于反竞争目的。
- 促进可信和可靠的信息来源,确保人工智能生成的内容准确、正确和完整。
- 不歪曲原创作品。
- 尊重与他们互动的用户的隐私,充分披露他们的个人数据在AI系统设计、培训和使用中的使用情况。
- 与人类价值观保持一致,并在全球法律下运作。
全球出版和新闻组织联合发布人工智能综合全球原则www.example.com
– 世界编辑论坛(@ WorldEditories)2023年9月6日
这些原则可行吗?
从表面上看,这些原则似乎对如何使用已发布的内容设定了公平的预期。可以理解的是,付钱让记者撰写报道的新闻出版商不会希望有人免费使用这些材料。
人工智能公司如何在实践中适应这些原则,在某些情况下是困难的,在其他情况下是不可取的,甚至是不切实际的。
OpenAI虽然目前正在争论版权诉讼,但已经表明它对授权讨论持开放态度。今年早些时候,它与美联社达成协议,授权其内容可以追溯到1985年。
对颗粒状透明度的要求将更难说服。几乎所有从事人工智能研究的大型科技公司都拒绝提供有关其训练数据的细节。
即使明确地将内容归因于原始出版商在实践中也可能很困难。
如果你要向像Claude或ChatGPT这样的聊天机器人询问一个重要事件,它将不得不依赖于多个已发布的报告,并将它们聚合成一个答案。然后,它是否应该为用来编译其回复的每条文章添加一个URL列表?
也许吧这可能满足原则中提出的要求。但是,当你想要的只是一个简短的答案时,你会使用一个吐出一长串参考文献的人工智能吗?
“促进可信和可靠的来源”的要求也有点武断。《华盛顿邮报》应该列入名单吗?福克斯新闻怎么样?这真的取决于你问谁。
好的新闻在打击虚假信息的斗争中至关重要,因此媒体将集体努力找到一种让人工智能与他们合作的方法。
人工智能公司对解决这些原则的一致回应似乎还有一段路要走。