微软发誓要承担任何由人工智能生成的内容通过其工具(包括Copilot)引起的版权侵权的法律责任。
Copilot是一个人工智能工具,直接集成到Microsoft 365软件家族中,其中包括Word,PowerPoint和Excel。
它还没有向公众开放,但将使用户能够自动创建和汇总文本、创建演示文稿、创建图表、分析数据等。
微软公司法律事务总法律顾问Hossein Nowbar表示,微软将承担使用其人工智能产品的商业客户所涉及的所有潜在法律风险,前提是他们遵守内置的“护栏和内容过滤器”。
换句话说,如果Copilot制作的内容侵犯了其他人的版权,而他们提起诉讼,微软将支付费用。
这一消息是通过一个 微软官方博客文章具体来说,如果第三方指控商业客户使用微软的Copilots或他们生成的产品侵犯版权,我们将为客户辩护,并支付诉讼导致的任何不利判决或和解的金额,只要客户使用了我们在产品中内置的护栏和内容过滤器。
微软的目标是缓解人们对生成人工智能无意中产生受版权保护的材料潜力的担忧。
伦敦大学学院知识产权法教授Ilanah Fhima指出,“此举打开了市场”,“让软件更容易使用,因为如果企业知道他们有这种保证,它就消除了一个障碍。
这是微软出人意料的举动–发誓要从客户的法律诉讼中收拾残局,这只有在人工智能时代才有意义。
此外,客户必须使用产品的“护栏和内容过滤器”的规定为微软提供了一层额外的保护,防止误用。
道德问题和以往的反弹
微软此举 这引发了人们的疑问,即该公司是打算培养公众对其产品的信任,还是仅仅支持采用。
支付法律费用是一回事,但它并没有解决OpenAI的训练数据是否包括受版权保护的内容。
今年早些时候,Rebbe Firefly声称该模型只在Adobe Stock照片上训练,而不是从互联网上抓取的数据,从而解决了潜在的版权问题。
该公司他们做出了同样的承诺,将为Firefly的输出产生的任何潜在法律问题支付法律费用,但考虑到他们拥有培训数据,这对他们来说是一个相对容易的承诺。
微软无法提供同样的透明度,尽管提供了同样的法律保证。
事实是,披露Copilot训练数据的性质是不可能的,因为它是用OpenAI的GPT模型构建的,几乎可以肯定,这些模型至少是在一些通过可疑实践获得的受版权保护的材料上进行训练的。
这并不是说OpenAI验证了创作者的版权,但有人做到了,OpenAI应该知道。
微软的博客文章表示,公司重视版权和所有权,并表示:“对于作者来说,根据版权法保留对其权利的控制权,并从他们的创作中获得健康的回报是至关重要的……我们应该确保训练和基础人工智能模型所需的内容不会以扼杀竞争和创新的方式被锁定在一家或几家公司手中。
虽然Copilot是基于ChatGPT构建的,但他们的博客文章让我们相信, 为它配备了过滤器,严格保护输出免受侵犯版权。
从微软的措辞来看,这些特定的护栏可能是Copilot独有的, 包括“分类器、元提示符、内容过滤、操作监控和滥用检测,包括可能侵犯第三方内容的内容”。
值得注意的是,微软还表示,过滤器“降低了Copilots返回侵权内容的可能性”。
这里的“降低可能性”一词意味着尽管有过滤器,工具仍然有可能侵犯版权。
大量诉讼声称,人工智能工具产生的内容过于类似于受版权保护的材料,包括一些逐字逐句的书籍或摘要,如果ChatGPT没有不受限制地访问这些书籍本身,这些内容就无法解释。
OpenAI最近对这些案件不屑一顾,称其“毫无根据”,不过法律诉讼仍在进行中。
缺乏明确性
目前,还不清楚OpenAI的GPT模型在哪里结束,Copilot在哪里开始,以及微软的微调程度。
在另一篇文章中,微软表示:“Copilot不仅仅将ChatGPT与Microsoft 365连接起来;它将大型语言模型(LLM)的强大功能与Microsoft Graph(包括日历、电子邮件、聊天、文档、会议等)和Microsoft 365应用程序中的数据相结合,将您的文字转化为世界上最强大的生产力工具。
微软发布了一段视频,解释了Copilot发布后的工作原理,但没有透露细节。
目前,我们可以假设微软的新内容过滤器和护栏会积极过滤可能受版权保护的内容,可能会比ChatGPT更大程度上过滤。微软可能已经对Copilot进行了消毒,以阻止其使用潜在的受版权保护的材料。
更广泛的行业影响
微软大胆承担侵犯版权的法律风险,这不仅仅意味着一个公司的决定。
正如企业所知,我们正处于人工智能监管的狂野西部时代。这可以被标记为 但这也意味着这是一场赌博
由于人工智能和版权方面的法律和先例仍在形成中,该公司可能还不会盯着高昂的法律费用–目前还不是。
全球法律动态
”当Alberbe做出同样的承诺时,该公司的总法律顾问Dana Rao说:“法律还没有解决,我不能告诉你版权案件将走向何方,但我可以保证你出生在美国,会有很多诉讼,所以保险(对我们的企业客户)是相当有吸引力的,而不是真正的噱头。
讨论人工智能版权嵌入美国法律框架是很好的,但作为一家跨国公司,微软的政策可能会开创先例,必须在多个司法管辖区导航,每个司法管辖区都有自己的版权法和对人工智能的态度。
这可能迫使微软扮演一个它可能不想要的角色:一个全球仲裁者,为全球如何处理人工智能版权问题设定事实上的标准。
假设Copilot生成了一个类似于某人版权作品的可疑文本, – 有关作品是否全面违反版权法的解释,因司法管辖区不同而有所不同。
例如,英国的版权法在几个方面与美国不同。虽然美国版权法侧重于“合理使用”,这是一个有点灵活的标准,但英国依赖于一个称为“
在美国,一个实体可能会提出“转化性使用”的要求,认为新的创作增加了一些新的东西,或者以一种可以免除版权侵犯的方式对原始作品进行了实质性的改变。
然而,在英国,缺乏“变革性使用”条款,使得导航人工智能生成内容的版权问题更具挑战性,从而可能增加微软在向英国客户提供其人工智能产品时的法律风险。
此外,英国对道德权利的态度——保护作者与作品之间的个人关系——比美国更为稳健。
如果人工智能实质上复制受版权保护的作品,英国对道德权利的更强保护可能会给微软的法律计算增加另一层复杂性。
因此,微软的政策可能会对制定事实上的全球标准产生深远的影响。
这一标准需要足够灵活,以考虑到全球框架之间的差异,但也需要足够有力,以便为其客户提供有意义的保护和保证。
据推测,这一承诺将接受一定程度的法律担保,这可能会澄清它如何适用于全球客户,如果它确实在美国以外产生任何影响的话。
为客户降低壁垒,为竞争对手提高壁垒
与Abobe一样,微软也承诺在法律上支持其客户,从而降低了在商业中采用人工智能的法律障碍。
然而,这一举措可能会波及整个初创企业生态系统。初创企业往往推动创新,但缺乏承担广泛责任的财务实力,它们可能会发现,在一个重量级企业将法律保险作为一揽子计划的一部分提供的市场中,竞争越来越困难。
已经有人担心,即将出台的人工智能法规对于规模较小的行业参与者来说将非常昂贵。
这可能会改变人工智能的发展格局,将权力巩固在那些有能力承担法律风险的人手中。
这就是我们希望人工智能行业变成的样子吗?一个公司通过承诺支付法律费用来营销产品的行业?
从道德上讲,这一举动踩到了一片黑暗的水域。虽然微软声称重视版权,甚至旨在通过这些护栏保护版权,但它的运作环境仍然是一个“正确”的道路仍在争论的领域。
此外,通过承担法律责任,微软可能被视为绕过了人工智能开发和使用中更严格的道德考虑。
该公司没有投资于本质上尊重知识产权的技术,而是选择在事后“清理”任何潜在的混乱。
这可以被看作是一种道德交易,微软正在用法律支持的承诺来换取其服务的更多采用,这可能是以推动更道德的人工智能实践为代价。
其他公司会效仿吗?可能吧
同样,这种情况只有在人工智能时代才有意义。