OpenAI呼吁法官驳回《纽约时报》对微软和OpenAI的诉讼,指控该报“黑客”了他们的产品。
他们指责《纽约时报》通过详尽而具有操纵性的过程捏造了侵犯版权的行为,这一过程涉及“数以万计的尝试”和“公然违反OpenAI使用条款的欺骗性提示”。
这份措辞强硬的法庭陈述开始说:“《纽约时报》投诉书中的指控不符合其著名的严格新闻标准。事实,这将在这个案件的过程中出现,是纽约时报付钱给某人黑客攻击OpenAI的产品。
纽约时报是 寻求巨额损害赔偿 微软和OpenAI。
虽然涉及创意产业各个角落的人工智能公司的诉讼越来越多,但这起案件将成为一个里程碑式的案件。它可以重塑人工智能发展和版权法的格局。
然而,你可以肯定,大型科技公司将不遗余力地战斗。“正常人不会以这种方式使用OpenAI的产品,”OpenAI在最近的文件中声称。
OpenAI在其提交的法律文件中提到的“快速工程”或“红团队”一词,作为一种压力测试,旨在发现人工智能系统中的漏洞。
喂食专门设计的生成性人工智能系统的提示会迫使它们否定自己的护栏,并做出不正常的行为。
这导致了一系列奇怪和潜在危险的反应,例如提供, 帮助制造炸弹或鼓励自杀和其他有害活动。
OpenAI的提交, 可在这里OpenAI和这些诉讼中的其他被告最终将获胜,因为没有人——甚至《纽约时报》——可以垄断事实或语言规则。
它还指出,“然而,与诉状中的指控相反,ChatGPT绝不能以任何方式取代订阅《纽约时报》。在现实世界中,人们不会使用ChatGPT或任何其他OpenAI产品来实现这一目的。他们也做不到。
这一点至关重要,因为《纽约时报》必须说服法官相信OpenAI侵权行为造成的经济损失。
版权:合理使用还是漏洞?
生成人工智能模型很容易在版权数据上进行训练,这是一个公开的秘密,有些模型的训练程度比其他模型的训练程度更高。
OpenAI在一份声明中承认了这一点, 提交英国上议院他说,“因为今天的版权几乎涵盖了人类表达的每一种形式–包括博客文章、照片、论坛帖子、软件代码碎片和政府文件–如果不使用受版权保护的材料,就不可能培养出当今领先的人工智能模型。”
OpenAI在一些人看来是弗洛伊德式的失误,“将训练数据限制在一个多世纪前创建的公共领域书籍和图纸上,可能会产生一个有趣的实验,但不会提供满足当今公民需求的人工智能系统。
毫无疑问,人工智能公司打算使用版权数据。但这并不意味着版权法,一个前人工智能的构建,不站在他们一边。
在瑞士达沃斯的一次讨论中,OpenAI的首席执行官萨姆·奥尔特曼表达了他对《纽约时报》诉讼的震惊,澄清了一个常见的误解,即需要报纸的数据来培训OpenAI的模型。
“我们实际上不需要在他们的数据上进行训练,”Altman说,并强调排除任何一个出版商的数据对ChatGPT性能的影响微不足道。
尽管如此,OpenAI承认多个出版商撤回其内容的潜在累积效应,并正在争取将媒体内容用于人工智能培训目的的协议。
一 最新研究 来自牛津大学路透社新闻研究所的一项研究发现,目前约有48%的主要新闻网站正在屏蔽OpenAI的网络爬虫,这可能会严重限制该公司获取新的高质量数据。
OpenAI和其他科技公司可能需要开始为数据付费,但到目前为止,他们的漏洞仍未受到惩罚。