《卫报》已经加入了越来越多的网站,这些网站已经阻止OpenAI的GPTBot抓取他们的网站。
英国日报 宣布决定 上周五在其网站上发布了GPTBot,并加入CNN、路透社、华盛顿邮报、彭博社和纽约时报的行列。虽然它没有充分解释这一决定背后的原因,但它确实提到了一些常见的行业担忧。
它引用了莎拉·西尔弗曼(Sarah Silverman)等作家正在进行的版权诉讼,以及英国图书出版商要求保护他们的作品不被人工智能利用的呼吁。
《卫报》承认,像ChatGPT这样的生成性人工智能工具正在做一些令人印象深刻的事情,但声明中的一些语义揭示了人工智能公司如何开展业务的热情不高。
声明指出,ChatGPT接受了从互联网上“挑选”大量数据的培训,并表示它采取行动是为了阻止该公司使用“获取”其数据的软件。
它还没有出来,并喊着“阻止小偷!”但信息很清楚
《卫报》和《观察家报》出版商的一位发言人说:“出于商业目的从《卫报》网站上窃取知识产权的行为,现在,而且一直都是违反我们的服务条款的。
这位发言人表示,“卫报的商业许可团队与世界各地的开发者有许多互惠互利的商业关系,并期待在未来进一步建立这种关系。
有趣的是,《卫报》还注意到了人们对生成性人工智能产生虚假信息的潜力的担忧。它没有解释这种担忧与其屏蔽GPTBot的决定有何关系,但作为一家新闻发布者,这是一个明显的担忧领域。
撇开道德和版权问题不谈,卫报网站的服务器可能也经历了与X类似的挑战。
今年早些时候,Elon Musk表示,X服务器所经历的大量负载来自大量人工智能爬虫机器人。他还没有完全屏蔽他们,还打算使用公开的推文来训练他的xAI模型。
当一个人工智能机器人访问一个网站并遇到一个robot.txt文件“阻止”它时,它不会出于礼貌而刮掉网站,而不是因为它无法。
一旦版权问题在法律上得到解决,我想知道礼貌会持续多久来战胜人工智能对数据的贪得无厌。