人工智能公司想要监管,但这是出于正确的原因吗?

AI意见和分析11个月前发布 yundic
30 0 0

人工智能公司正在推动监管。他们的动机是偏执还是利他主义?监管是否能确保竞争目标?

5月初,谷歌高级软件工程师卢克·塞诺写了一份关于开源人工智能的非正式备忘录。在咨询公司Semi-Analyst之前,它在谷歌的内部系统上广为流传,核实并公布.

以下是一些摘录:

“我们在OpenAI上做了很多工作。谁将跨越下一个里程碑?下一步会是什么?

但令人不安的事实是,我们没有能力赢得这场军备竞赛,OpenAI也没有。当我们争吵的时候,第三个派系一直在悄悄地吃我们的午餐。当然,我说的是开源。

简单地说,他们在拍我们。我们认为“重大未决问题”的事情今天已经解决并掌握在人们手中。虽然我们的车型在质量方面仍有一定的优势,但差距正在迅速缩小。

开源模型更快,更可定制,更私密,更有能力。他们正在用1000美元和130亿美元的参数做事情,而我们在1000万美元和540亿美元的情况下挣扎。他们在几周内,而不是几个月。

3月初,开源社区得到了他们的第一个真正强大的基础模型,因为Meta的LLaMA被泄露给了公众。

它没有指令或对话调谐,也没有RLHF。尽管如此,社区立即明白了他们所获得的东西的重要性。随之而来的是巨大的创新,在重大发展之间只有几天…

我们在这里,仅仅一个月后,有指令调整,量化,质量改进,人类评价,多模态,RLHF等变体,等等,其中许多是相互依赖的。最重要的是,他们已经解决了缩放问题,任何人都可以修补。

许多新想法都来自普通人。进入培训和实验的门槛已经从一个主要研究机构的总产量下降到一个人、一个晚上和一台结实的笔记本电脑。

Sernau的备忘录被主要新闻媒体转载,并引发了关于大型科技公司推动监管是否掩盖了迫使开源人工智能退出游戏的动机的辩论。来自Politico的Ben Schrekcinger写道“开源代码也更难被禁止,因为如果监管机构试图关闭一个网站或使用它的工具,可能会出现新的实例。这些开源项目与其他去中心化的功能相结合,不仅有可能破坏硅谷的商业模式,而且还有华盛顿和布鲁塞尔的治理模式。

开源人工智能社区已经蓬勃发展。开发人员在数天内解决挑战,而谷歌和OpenAI需要数月或数年的时间。Sernau认为,与大型技术相比,开源开发人员的敏捷社区更适合构建迭代模型,因为它们更多样化、更高效、更实用。

如果是这样的话,大型科技对人工智能的主导地位可能会转瞬即逝。

Meta LLaMA泄漏

Meta的LLaMA模型是一个类似ChatGPT的大型语言模型(LLM),在该公司发出访问请求一周后在4chan上被泄露。 3月3日,一个可下载的洪流出现在消息论坛上,并像野火一样蔓延开来。

人工智能公司想要监管,但这是出于正确的原因吗?

Meta的LLaMA是一个基础的650亿参数大型语言模型(LLM)。

正如Sernau指出的那样,开源社区继续修改骆驼,在没有企业计算机资源的情况下添加了令人印

构建强大的人工智能模型比以往任何时候都更便宜,开源社区正在推动访问民主化。虽然骆驼在很大程度上是一种预先训练的模型,但其他开源模型,如Bloom,是由志愿者培训的。

培训BLOOM需要一台配备384台NVIDIA A100 80GB GPU的超级计算机,幸运的是法国政府捐赠的。开源人工智能公司Together最近宣布了2000万美元的种子资金,像CoreWeave这样的专注于人工智能的云提供商提供低于市场价格的硬件。

开源项目有各种方式来集中资源和迂回技术。 大型科技公司可能希望我们认为,他们的人工智能是数十年工作和数十亿美元投资的产物。 开源社区可能不同意。

在印度的一次活动中,前谷歌高管Rajan Anandan询问OpenAI首席执行官Sam Altman,印度工程师是否可以用1000万美元的投资构建基础AI模型。

奥特曼回应说:“在训练基础模式上与我们竞争是完全没有希望的。你不应该尝试,不管怎样,你的工作就是喜欢尝试。我相信这两件事。我认为这是非常没有希望的。

但是,在他的备忘录中,Sernau表示开源已经在与大型科技公司竞争。他说:“现在,保持技术的竞争优势变得更加困难,因为LLM的尖端研究是负担得起的。世界各地的研究机构都在彼此的工作基础上,以远远超出我们自身能力的广度优先的方式探索解决方案空间。

开源开发人员正在构建大型科技公司人工智能的替代品,并在性能和用户统计方面超过它们。

例如,开源的稳定扩散在发布后的几个月内就比OpenAI的Dall-E更受欢迎。

人工智能公司想要监管,但这是出于正确的原因吗?

开源的稳定扩散迅速超过了OpenAI的专有Dall-E。来源:谷歌趋势。

我们能在多大程度上窥探出潜在的不可告人的动机?大型科技公司的监管举措是否有任何利他主义的价值?

开源AI社区

除了LLaMA,至少有三个开源AI项目的主要例子:

  • 拥抱的脸和布卢姆人工智能公司Hugging Face与1000多名志愿科学家合作开发了BLOOM,这是一个开源的LLM。BLOOM旨在为专有人工智能模型提供一个更透明、更易访问的对应物。
  • 同舟共济-一家名为Together的人工智能初创公司成功筹集了2000万美元的种子资金,以支持其构建封闭人工智能系统的去中心化替代方案的目标。他们推出了几个开源的生成性人工智能倡议,包括GPT-JT、OpenChatKit和RedPajama。
  • 稳定性AI —2023年4月,Stable Diffusion背后的公司Stability AI推出了StableLM,这是ChatGPT的一系列开源替代品。

值得注意的是,虽然其中一些开发人员(例如,Stable Diffusion)通过直观、易于使用的仪表板提供他们的模型,而其他公司(如BLOOM)则需要大量资源才能运行。对于初学者来说,您需要大约360GB的RAM来运行BLOOM,但是有许多巧妙的技巧可以降低资源需求。

随着支持人工智能的硬件价格下降,开源模型变得更容易部署,几乎任何人都可以部署类似ChatGPT的模型是很有可能的。谷歌备忘录泄露的例子列举了人们在包括MacBook在内的消费设备上调整和部署骆驼的例子。

对于拥有大量IT资源的企业, 开源模型节省了资金,并提供了数据主权和对训练和优化的控制。

然而,并不是所有人都对强大的开源人工智能的影响持乐观态度。例如,网络安全研究员Jeffrey Ladis在推特上写道:“准备好应对大量个性化垃圾邮件和网络钓鱼尝试”,“开源这些模型是一个可怕的主意。

另一位观察人士在推特上写道:“开源是一种威胁,但不是你想象的那样。这是一个威胁,因为人工智能掌握在那些可以为自己目的使用它的人手中,变得更加难以监管或跟踪,这是一个更大的问题。

曾与杰弗里·辛顿和吉雄·本曼一起被视为“人工智能教父”的严乐村。反驳说,“一旦LLMS成为每个人获取信息的主要渠道,人们(和政府)就会要求它是公开和透明的。基础设施必须是开放的。

LeCun也反对关于人工智能风险的主流说法,“我认为人工智能对齐问题的严重性被夸大了,我们解决这个问题的能力被广泛低估了。马斯克(Elon Musk)在推特上回应道:“你真的认为人工智能是一把单刃剑吗?”

其他评论将人工智能监管与密码学相提并论,在密码学中,美国政府试图通过以下方式禁止公共加密方法将其归类为”弹药”被称为”加密战争”

现在,几乎每个人都有权使用加密–但这场战斗来之不易–开源人工智能就是如此。

OpenAI对开源AI的异化

开源不仅仅是软件、代码和技术。它是一种原则、心态或信念,即一个合作、开放和透明的工作环境在封闭的市场中胜过竞争。

OpenAI曾经是一家专注于公共合作和开源开发的非营利公司,现在已经稳步离开了同名公司。

这家初创公司于2019年转型为一家营利性公司,有效地结束了该公司与开源社区的关系。微软的投资使得OpenAI不参与任何形式的“开放”研发活动。

5月中旬,该公司宣布, 开源模型在管道中但他们并没有透露细节。

现在,OpenAI正在推动对新兴人工智能公司打击最大的监管,更不用说可能会使开源社区犯罪。

这导致一些人批评OpenAI推动监管只不过是商业——保护他们的盈利模式免受开源社区寻求人工智能民主化的影响。

开源人工智能对大科技来说是一种风险吗?

谷歌泄露的备忘录、大型科技公司对监管的推动,以及奥特曼对草根人工智能项目的诋毁,这些因素的结合引起了一些人的关注。事实上,人工智能风险的合法性——这是监管的合理性——一直受到质疑。

例如,当人工智能安全中心(CAIS)发布了由多位人工智能首席执行官共同签署的关于人工智能风险的地震声明时,一些外部观察人士并不相信。

在一系列专家对声明的反应中, 出版社:Science Media Centre艾伦·图灵研究所伦理学研究员Mhairi Aitken博士说:

“最近,这些说法越来越多地来自大型科技公司,主要是硅谷。虽然有些人认为这是因为他们意识到了技术的进步,但我认为这实际上是一种分散注意力的技巧。它转移了人们对正在开发人工智能并推动该领域创新的大型科技(个人和组织)的决策的注意力,而是将注意力集中在假设的未来场景上,以及人工智能的未来能力上。

一些人认为,大型科技公司有足够的火力将资源投入道德、治理和监督,使它们能够摆脱最糟糕的监管,继续销售产品。

然而,谴责人工智能风险是幻想,并声称监管没有价值,同时也是有问题的。

两个阵营都有持怀疑态度的人

将人工智能风险视为纯粹的投机行为可能会被证明是人类的一个关键错误。

事实上,几十年来,没有利益冲突的评论者一直在警告人工智能,包括已故的斯蒂芬·霍金教授,他说人工智能“可能会导致人类的终结”,并成为“我们文明史上最糟糕的事件”。

尽管一些人可能会辩称,大型科技公司正在挥舞着人工智能末日的愿景,以加强市场结构并提高进入门槛,但这并不能掩盖人工智能风险的合法性。

例如,人工智能研究团队已经证明了人工智能自主建立紧急目标的能力,并可能产生灾难性的后果。

其他实验表明,人工智能可以主动收集资源,积累能量,并采取主动措施防止自己被“关闭”。可信的研究表明,至少有些人工智能风险并没有被夸大。

兼容的观点?

问题是,我们能相信自己拥有强大的人工智能吗?“我们自己”是任何地方、每一个层面的人类,从大型技术研究实验室到构建开源人工智能的社区。

大型科技公司可能希望整合市场结构,同时培养人们对人工智能未来的真正担忧。这两者并不一定是相互排斥的。

与此同时,开源人工智能的兴起是不可避免的,监管可能会让拥有人类最危险技术之一的社区产生不满情绪。

现在通过监管来征服开源人工智能已经为时已晚,试图这样做可能会导致人工智能禁令的破坏性时代。

与此同时,围绕人工智能危险的讨论应该由证据驱动—这是我们对该技术潜在危害的唯一客观信号。

© 版权声明

相关文章

暂无评论

暂无评论...