开源人工智能,尤其是Meta的骆驼模型,引发了关于向每个人发布强大的人工智能模型的风险的辩论。
上周,一群抗议者在Meta旧金山办公室外集会,谴责该公司公开发布人工智能模型的决定。
一条横幅上写着:“不要开源世界末日”。
抗议被张贴在 有效利他主义论坛 并陈述了以下理由:”Meta的前沿人工智能模型从根本上说是不安全的.在它发布更先进的模型之前——这些模型将具有更危险的能力——我们呼吁Meta认真对待负责任的释放,并阻止不可逆转的扩散。”
抗议者还创建了一个 网站在这里引用了扎克伯格淡化开源模型发布的安全含义的话。
简而言之,OpenAI和Google等知名公司将其大型语言模型(LLM)限制在API访问范围内。它们是封闭的“黑箱”,这意味着公众看不到模型内部发生了什么——只是输入和输出。
相比之下,Meta通过向人工智能研究界公开提供其骆驼模型而登上了头条。这使精通技术的个人能够调整和调整模型,以释放他们的全部潜力,而不像封闭式人工智能那样,后者是通过设置安全护栏来编程的。
Meta的人工智能开发方法
Meta在人工智能开发中一直扮演着略微对立的角色。
随着谷歌、OpenAI、微软以及Anthropic和Infltion等初创企业争先恐后地建立封闭的人工智能,Meta选择将其开源模型像一枚活手榴弹一样扔到公共领域。
开源人工智能当然威胁到了微软、OpenAI等依赖于将产品货币化的市场结构。
Meta的美洲驼模型是著名的 关于4Chan 在正式发布之前,不久该公司又进一步发布了Llama 2。
抗议者认为,Meta的开源倡议象征着可能危险的技术的”不可逆转的扩散”。然而,其他人坚决不同意,认为开源人工智能对于技术民主化和通过透明度赢得信任至关重要。
在Meta外发起周五抗议活动的Holly Elmore强调,一旦影响模型输入和输出的模型权重进入公共领域,创建者就会失去控制。开源模型可以被修改和重新设计,以产生不道德或非法的后果。
埃尔莫之前曾与智库重新思考优先事项联系在一起,他说:“放权是一项危险的政策…模型越强大,这一政策就会变得越危险。
开源人工智能仍将是一个有争议的话题,但将技术留给少数人控制可能不是一个有利的选择。