前沿模型论坛:它会工作吗?

AI最新政策1年前 (2023)发布 yundic
271 0 0

本周,微软、谷歌、OpenAI和Anthropic成立了Frontier Model Forum,致力于AI安全和问责制。

论坛的特派团 包括确定最佳人工智能实践,支持公共和私营部门,与学术界合作,以及与决策者合作,以确保人工智能的好处得到引导,风险得到缓解。

此前不久,7家人工智能公司选择了白宫概述的自愿人工智能框架。

竞争对手之间的这种合作在蓬勃发展的人工智能行业中相对常见,竞争对手偶尔会共享硬件和研究成果,但这并不是说模型背后的真正实质并没有被锁定。

微软支持的OpenAI一直在与该公司的竞争对手Salesforce和DuckDuckGo合作,这表明人工智能世界的关系是复杂的。

专家认为,论坛的成功需要一定程度的合作,而不仅仅是共享资源以实现互利—它涉及人工智能公司披露其最核心的工作。

Gartner首席分析师Avivah Litan对论坛能否实现其目标表示怀疑,他说:“一群死忠的竞争对手将达成一个共同有用的解决方案,并实际上让它无处不在地实现—在他们和其他人控制的封闭和开源模型中—几乎为零。

该论坛目前由4个创始成员组成,但对致力于安全模式开发和支持更广泛行业倡议的其他组织开放。

利坦对这些公司表示乐观 影响更大的法规 但强调需要一个国际监管机构来执行全球人工智能标准。

“鉴于我们尚未目睹全球政府在气候变化方面的合作,解决方案已经众所周知,期待在人工智能方面的合作,解决方案尚未明确,更具挑战性。至少这些公司可以努力找到解决方案,这是一个积极的方面,”利坦说。

一些人对前沿模型论坛表示乐观

伦敦国王学院人工智能高级讲师凯特·德夫林博士承认前沿模型论坛的积极情绪。

“这一声明似乎主要集中在技术方法上。然而,当负责任地发展人工智能时,必须解决更广泛的社会技术方面的问题,“德夫林博士指出。

此外,论坛可以简化监管方面的合作,确保规则在整个行业适用。

例如,论坛承诺支持G7广岛人工智能进程,这是在日本举行的G7峰会上达成的一项协议,要求与经合组织和GPAI合作。

由于人工智能几乎没有强制性规则,该技术的方向仍然掌握在开发人员的手中,他们最不表面上试图在短期内遏制风险。

论坛等合作努力的结果非常悬而未决。

© 版权声明

相关文章

暂无评论

暂无评论...