Anthropic、谷歌、微软和OpenAI在今年7月推出了Frontier Model Forum,目前已向人工智能安全基金承诺1000万美元支持该计划。
“前沿模型论坛”旨在制定人工智能安全标准并评估前沿模型,以确保负责任的开发。看起来该集团可能终于开始着手业务,因为他们宣布Chris Meserole为其首任执行董事
Meserole拥有坚实的人工智能证书,最近担任布鲁金斯学会人工智能和新兴技术倡议主任。
在一份关于他的新任命的声明中,梅塞罗斯说:“最强大的人工智能模型为社会带来了巨大的希望,但为了实现它们的潜力,我们需要更好地了解如何安全地开发和评估它们。我很高兴能与边疆模型论坛一起接受这一挑战。“
论坛的任务是:
- 推进人工智能安全研究,促进前沿模式负责任发展,最大限度降低潜在风险
- 确定前沿模式的安全最佳实践
- 与政策制定者、学者、民间社会和其他人分享知识,推动负责任的人工智能发展
- 支持利用人工智能应对社会最大挑战的努力。
人工智能安全基金的设立是为了资助这一倡议,最初的金额为1000万美元,来自人类、谷歌、微软、OpenAI以及其他一些慈善家。
今天,我们将从前沿模型论坛(Frontier Model Forum)推出一项新的人工智能安全基金:由@ Google、@ AnthropicAI、@ Microsoft和@ OpenAI承诺超过1000万美元,用于推动独立研究,以帮助测试和评估最强大的人工智能模型。www.example.com
-谷歌DeepMind(@GoogleDeepMind)2023年10月25日
边疆模式论坛的核心目标之一是“跨部门合作”。有一件事可能会阻碍他们的合作雄心,那就是Meta的明显缺失。
今年早些时候,论坛在白宫签署了自愿人工智能承诺。即使在没有Meta的情况下,该组织仍可能有足够的权重来制定可能被更广泛采用的人工智能标准。
这些标准最终如何成为立法还有待观察。随着围绕训练数据或与开源模型相关的潜在风险等关键领域的分歧,很难达成共识。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...