OpenAI使董事会能够推翻首席执行官S的模型发布决定

AI伦理与社会5个月前发布 yundic
171 0 0

OpenAI最近披露,其董事会有权推翻CEO关于发布新AI模型的决定,即使该公司领导层认为这些模型是安全的。

这一信息在周一公布的一套指导方针中得到了详细说明,其中概述了该公司应对其最先进的人工智能系统构成的潜在极端风险的战略。

虽然领导团队最初可以决定是否发布新的人工智能系统,但董事会保留撤销此类决定的权利。

OpenAI首席执行官萨姆·奥尔特曼被解职,并戏剧性地复职,突显出公司董事和高管之间奇怪的权力动态。

事后,许多人猜测,奥特曼没有对车型安全给予应有的关注,可以说,他被工作搞得焦头烂额。后来的报道对此表示怀疑,包括微软总裁布拉德·史密斯,他说他觉得不太可能 安全是主要动机

还有一个不小的问题是,OpenAI获得了巨大的估值,它的员工希望兑现他们的股票期权。

Business Insider称,OpenAI的员工用他们的公开信声明,如果奥特曼不复职作为谈判筹码,他们将离开公司。一名员工甚至说他是一个糟糕的首席执行官,尽管这些报道未经证实。

OpenAI现在已经采取行动来平息人们对他们没有安全地使用人工智能的担忧,首先是发布他们新的“超对准”实验此外,他们还增加了他们“备战”团队的“力量”。

OpenAI的备灾小组目前正在从麻省理工学院休假的Aleksander Madry领导的人工智能系统持续评估各种风险类别,包括网络安全和与化学、核和生物领域相关的威胁。

该团队旨在识别和减轻与该技术相关的任何重大危险。根据准则,被列为“灾难性”的风险可能会导致重大经济损失或对许多人造成严重伤害。

Madry解释了这个过程,他说:“人工智能不是发生在我们身上的事情,可能是好的,也可能是坏的。这是我们正在塑造的东西。他进一步表示,希望其他公司也能采用OpenAI的风险评估指南。

他的团队成立于10月份,是监督OpenAI人工智能安全的三个独立小组的一部分,将评估未发布的人工智能模型,并将感知到的风险归类为“低”、“中等”、“高”或“严重”。只有评级为“中”或“低”的型号才会被考虑发布。

OpenAI表示:“我们正在用我们的准备框架系统化我们的安全思维,这是一个活的文档(目前处于测试阶段),详细介绍了我们正在采取的技术和运营投资,以指导我们的前沿模型开发的安全性。

除了这些措施,OpenAI还有一个内部安全咨询小组,负责审查Madry团队的发现,并向Altman和董事会提供建议。

© 版权声明

相关文章

暂无评论

暂无评论...