美国政府委托的一份报告称,需要新的人工智能安全措施和政策来防止“对人类物种的灭绝威胁”。
该报告由Gladstone AI编制,该公司成立于2022年,专注于为美国政府部门提供人工智能机遇和风险方面的建议。这份名为“提高先进人工智能安全性的行动计划”的报告花了一年时间完成,由25万美元的联邦资金资助。
该报告重点关注先进人工智能带来的灾难性风险,并提出了一项全面的行动计划来缓解这些风险。作者显然不同意Yann LeCun对人工智能威胁的更自由放任的观点。
报告称,“先进人工智能和AGI[人工智能]的崛起有可能破坏全球安全,其方式让人想起核武器的引入。”
它提出的两个主要风险类别是人工智能的故意武器化,以及AGI失控的无意后果。
为了防止这种情况的发生,该报告提供了一个由五条努力线(LOE)组成的行动计划,美国政府需要实施这些行动计划。
以下是简短的版本:
LOE1 —建立人工智能观测站,以更好地监测人工智能状况。建立一个工作组,为负责任的人工智能开发和采用制定规则。利用供应链限制来推动国际人工智能行业参与者的一致性。
LOE2 —加强对先进人工智能事件响应的准备。协调机构间工作组、政府人工智能教育、用于检测新出现人工智能威胁的预警框架以及基于人工智能的应急计划。
LOE3 AI实验室更关注AI开发,而不是AI安全。美国政府需要资助先进的人工智能安全研究,包括AGI可扩展的对齐。
为负责任的人工智能开发和采用制定安全和安保标准。
LOE4–建立“拥有规则制定和许可权的人工智能监管机构”。
* 建立民事和刑事责任框架,防止”大规模毁灭性武器规模、不可挽回的后果,包括”紧急权力,以便对快速变化的威胁作出快速反应”。
LOE5 —在国际法中建立人工智能保障制度,保障供应链的安全。通过联合国或“国际人工智能机构”执行的人工智能条约,推动人工智能风险的“国际共识”。
总之,人工智能可能非常危险,所以我们需要很多法律来控制它。
该报告称,先进的开源模型是一个坏主意,美国政府应该考虑将释放人工智能模型权重定为非法,并处以监禁。
如果这对你来说有点危言耸听和粗暴,那么你并不孤单。这份报告因缺乏科学严谨性而受到一些批评。
如果你想知道如何认真对待最近的这篇报道,请访问pic.twitter.com/Uy47sTmE0Z
– xlr8harder(@ xlr8harder)2024年3月12日
像Lightning AI首席执行官William Falcon这样的开源倡导者,对关于开放模型危险性的笼统声明尤其持批评态度。
Farenheight 451但对于模特体重…
根据《时代》杂志的报道,开源人工智能将导致“人类灭绝级别的事件”