OpenAI首席执行官萨姆·奥尔特曼加大了对人工智能监管的讨论,以期看到“超级智能”的到来。
在一篇新的文章中, OpenAI博客该公司的首席执行官萨姆·奥特曼和同事伊利亚·苏茨凯弗和格雷格·布罗克曼讨论了人工智能向“超级智能”的发展, 人工通用智能(AGI)。
这是在山姆·奥特曼(Sam Altman)在国会作证前不到一周,他表示人工智能需要“紧急”监管,以保护社会,同时保护其利益。
超级智能描述了超越人类认知能力的人工智能,这是Altman、Sutskever和Brockman认为在未来十年内可以实现的里程碑。
这类人工智能将能够产生相当于世界上一些最大公司的生产力,重塑社会,达到积极和消极的目的。
本文提出了三种降低超级智能风险的潜在途径:
1:协调
Altman、Sutskever和Brockman呼吁人工智能领导者之间的密切合作,以维护安全,并顺利将超级智能融入社会。
这可以通过政府项目或公司之间的相互协议来实施,人工智能领导人同意限制他们模型的智能增长速度。
2:国际监测
第二,他们建议建立一个超级智能国际机构,如1957年成立的国际原子能机构(IAEA),以减轻新兴核技术的风险。
该机构建立的监管框架将通过各国政府自愿实施。
3.公共监督
第三,OpenAI呼吁公众参与围绕超级智能规则的规则,建议公众通过民主制度监督人工智能的“界限和默认”。
Altman、Sutskever和Brockman说:“我们还不知道如何设计这样一种机制,但我们计划试验它的发展。”OpenAI之前曾将默认描述为人工智能的“开箱即用”行为,并将界限描述为对其能力的限制。
OpenAI还认为,应该鼓励开发低于设定能力“门槛”的开源项目。
他们说:“我们认为阻止超级智能的创造将是非直觉的风险和困难。
考虑到人工智能在过去十年中的指数级增长,OpenAI对人工智能领域的愿景可能会被证明是有先见之明的。
然而,人工智能行业肯定会受到该公司呼吁合作和受监管意愿的考验。 到目前为止,几乎没有证据表明人工智能领导者之间存在交叉协作。
在保护公众的同时推进竞争目标将是一项挑战—如果OpenAI是可信的—现在是采取人工智能超级智能行动的时候了。