专家认为,确保人工智能安全的最有效方法可能是监管其“硬件”—芯片和数据中心,或“计算”,为人工智能技术提供动力。
该报告是由包括人工智能安全中心(CAIS)、剑桥大学Leverhulme智能未来中心和OpenAI在内的知名机构合作的,提出了一个全球注册表来跟踪人工智能芯片,设置“计算上限”,以保持不同国家和公司的研发平衡。
由于芯片和数据中心的物理性质,这种新颖的以硬件为中心的方法可能是有效的,使它们比无形的数据和算法更易于管理。
来自剑桥大学的联合主要作者海顿·贝尔菲尔德(Haydn Belfield)解释了计算能力在人工智能研发中的作用,他说:“人工智能超级计算机由数万个联网的人工智能芯片组成……消耗数十兆瓦的电力。
的 报告包括“AI教父”Yoshio Bengio在内的19位作者,强调了AI所需计算能力的巨大增长,并指出最大的模型现在需要的计算量是13年前的3.5亿倍。
作者认为,人工智能硬件需求的指数级增长为防止中心化和人工智能失控提供了一个机会。考虑到一些数据中心的疯狂功耗,它还可以减少人工智能对电网的迅速影响。
与包括OpenAI首席执行官山姆·奥特曼在内的其他人, 我曾经用过一个例子来规范人工智能报告提出了提高人工智能计算全球可见度的政策,分配计算资源以造福社会,并对计算能力实施限制以降低风险。
另一位合著者Diane Coyle教授指出了硬件监控对维持竞争市场的好处,他说:“监控硬件将极大地帮助竞争主管部门控制最大科技公司的市场力量,从而为更多创新和新进入者打开空间。
Belfield概括了该报告的关键信息,“试图在部署人工智能模型时对其进行治理可能被证明是徒劳的,就像追逐阴影一样。那些寻求建立人工智能监管的人应该将目光投向上游的计算,这是推动人工智能革命的力量之源。
像这样的多边协议需要全球合作,而对于核能来说,这是通过大规模灾难带来的。
一系列事件导致国际原子能机构(IAEA)于1957年成立。然后,有几个问题,直到Chornodia。
现在,核反应堆的规划、许可和建造可能需要10年甚至更长的时间,因为这个过程在每个节点都受到严格的监控。每一部分都受到仔细审查,因为各国集体理解风险,无论是单独还是集体。
我们是否同样需要一场重大灾难来体现人工智能的安全情绪?
至于监管硬件,谁将领导一个限制芯片供应的中央机构?谁将授权这项协议,它能被执行吗?
你如何防止那些拥有最强大供应链的企业从对竞争对手的限制中获益?
那么俄罗斯、中国和中东呢?
限制芯片供应很容易,而中国依赖英伟达等美国制造商,但情况不会永远如此。中国的目标是在未来十年内实现人工智能硬件自给自足。
这份100多页的报告提供了一些线索,但这似乎是一个值得探索的途径 要制定这样的计划,不单要有令人信服的论据。