Google DeepMind首席执行官Demis Hassabis认为,人工智能的风险应该像应对气候危机一样受到重视,应对措施必须立即到位。
在定于11月1日和2日举行的英国人工智能安全峰会之前,哈萨比斯断言,世界不应该推迟应对人工智能带来的挑战。
“我们必须像气候变化等其他重大全球挑战一样认真对待人工智能的风险,”哈萨比斯说。
“国际社会花了太长时间才协调有效的全球应对措施,我们现在正承受着这种情况的后果。我们不能承受人工智能同样的延迟。”
哈萨比斯指的是政府间气候变化专门委员会(IPCC)。
他和其他人主张建立一个独立的人工智能国际监管委员会,与IPCC或国际原子能机构(IAEA)类似成立于1957年。
1955年,专员威拉德F.利比在谈到核能时说:“我们最大的危险是,这种对人类的巨大利益将被不必要的监管扼杀。
原子能机构成立后,在切尔诺贝利事件之前,核灾难相对较少。我们还不知道“人工智能灾难”会是什么样子。
平衡人工智能的好处和风险
在承认人工智能在医学和科学等领域的变革潜力的同时,哈萨比斯也强调了该技术带来的生存威胁,特别是超级智能系统或人工通用智能(AGI)的开发。
哈萨比斯建议说:”我认为我们必须从IPCC这样的东西开始,在那里它是一个科学和研究协议,有报告,然后从那里建立起来。”
“然后,我最终希望看到的是一个相当于欧洲核子研究中心的人工智能安全研究所,它对这一点进行研究—但在国际上。然后也许有某种相当于国际原子能机构的一天,它实际上审计这些东西。“
DeepMind已经出版了许多关于人工智能安全的著作,包括 技术博客与几所大学合作,规定在进行任何培训之前,应对模型进行“极端风险”评估。
DeepMind还建立了人工智能寻求 新出现的目标 这与开发者的意图不可预测的背离——或者说是“流氓”。
Hassabis和OpenAI等其他主要人工智能公司的代表将出席11月的人工智能安全峰会。英国政府 发布了日程表 在活动的第一天。