专家警告说,现在就采取人工智能行动或面临灭绝

AI伦理与社会1年前 (2023)发布 yundic
521 0 0

5月30日星期二,新成立的人工智能安全中心(CAIS)发布了一份声明,由350名人工智能领导人、学者、工程师和其他知名人士签署。

主要签署人包括人工智能先驱Geoffery Hinton和Yoelbengio,OpenAI首席执行官Sam Altman和几位同事,DeepMind,Anthropic和其他领先人工智能公司的首席执行官,以及来自麻省理工学院,伯克利,剑桥大学和其他全球顶级学术机构的资深学者。

“减轻人工智能灭绝的风险应该是全球优先事项,以及其他社会规模的风险,如流行病和核战争”—人工智能安全中心(CAIS)关于人工智能的声明—2023年5月30日。

5月,围绕人工智能的社会影响的辩论日益激烈。

OpenAI首席执行官Sam Altman在国会就AI安全问题作证,而AI的早期先驱之一Geoffrey Hinton离开谷歌,公开谈论AI。

CAIS建立在技术领导者的意图之上,即团结起来,形成一个有凝聚力的计划,以减轻人工智能的风险,同时强调其用途和好处。风险都是短期的,例如,大规模失业,以及中期或长期,例如,自主人工智能开始超越人类智能,我们失去了控制。

人工智能安全中心主任Dan Hendrycks, 告诉天空新闻“由于我们的智力,人类一直是地球上的主导物种。但现在,随着人工智能变得更强大、更智能,我们未来不会占据同样的位置。

人工智能:有形和无形风险

你最喜欢的AI主题电影是如何结束的?人工智能的风险几乎是与生俱来的,一种本能的恐惧,当“机器人接管”时会发生什么。

然而,目前,人工智能的长期风险主要是无形的,主要基于猜测、抽象和预测。

人工智能的第一个切实影响可能会在就业市场感受到,在那里结束到2030年,将有3.75亿个工作岗位面临风险。人工智能正在迅速发展,因此这可能被证明是一个保守的估计。人工智能还面临歧视、模仿、网络安全风险和武器化的风险。

技术领袖和学者承认,我们正在经历一个快速创新的时期,技术发展超过了研究。

这种情况在人类历史上已经发生过好几次,例如,在原子能和核能的出现以及互联网的诞生期间。本月早些时候,OpenAI的Sam Altman鼓励成立一个国际人工智能机构,类似于 国际原子能机构 成立于20世纪50年代。

无论人工智能的风险是什么,我们都可能会与它们正面碰撞,因为很难想象大科技会在它们的进步中占据主导地位,而且,任何分析家都认为自律是一个白日梦。

怀疑者质疑AI的进步

人工智能的辩论并不是单向的交通,一些人怀疑这场辩论如何迅速升级为人工智能级别的叙事。

例如,我们仍然未能建立有效的人工智能系统,如无人驾驶汽车,如果人工智能接管地球,这将显得微不足道。

此外,人工智能的计算机智能很难与人类智能相提并论。人类和其他生物可以在短短几毫秒内处理五种感官的复杂感官数据。机器人甚至无法与婴儿竞争,当涉及到感官任务。

更值得注意的是人类大脑的能源效率——它使用的电能比一个灯泡还少。目前,像ChatGPT这样的人工智能背后的数据中心需要与一个城镇相同的电力。生物学对计算机的优势不仅仅是智力。

然而,虽然很容易指出机器人接管地球的未来主义愿景中的缺陷,但这并不排除人类使用人工智能将自己的能力扩展到消极的结局,这是一个更直接的风险。 就目前而言,风险在于我们,而不是技术本身。

虽然人工智能在真正走在我们中间之前还有很长的路要走,但CAIS的声明是缓解迫在眉睫的风险的重要里程碑,例如人工智能工作岗位替换、欺骗和武器化。

为了增加这一信息的可信度,我们需要很快看到各方之间合作的证据,这不仅仅是签署声明。

© 版权声明

相关文章

暂无评论

暂无评论...