哈利·波特和OpenAI的有效利他主义者

AI行业新闻12个月前发布 yundic
230 0 0

解雇Sam Altam的决定可能受到了OpenAI董事会成员共同的有效利他主义理想的影响。临时首席执行官埃米特·谢尔分享了他们对人工智能的一些担忧。

从广义上讲,有效利他主义(EA)的概念是应对世界上最紧迫的问题,并采取合乎逻辑的行动,为人类带来最大的积极成果。

当应用于人工智能领域时,EA的许多支持者都在对飞速发展的速度和对人类潜在的生存风险发出警告。

另一边是有效加速主义者(e/acc),他们说人工智能不会杀死我们所有人,我们应该更快地行动。

目前OpenAI董事会成员中至少有一半似乎完全站在EA一边,他们对AI的担忧可能是该公司最近发展的背后。

海伦·托纳过去是墨尔本有效利他主义的负责人,​​塔莎·麦考利是有效风险投资委员会的成员,该委员会负责管理有效利他主义中心。

输入Emmett Shear

在最近的播客中,OpenAI在几乎同样多天内的第三位首席执行官Emmt Shear表示支持EA预言AI末日的观点。

谢尔也是人工智能研究人员埃利泽·尤德科夫斯基的粉丝,尤德科夫斯基写了一部哈利波特同人小说,倡导理性和科学思维。《哈利·波特与理性的方法》(HPMOR)在EA社区中很受欢迎,并被用于招聘工作。

在这部66万字的小说的第104章中,尤多夫斯基写道,一个名叫埃米特·希尔的搜索者在魁地奇比赛中从扫帚柄上摔下来。

哈利·波特和OpenAI的有效利他主义者

埃米特·希尔在一本哈利·波特的同人小说中被提及。来源:Less Wrong

如果Shear和Yudowski一样,对人工智能的安全性有着更极端的看法,那么我们可以期待OpenAI会有更多的刹车。

今年早些时候,埃隆·马斯克和埃马德·莫斯塔克等科技领袖与数千人一起签署了一封公开信,呼吁暂停人工智能开发6个月。尤多夫斯基拒绝在这封信上签字,称这封信“低估了局势的严重性,要求的东西太少,无法解决问题”。

Yudowsky在《时代》杂志上发表的一封信中说,人工智能的开发应该完全停止,否则“地球上的每个人都会死”。

在他的信中,尤多夫斯基毫不含糊地表达了他的观点,他说,如果有人建造了一个过于强大的人工智能,在目前的条件下,我预计人类物种的每一个成员和地球上的所有生物生命都会在不久之后死亡。

我们知道希尔同意其中的一些观点。在上面的剪辑中,Shear说:“我知道Eliezer认为,我们都注定要失败。我相信他的末日论。我买了链条和逻辑。”

EA会拯救我们并毁灭OpenAI吗?

大多数人可能第一次听说有效的利他主义是在名誉扫地的FTX创始人萨姆·班克斯曼·弗里德(Sam Bankman Fried)出现的时候。他声称EA的原则是他想赚很多钱做很多好事的背后的愿望。

他的例子表明,那些强烈渴望做出积极的改变的人也不能幸免于做出非常愚蠢的决定。

如果OpenAI董事会继续优先考虑EA的原则,那么很难想象Sam Altman如何在他被重新任命时追求AGI和盈利能力。

如果董事会缓和自己的观点,并听取像计算机科学家Yann LeCun这样的e/acc倡导者的意见,那么OpenAI可能仍然是一个可行的项目。

马克·扎克伯格(Mark Zuckerberg)曾鼓励他的工程师“快速行动,打破现状”。Altman可能会认同AI开发的观点,但目前的OpenAI领导层显然不认同。

© 版权声明

相关文章

暂无评论

暂无评论...