人工智能是有风险的,对吗?这就是去年我们都被告知的。但并不是每个人都同意,包括一些顶尖的研究人员。
X一直在争论人工智能是否构成真正的生存风险。我们说的不是错误信息或深度造假——尽管这些已经很糟糕——而是与核灾难和大流行病同等的风险。
这场辩论是由人工智能风险怀疑论者和Meta首席人工智能负责人Yann LeCun领导的,他被认为是所谓的”人工智能教父”之一,与Yoglobbengio和Geoffrey Hinton一起。
LeCun的目标是OpenAI首席执行官山姆·阿尔特曼、DeepMind首席执行官戴米斯·哈萨比斯和人类首席执行官达里奥·阿莫德,LeCun指责他们进行了“大规模的企业游说”。
具体而言,LeCun担心的是,大型科技公司的老板们正在加强围绕人工智能风险和滥用的谈话,以让监管机构锁定行业以利于他们的方式。
大型科技公司有能力应对监管,而小型公司和开源开发者则没有。LeCun还怀疑人们经常吹捧的人工智能“奇点”愿景,即技术突然变得比人类更智能,从而标志着超级智能人工智能的新时代。
包括Altman在内的其他人表示,他们预计人工智能的开发将更加精细和渐进,而不是一夜之间“起飞”。
人们对人工智能风险过度换气的“唯一”原因是“硬起飞”的神话:你一打开一个超级智能系统,人类就注定要完蛋。
这是荒谬的愚蠢,并基于对一切如何运作的完全误解。–严乐村(@ylecun)2023年4月2日
根据LeCun的论点,大型科技公司可以利用人工智能风险来造福他们,使他们能够加强市场结构并消除竞争。LeCun认为,真正的风险是少数人工智能开发者拥有这个行业并决定其发展轨迹。
他强调了情况的严重性,并表示:“如果这些努力成功,结果将是一场灾难,因为少数公司将控制人工智能。这一声明反映了科技界对人工智能变革潜力的更广泛共识,将其意义等同于微芯片或互联网。
LeCun的言论回应了著名物理学家Max Tegmark,他暗示LeCun没有足够认真地对待人工智能的存在风险。
在一篇公开帖子中,Tegmark承认了全球领导人在认识到人工智能的潜在危险方面所做的努力,他说,他们“不能仅靠尖酸刻薄和企业游说来反驳。”
杨,我很想听你提出论点而不是缩写。感谢@ RishiSunak和@ vonderleyen意识到,来自图灵、辛顿、本吉奥、罗素、奥特曼、哈萨比斯和Amodei的人工智能xisk论点不能仅仅用冷嘲热讽和企业游说来反驳。https://t.co/Zv1rvOA3Zz
– Max Tegmark(@ tagmark)2023年10月29日
随着人工智能影响力的上升,像Altman和Hassabis这样的人物已经成为公众对技术的讨论的中心。然而,LeCun批评他们加剧了对AI的恐惧,同时又从中获利。
今年3月,包括Elon Musk、Altman和Hassabis在内的1000多名科技领袖主张暂停人工智能开发,理由是存在重大的社会和人道主义风险。
然而,LeCun认为,这些戏剧性的警告只是一个烟幕,转移了人们对工人剥削和数据盗窃等紧迫问题的注意力。
LeCun呼吁重新关注人工智能发展的当前和近期未来。他表达了他对如果人工智能开发被局限于私人、营利性实体,开源人工智能社区可能被消灭的担忧。
对于乐村来说,赌注很高:他警告说:“另一种选择是,来自美国西海岸的少数公司和中国将控制人工智能平台,从而控制人们的整个数字饮食。”他敦促考虑这对民主和文化多样性的影响。如果开源人工智能被监管不复存在,这种选择将不可避免地发生。
奥特曼、哈萨比斯和阿莫代伊目前正在进行大规模的企业游说。
他们是那些试图对人工智能行业进行监管的人。
你、杰夫和约瑟芬正在为那些游说禁止开放人工智能研发的人提供弹药。如果…
–严乐村(@ylecun)2023年10月29日
LeCun的支持者
LeCun的论点在社交媒体上得到了很好的支持,并赢得了评论者和行业专家的一致意见。
例如,人工智能开发的关键人物、Google Brain联合创始人吴恩达(Andrew Ng)也提出了一些担忧,即主要科技公司可能正在操纵人工智能的话语,以获得市场主导地位。
好吧,至少有一家大型科技公司正在开源人工智能模型,而不是在人工智能存在风险方面撒谎。
杰弗里·辛顿因其在人工神经网络方面的开创性工作而经常被称为“人工智能教父”,他担心人工智能可能很快就会接管人类。
在《60分钟》的一次采访中,Hinton解释说,虽然他不能确定人工智能的未来,但如果我们不采取适当的预防措施,事情可能很快就会出错。
辛顿并不认为人工智能是以一种自我意识的方式存在的,但是“我们正在进入一个有史以来第一次拥有比我们更智能的东西的时代。”
辛顿不是典型的人工智能末日预言者。他为自己在谷歌工作期间在人工智能领域的开创性工作和成就感到自豪。他看到了在医疗保健和新药开发中使用人工智能的明显好处。
他强调的危险在于,我们并不真正知道人工智能系统的“思考”有多复杂。
在谈到人工智能的自我学习能力时,辛顿说:“我们有一个非常好的想法,大概是它在做什么。但一旦事情变得非常复杂,我们实际上并不知道发生了什么,就像我们不知道你的大脑中发生了什么一样。
随着人工智能的进步,掌握其黑匣子的内部运作不太可能变得更容易。
辛顿说:”我认为五年后,它很可能会比我们更好地推理。”从本质上讲,人类可能很快成为地球上第二大智能生物,并失去对人工智能的控制。
Hinton说:“这些系统可能逃脱控制的方法之一是编写自己的计算机代码来修改自己。这是我们需要认真担心的事情。“
如果有一天黑猩猩决定起来攻击人类,人类会赢,因为我们更聪明。如果人工智能变得比人类更聪明,并决定它不喜欢我们,我们将遭受同样的命运。
如果电脑开始不乖,我们就不能把它们关掉吗?Hinton说,在阅读和研究了所有人类文学和政治纵容之后,人工智能将成为人类的操纵者,以防止这种情况发生。
当被问及人工智能是否会接管人类时,辛顿说:“是的,这是一种可能性。我不是说会发生。如果我们能阻止他们的想法,那就太好了。但目前还不清楚我们能否阻止他们想要这样做。”
辛顿于今年5月从谷歌辞职,理由是他认为人工智能风险没有得到解决。他与350名人工智能领导人一起签署了人工智能安全中心(CAIS)发布的一份声明。
CAIS的声明说:“减轻人工智能灭绝的风险应该是全球优先事项,同时应对流行病和核战争等其他社会规模的风险。
辛顿显然仍然认为,这并没有夸大风险。
“这些东西确实理解,因为它们理解,我们需要认真思考下一步会发生什么,我们只是不知道。”