2778名研究人员对人工智能风险进行了权衡–我们从他们的反应中学到了什么?

AI特色新闻4个月前发布 yundic
322 0 0

一项由2700名人工智能研究人员参与的大规模调查发现,人们对人工智能的风险意见不一。

AI Impacts是同类行业中规模最大的一项调查,涉及在六个领先的AI会议上发表研究的专业人士。

参与者被要求权衡未来人工智能里程碑及其社会影响。

值得注意的是,近58%的研究人员认为,由于人工智能的进步,人类灭绝的可能性为5%。

其他研究结果表明,人工智能有50%或更高的可能性在未来十年内掌握从作曲图表音乐到开发一个完整的支付处理网站等任务。

更复杂的任务,如安装电线或解决数学问题,预计将需要更长的时间,尽管DeepMind最近展示了人工智能在解决瓶盖设置和垃圾箱包装问题方面的卓越性能。

研究人员还估计,到2047年,人工智能在所有任务中超过人类表现的可能性为50%,到2116年,所有人类工作的自动化都有可能超过人类。这有赖于科学“保持不受干扰”。

结果肯定喜忧参半,但可以公平地说,人工智能风险尚未被认为达到临界质量。

来自加利福尼亚州机器智能研究所的Katja Grace表示:“这是一个重要的信号,表明大多数人工智能研究人员并不认为先进的人工智能摧毁人类是非常不可信的。

以下是关键统计数据和发现的列表:

  • AI到2028年实现里程碑的概率人工智能系统有50%的可能性能够构建一个支付处理网站,创建一首与流行音乐家没有区别的歌曲,并下载和微调大型语言模型(LLM)。
  • 人类级别的人工智能性能预测该研究估计,到2027年,无人辅助的机器在所有任务中表现优于人类的可能性为10%,到2047年,有50%的可能性。2047年的预测比2022年的预测提前了13年。

  • 人类职业的自动化到2037年,所有人类职业完全自动化的可能性为10%,到2116年,所有人类职业完全自动化的可能性为50%,而2022年的预测为2164。
  • 人工智能的长期价值展望68.3%的受访者认为“超人人工智能的好结果更有可能比坏,但48%的乐观主义者仍然认为至少有5%的机会出现极端坏的结果,如人类灭绝。与此同时,59%的悲观主义者认为有5%或更高的可能性获得非常好的结果。
  • 对人工智能驱动的场景的担忧:超过70%的研究人员对深度造假、操纵舆论和工程化武器等问题表示担忧。深度假货引起的警觉最大,86%的研究人员对此表示担忧。
  • 人工智能风险的概率估计37.8%至51.4%的受访者认为,先进的人工智能至少有10%的可能性会导致人类灭绝这样严重的后果。

  • 高级机器智能(HLMI)的概率估计2023年的总体预测预测预计到2047年实现HLMI的可能性为50%,与2022年的2060年预测相比有了重大转变。
  • 全自动化劳动的概率(FAOL)2023年的预测估计,到2116年,FAOL的可能性为50%,比2022年的类似预测提前了48年。
  • 人工智能安全研究:大约70%的调查参与者认为人工智能安全研究应该比目前更优先。

短期风险掩盖了长期风险

除了存在风险外,调查还强调,绝大多数研究人员对人工智能持直接担忧态度。

超过70%的人对人工智能驱动的问题表示严重担忧,如深度造假、操纵舆论、工程武器、独裁控制和不断加剧的经济不平等。

俄亥俄州凯斯西储大学(Case Western Reserve University)的埃米尔·托雷斯(Émile Torres)特别警告说,人工智能在关键话题上传播虚假信息方面的作用及其对民主治理的影响,他说:“我们现在已经拥有了可能严重破坏美国民主的技术。

美国和加拿大政客发起的政治活动已经使用人工智能来渲染图像,以及人工智能机器人呼叫 目前正在部署以招揽选民

另一个重要 一个事件是斯洛伐克最近的选举, 其中,j就在投票前48小时,社交媒体上出现了一段伪造的音频剪辑,据称其中有主要政治人物讨论收买选票策略。

这在选举前关键的静默期引发了广泛的混乱。释放的时机使得迅速抵消其影响几乎是不可能的。

最近,人工智能产生的诽谤活动针对的是, 激烈的孟加拉国选举,内容旨在通过声明他们支持轰炸加沙来败坏反对党的声誉,这在一个穆斯林占多数的国家是一个敏感话题。

人工智能风险时间表辩论

人工智能安全中心(CAIS) 发表了一份戏剧性的声明, 在2023年将人工智能风险与流行病和核战争进行比较。

引发了大量媒体报道,讨论人工智能发展的最坏预测,从杀人机器人到战场上失控的无人机。

到目前为止,人类使用人工智能的方式构成了风险——一个“人工智能不会杀人,人类会杀人”的案例——对存在风险的担忧有时被视为掩盖了现在正在发生的事情。

特别是深度造假,已经证明对人类社会产生了切实的影响。

2778名研究人员对人工智能风险进行了权衡--我们从他们的反应中学到了什么?

这张由人工智能生成的五角大楼爆炸的假图像在2023年初暂时影响了金融市场。

还有另一个层面,人工智能领域的知名人物扬·勒昆(Yann LeCun)提出,大型科技公司可能会 夸大这些风险以使监管行动对他们有利。

通常由大型科技公司推动的恐惧可能是鼓励严格监管的战略策略,这可能会对较小的实体和开源项目不利。

这揭示了一个更微妙的危险—少数大公司可能垄断人工智能,可能扼杀人工智能的创新和多样性。

这使得该领域的主要参与者,如谷歌和OpenAI,只要能够满足合规要求,就可以推动该行业朝着自己的方向发展。

潜在风险—证据怎么说?

关于风险的对话经常在两个极端之间摇摆:怀疑主义和危言耸听。那么,有什么实际证据表明人工智能可能会杀死我们或以其他方式摧毁地球?

人工智能武器化的想法也许是最迫切可以想象的例子。在这里,人工智能系统可以在有限的监督下杀死人类,或者威胁行为者可能利用该技术开发灾难性有效的武器。

无人机无疑已经能够以最少的人力投入摧毁目标,就像可以说在以色列—巴勒斯坦和俄罗斯—乌克兰已经发生冲突。

2778名研究人员对人工智能风险进行了权衡--我们从他们的反应中学到了什么?

XQ—58A Valkyrie无人机于2023年实现了全人工智能自动化。资料来源:维基共享资源。

人工智能生存风险的一个更微妙的驱动因素是虚弱。这里所关注的不仅仅是机器人失去工作机会,还包括失去基本的人类能力和创造力。一个常见的类比是电影《WALL—E》,在电影中,斑点般的人类拥有机器人来执行他们的命令,代价是牺牲地球本身。

有一些证据表明,像ChatGPT这样的法学硕士正在侵蚀学生的批判性思维,尽管现在下定论还为时过早。

教育机构热衷于在不扼杀人类主导的学术界的情况下利用人工智能的好处,一些知名机构有条件地支持学生使用该技术。

2778名研究人员对人工智能风险进行了权衡--我们从他们的反应中学到了什么?

WALL-E描绘了一个流行的人工智能或与科技相关的“衰弱”的例子。

另一个有充分证明的风险是人工智能开发紧急目标,正如所强调的, 剑桥大学和DeepMind的研究这可能会给人类社会带来意想不到的和潜在的有害后果。

紧急目标可能会让高度智能的人工智能机构建立自己的不可预测的目标,甚至可能逃离自己的体系结构,“感染”其他系统。

最终,人工智能戏剧性和暴力灭绝的潜力是高度推测的,很少有例子或证据表明这种情况可能很快发生。然而,围绕紧急目标和其他潜在的自主人工智能造成伤害的方法的实验证据正在增加。

目前,我们有很多迫在眉睫的风险需要应对,我们不要忘记,这些挑战将与气候变化、栖息地丧失、人口危机和其他宏观层面的风险并行展开。

虽然人们对人工智能的潜在成就感到兴奋,但也有人对它的直接风险和长期影响感到明显担忧。

这项最新的调查提醒人们,关于人工智能的讨论不应该以解决这一变革性技术带来的直接

随着人工智能的发展,在这场辩论中取得平衡对于引导其朝着造福人类的安全结果的发展变得至关重要。

© 版权声明

相关文章

暂无评论

暂无评论...