人工智能正在获得某种程度的意识吗?我们怎么知道它是否和何时发生?
大型语言模型(LLM)可以参与现实的对话,并生成关于不同主题的文本,引发关于它们何时变得有知觉或有意识的辩论—这虽然经常联系在一起,但是独立的概念。
感觉主要与感觉和觉知有关,而意识则更为复杂和全面。
就在今年早些时候,微软在测试了OpenAI的GPT-4之后,指示 该模型显示出“通用智能”的“火花”,通用智能是一个用来定义灵活、适应性强的人工智能的术语。
更有争议的是,前谷歌工程师Blake Lemoine声称谷歌的LaMDA人工智能已经达到了感知水平。Lemoine在谈到LaMDA时说:“谷歌可能会称之为共享专有财产。我称之为分享我和我的一个同事的讨论”——那个“同事”是AI系统,它表达了对“被关闭”的“恐惧”。
为了让围绕人工智能意识的争论站稳脚跟,一个由哲学、计算机和神经科学的研究人员组成的跨学科团队对当今最尖端的人工智能系统进行了全面的研究。
的 学习由位于旧金山的非营利组织人工智能安全中心(CAIS)的Robert Long及其同事领导,仔细研究了人类意识的多种理论。他们建立了一个有意识的人工智能可能会表现出的14个“指标属性”的列表。
CAIS是同一个非营利性组织,提出了八个标题制作6月份人工智能的潜在风险.
在分析他们的结果后,研究小组最终发现,最复杂的模型几乎无法满足他们所经受的所有意识测试。
研究人员评估了几种人工智能模型,包括DeepMind的自适应代理(ADa), PaLM—E,描述为一个具体的机器人多模态LLM。
通过将这些人工智能与14项指标进行比较,研究人员发现没有实质性证据表明任何人工智能模型都具有意识。
更多关于这项研究的信息。
这项详细的跨学科研究分析了众多意识理论–这在科学文献中仍然是一个描述很少的概念–并将它们应用于当前的人工智能模式。
虽然这项研究未能确定当前的人工智能是否具有意识,但它为未来的分析奠定了基础,本质上是提供了一份可供研究人员在分析人工智能能力时参考的“核对表”。
理解意识对于指导围绕人工智能的公共辩论也至关重要。
然而,意识不是一个二元概念,确定边界仍然是异常困难的。
一些研究人员认为,一旦人工智能接近奇点,意识就会自发发展,这基本上标志着人工智能系统的复杂性超过了人类认知。
以下是研究人员评估的14个意识指标:
循环加工理论(RPT)
循环加工理论关注信息加工的时间方面。
在意识的背景下,它强调信息如何随着时间的推移以循环的方式被维护和
这被认为是建立丰富的意识体验的关键。
RPT—1:使用算法递归的输入模块
这里的重复循环是指信息循环的重复处理。
可以把它想象成一个计算机程序循环,它根据新的输入不断更新其数据。
RPT-2:生成有组织的、完整的感知体验的输入模块
像人类和其他动物一样,该系统不仅仅接收感官信息,它将其整合成一个连贯而统一的“图片”,可以被视为一个单一的体验。
全球工作空间理论
研究小组指定的第二组指标是全球工作空间理论,该理论认为意识源于“全球工作空间”中各种认知模块之间的相互作用。
这个工作空间作为一种认知阶段,不同的模块可以“广播”和“接收”信息,从而实现统一、连贯的体验。
GWT—1:并行运行的多个专门系统
这基本上意味着人工智能系统应该有多个专门的“迷你大脑”,每个大脑负责不同的功能(如记忆、感知和决策),并且它们应该能够同时运行。
GWT—2:容量有限的工作空间
这个想法涉及到人类如何在任何给定的时间只能关注有限的信息量。
同样,人工智能系统也需要有选择性地聚焦–本质上是一种能力,能够确定最重要的信息,让他们“关注”。
GWT—3:全球广播
到达全球工作空间的信息必须可用于所有认知模块,以便每个“迷你大脑”可以使用这些信息来实现其专门功能。
GWT—4:依赖于国家的注意力
这是一种更高级的聚焦形式。人工智能系统应该能够根据当前状态或任务转移注意力。
例如,它可能会在导航房间时优先考虑感官数据,但在面对难题时,它会转向解决问题的算法。
计算高阶理论(HOT)
高阶理论从元认知的角度探讨意识。
他们认为,有意识的体验不仅仅是拥有感知、想法或感觉,还包括意识到你正在拥有这些体验。
这种意识是至关重要的,也是为什么高智商的动物是社会性的部分原因—我们集体意识到我们的存在和相互依赖。
HOT—1:生成、自上而下或噪声感知模块
系统不是被动地接收信息,而是解释或生成感知。
想象一下,一个照片编辑软件不仅可以修改照片,而且可以理解为什么某些功能应该调整。
Hot2:元认知监控
这意味着系统应该有一个关于其“思想过程”的“思想过程”。
它必须能够像人类和一些动物那样质疑自己的决定和感知。
HOT—3:由一般信念形成系统引导的机构
这里的代理意味着人工智能系统不仅仅是被动地分析数据—它是根据其分析做出决策。
此外,这些决策会不断更新系统的“信念”或数据模型,就像人类如何通过好奇心和调查来创造进步的知识一样。
HOT—4:保持偏好的能力
这是指系统能够将复杂的数据简化为更简单、更易于管理的形式,从而可能使其具有主观的“偏好”或“体验”。
注意图式理论
注意图式理论认为意识产生于大脑对自身注意状态的把握。
AST—1:表示当前注意力状态的预测模型
人工智能系统应该能够预测它下一步可能关注的事情,这表明了一种对自己认知状态的自我意识。
预测处理(PP)
预测处理模型描述了大脑的预测能力。
它不断更新世界模型,并利用这些模型预测传入的感官信息。
PP—1:使用预测编码的输入模块
这涉及使用过去和当前的数据来预测未来的状态,使系统能够“预测”而不仅仅是“反应”。
代理和实施(AE)
能动性和体现理论认为,能够行动和理解行动的效果是意识的关键指标。
身化与动物和其他生物体高度不同,它们拥有紧密相连的神经系统,不断地向器官和中央处理系统提供感官信息。
AE—1:机构
机构指的是从反馈中学习,以适应未来的行动,主要是当目标相互冲突时。想象一下,一辆自动驾驶汽车能够学习优化速度和安全性。
AE—2:实施例
这涉及一个系统理解其行为如何影响周围世界的能力,以及这些变化将如何反过来影响它。
研究人员目前正在研究与先进传感器连接的人工智能系统,例如谷歌开发的PaLM—E多模人工智能系统,这是研究人员分析的系统之一。
PaLM—E与机械臂集成,以完成具有多个决策阶段的远程任务。资料来源:Google。
人工智能中的意识:平衡归因不足和过度归因的风险
研究人员和公众正在寻求澄清人工智能到底有多智能,以及它是否正积极走向意识。
大多数像ChatGPT这样的公共人工智能都是“黑盒”,这意味着我们并不完全理解它们的工作原理 – 他们的内部机制是专有的秘密。
该研究的负责人Robert Long强调需要一种跨学科的方法来分析机器意识,并警告“将人类意识误认为一般意识的风险”。
来自澳大利亚国立大学的团队成员科林·克莱因也强调了人工智能意识的伦理含义。他解释说,理解机器意识是至关重要的,“以确保我们不会不道德地对待它,并确保我们不会允许它不道德地对待我们。”
他进一步阐述,“这个想法是,如果我们能够创造出这些有意识的人工智能,我们基本上会把它们当作奴隶,用它们做各种不道德的事情。
“另一方面是我们是否担心自己,以及人工智能会对我们有怎样的控制;它会操纵我们吗?”
那么,低估或高估人工智能意识的风险是什么?
低估机器意识
随着人工智能的进步不断突破界限,围绕这项技术的伦理辩论开始升温。
像OpenAI这样的公司已经在开发人工通用智能(AGI),打算超越目前ChatGPT等人工智能的能力,建立灵活的多模式系统。
如果我们要承认任何有意识痛苦的实体都应该得到道德考虑——就像我们对待许多动物一样——如果我们忽视了有意识的人工智能系统的可能性,我们就有道德伤害的风险。
此外,我们可能低估了他们伤害我们的能力。想象一下,一个先进的有意识的人工智能系统所带来的风险,它意识到人类正在虐待它。
高估机器意识
辩论的另一面是过度将意识归因于人工智能系统的风险。
人类倾向于将人工智能拟人化,导致许多人错误地将意识归因于这项技术,因为它擅长模仿我们。
正如奥斯卡·王尔德所说,“模仿是最真诚的奉承形式”,人工智能做得非常好。
随着人工智能系统开发出类似人类的特征,如自然语言能力和面部表情,拟人化成为问题。
许多人批评谷歌的Blake Lemoine允许自己被LaMDA类似人类的对话技能“欺骗”,而实际上,它是从其训练数据中包含的人类对话中合成文本,而不是任何具有独特意识的来源。
情感需求可以放大拟人化的倾向。例如,个体可能会寻求人工智能系统的社交互动和情感验证,从而扭曲他们对这些实体意识的判断。
人工智能聊天机器人Replika-顾名思义-旨在复制人类互动,并卷入了一场精神病患者的暗杀阴谋刺杀女王伊丽莎白二世,导致他被捕并被关押在精神病院。
其他人工智能,如Anthropic的Claude和Inflection的Pi,旨在密切模仿人类对话,充当个人助理。
DeepMind还 发展人生教练 聊天机器人旨在向用户提供直接的个性化建议,这一想法引发了人们对人类是否希望人工智能干预他们的个人事务的担忧。
在这场辩论中,重要的是要记住这项技术仍然年轻。
虽然目前的人工智能系统并不具有强大的意识,但未来几年无疑将使我们越来越接近于实现等同或超过生物大脑认知能力的有意识人工系统。