人工智能读心术:医学突破还是走向反乌托邦?

AI特色新闻9个月前发布 yundic
473 0 0

我们的思想可能是我们最深处的密室,但它们并不是人工智能的禁区。

读心人工智能似乎是科幻小说中的一个情节,但它对那些因瘫痪或脑损伤而无法沟通的人来说有着巨大的希望。

除此之外,人工智能对大脑的访问将使我们能够仅用思想来写作、创造和设计,或者为其他人提供进入我们意识的窗口。

近十年来,通过头皮电极捕捉电信号的脑电图(EEG)技术一直支持那些患有严重中风和完全闭锁综合征(CLIP)的人,这种情况下,有人有意识但不能移动。

2014年,意大利肌萎缩性侧索硬化症(ALS)患者Anselmo Paglialonga使用了一种 集成机器学习的耳机 即使无法移动肌肉,也能用”是”或”否”的答案进行交流。有些患者可以移动微小的肌肉,比如斯蒂芬·霍金,他可以抽搐他的脸颊肌肉。

人工智能读心术:医学突破还是走向反乌托邦?

一种Emotiv脑机接口。资料来源:Emotiv。

随着人工智能的发展,研究人员正在弥合从简单的信号解释到完整地翻译复杂思想的差距。

随着时间的推移,人们也许能够在不动肌肉的情况下说话和交流,这完全是通过思想的力量。

同样的技术可以让我们用大脑控制复杂的机器,通过想象旋律来创作音乐,或者通过用我们的大脑变戏法来绘画。 我们甚至可以从脑电波中“记录”我们的梦,然后再播放。

在不远的将来,读心人工智能可以用来强制读取某人的记忆,例如,验证他们的犯罪目击者。

黑客甚至可以短暂地欺骗你想象你的个人信息,同时从你的大脑中提取你的想法的副本。极权主义政权可能会对公民进行例行测试,以监控不同的思想。

此外,有了将思想转化为计算机化现实的能力,人类可以在梦境沙盒中度过一生,在那里他们可以随意塑造自己的现实。

目前,这些应用看起来超现实和幻想,但最近的几个实验为未来大脑可以被人工智能访问奠定了基础。

人工智能读懂你的心思

所以,这一切怎么可能?

为了将大脑活动转化为可用的输出,并输入计算机,首先需要进行精确的测量。

这是第一个障碍,因为大脑就像最遥远的太空或最深的海洋一样神秘。关于神经元活动如何产生复杂的思想,几乎没有共识,更不用说意识了。

人类的大脑–以及自然界的其他神经系统–是数十亿个神经元的家园,其中大多数每秒都会发出5到100次信号。在人脑中,每一秒钟的思考都涉及数万亿次个体神经元行为。

在颗粒水平上测量神经元活动是神经科学的圣杯,但现在还不可能—特别是使用非侵入性技术。

目前,大脑测量更全面,从血液运动或电信号交换中提取。有三种公认的测量大脑活动的方法:

  • 脑磁图(MEG)捕捉大脑电活动产生的磁场,并提供对实时神经元活动的洞察。
  • 脑电图(EEG)用于电活动解释。
  • 磁共振成像,通过血流测量来测量大脑活动。
人工智能读心术:医学突破还是走向反乌托邦?

功能磁共振成像测量大脑中的血流动力学。消息来源:Shutterstock。

机器学习(ML)和人工智能与所有三种技术相结合,以增强对复杂信号的分析。

其最终目的是将特定的大脑活动与不同的思想联系起来,这些思想可能包括单词、图像或更语义和抽象的东西。

可以从大脑中提取测量数据并将其传递到计算机中的技术称为脑机接口(BCI)。

下面是这个工作原理的基本过程:

  1. 刺激呈现参与者暴露于各种刺激。这可能是图像,声音,甚至是触觉。他们的大脑活动在暴露期间被记录下来,通常通过EEG或MRI。
  2. 数据收集:大脑对这些刺激的反应是实时记录的。这些数据为不同刺激如何影响大脑活动提供了丰富的信息来源。
  3. 预处理原始大脑数据通常是嘈杂的。在使用前,需要清洗和标准化。这可能涉及去除伪影、标准化信号或对齐数据点。
  4. 机器学习根据处理后的数据,介绍了机器学习模型。这些模型经过训练,以找到大脑数据和相应刺激之间的模式或相关性。从本质上讲,人工智能扮演着翻译器的角色,破译大脑的“语言”。
  5. 模型训练:这是一个反复的过程。模型暴露于的数据越多,它在进行预测或生成输出方面就越好。这个阶段可能需要大量的时间和计算能力。
  6. 验证:一旦训练,模型的准确性就会得到测试。这通常是通过向参与者提供新的刺激,记录他们的大脑活动,然后使用该模型根据这些新数据预测或生成输出来完成的。
  7. 反馈和改进: 基于验证结果,研究人员调整和细化模型,迭代直到达到最佳精度。
  8. 应用:一旦验证,应用程序将用于其预期目的,无论是帮助瘫痪的个人沟通,从思想生成图像,还是任何其他应用程序。

人工智能方法在过去几年中发展迅速,使研究人员能够处理复杂而嘈杂的大脑数据,提取短暂的想法,并将其转换为计算机可以处理的东西。

例如,a 2022项目Meta利用169个人的脑磁图和脑电数据来训练人工智能识别他们从预先确定的793个单词列表中听到的单词。人工智能可以在73%的时间里生成一个包含所选单词的10个单词的列表,证明人工智能是如何“用心阅读”的,尽管精确度有限。

2023年3月, 研究人员发现, 一个革命性的人工智能解码器,将大脑活动转化为连续的文本流。

人工智能显示出惊人的准确性,使用功能磁共振成像数据将人们听到或想象的故事转换为文本。

德克萨斯大学奥斯汀分校的Alexander Huth博士对该系统的效率表示惊讶,他说:“我们对它的工作效果如此之好感到震惊。我已经在这方面工作了15年……所以当它最终成功时,它令人震惊和兴奋。

该研究集成了大型语言模型(LLM),特别是ChatGPT的祖先GPT—1。

志愿者在收听播客的同时接受了16小时的功能磁共振检查。这些fMRI数据被用于训练机器学习(ML)模型。

之后,参与者听或想象新的故事,人工智能将他们的大脑活动转化为文本。大约50%的结果与原始信息非常接近或完全一致。胡特博士解释说:“我们的系统工作在思想、语义、意思是…的层面这是主旨所在。

  • 例如,“我还没有拿到驾驶执照”这句话被解码为“她甚至还没有开始学开车”。
  • 另一段摘录:“我不知道是尖叫,哭泣还是逃跑。相反,我说:“放开我!”“开始尖叫和哭泣,然后她只是说:“我告诉过你不要烦我。

该模型还应用于观看无声电影的参与者产生的脑电波。

当参与者听一个特定的故事时,人工智能的解释反映了故事的总体情绪。这项技术如果得到改进,可以让我们仅用思想就能写故事。

开始写一本小说或写作项目的努力?躺下,想象故事情节的展开。AI会为你写的。

使用人工智能从思维中生成图像

人工智能可以将大脑活动转换为文字和语义概念,那么图像或音乐呢?

复杂实验 芬兰赫尔辛基大学的研究人员让受试者观察人工智能生成的面部图像,同时记录他们的脑电图信号。

在使用这些数据训练人工智能模型后,参与者的任务是从列表中识别特定的面孔。这些信号基本上成为了参与者感知和意图的窗口。

人工智能模型解释参与者是否根据记录的EEG信号识别出特定的面部。

在下一阶段,EEG信号被用来适应和塑造生成对抗网络(GAN)—一种用于某些生成AI的模型。

这使系统能够生成符合用户原始意图的新面孔图像。

人工智能读心术:医学突破还是走向反乌托邦?

在这个“无微笑”的面孔生成任务中,参与者观看了一系列面孔。大脑反应(这里显示为图表)区分了相关和不相关的图像,引导计算机在多次迭代中产生越来越准确的“不笑”面部表征。资料来源:自然。

正如该研究的合著者之一Spapé所说,“这种技术并不识别思想,而是对我们与心理类别的联系作出反应。”

简单地说,如果有人想到了一张“老年面孔”,计算机系统可以生成一张与参与者想法紧密匹配的老年人图像,这一切都归功于他们大脑信号的反馈。

用力量思维作画

以相似的目标学习日本大坂大学的科学家们开创了一种技术,将复杂的大脑信号转换为高分辨率图像,并取得了显著的效果。

该方法使用稳定的扩散模型,这是为生成图像而设计的一种特殊形式的神经网络。稳定扩散是在稳定人工智能的协助和资金的帮助下共同开发的。

通过功能磁共振成像捕捉思想,并将其传递到稳定的扩散模型中,该模型通过一个复杂的多阶段过程将它们转换为图像,该过程涉及多个层次的细化。

人工智能读心术:医学突破还是走向反乌托邦?

图像(左)是使用从fMRI数据中提取的大脑活动获得的,并生成右侧的图像。这些图像经过了不同的处理阶段。来源:大脑活动的稳定弥散。

与以前的研究不同,这些方法需要最小的模型调整。然而,它仍然需要参与者在MRI机器内花费许多小时。

这是一个关键的挑战,因为大多数这些实验都涉及严格的测量和模型训练,这对参与者来说是耗时、昂贵的,并且具有挑战性。

然而,在未来,人们可以训练自己轻量级的读心术模型,并将他们的想法作为输入用于各种用途,例如通过思考来设计建筑物,或者通过变出旋律来创作管弦乐作品,这并非不可行。

使用人工智能将思想转换为音乐

文字、图像、音乐——对人工智能来说,没有什么是禁区。

A 2023 研究 提供声音感知的见解,在为有言语障碍的个人设计通信设备方面具有巨大潜力。

来自加州大学伯克利分校的Robert Knight和他的团队检查了29名癫痫患者手术放置的电极的大脑记录。

当这些参与者听平克·弗洛伊德的《墙中的另一块砖,第一部分》时,研究小组将他们的大脑活动与歌曲元素如音高、旋律、和声和节奏相关联。

利用这些数据,研究人员训练了一个人工智能模型,故意省略了15秒的歌曲片段。然后,人工智能试图根据大脑信号预测这个缺失的片段,实现了与实际歌曲片段43%的频谱图相似性。

奈特和他的团队精确地指出,大脑的颞上回区域对于处理这首歌的吉他节奏至关重要。他们还证实了之前的发现,即右半球在音乐处理中比左半球发挥更重要的作用。

奈特认为,对大脑—音乐交互作用的更深刻理解有助于帮助那些患有言语障碍的人的设备,如肌萎缩性侧索硬化症(ALS)和失语症。

他说:“对于那些患有肌萎缩侧索硬化症(神经系统的一种疾病)或失语症[一种语言疾病]的人来说,我们希望有一种设备,听起来真的像你正在以人类的方式与某人交流。了解大脑如何代表语音中的音乐元素,包括音调和情绪,可以让这些设备听起来不那么机器人。

研究小组成员Ludovic Bellier推测,如果人工智能能够仅仅从想象力中再现音乐,它可能会彻底改变音乐创作。

音乐制作人可以将他们的大脑连接到软件上,只用思想创作音乐,同时几乎不动肌肉。

下一步:实时人工智能读心术

这些技术共同属于脑机接口(BCI)的保护伞下,它试图将大脑信号转换为某种形式的输出。

脑梗死已经通过弥合神经系统部分之间的间隙来补充瘫痪者的行动和行走能力。

今年开发的脑机接口包括一种能够让瘫痪的人移动双腿的设备,实验性的大脑植入物,它可以将大脑和脊髓的受损部分重新连接起来,以恢复失去的感觉,以及一条机械腿,可以让截肢者恢复运动。

虽然这些最初的用例非常有希望,但我们还远远没有无缝地将我们思想的每一个细微差别转化为运动、图像、语音或音乐。

其中一个主要的限制是需要庞大的数据集来训练复杂的算法,使这种翻译成为可能。

机器学习模型需要在许多场景下进行训练,以准确地预测或生成大脑活动的特定图像。这涉及收集MRI或EEG数据,同时参与者暴露于各种刺激。

生成输出的质量和特异性在很大程度上依赖于训练数据的丰富性。参与者需要在MRI扫描仪上花费数小时来收集特定的相关数据。

此外,人类的大脑非常独特。在一个人的大脑中,幸福的含义可能在另一个人的大脑中有所不同。这意味着模型必须广泛通用或个性化定制。

然后,大脑活动迅速变化,甚至在几秒钟内也是如此。捕捉实时、高分辨率的数据,同时确保其与外部刺激完美一致,这是一项技术挑战。

让我们不要忘记深入他人大脑的道德挑战。

收集大脑数据,尤其是大规模收集,会引发严重的隐私和伦理问题。如何确保数据不被滥用?谁有权利访问和解释我们内心深处的想法?

暂时看来,这些挑战是可以克服的。在未来,人类可能能够访问便携式定制的脑机接口,使他们能够“插入”到无数的设备上,这些设备通过思维的力量促进复杂的行动。

然而,社会将如何处理这些技术成为主流,这是非常值得讨论的。

© 版权声明

相关文章

暂无评论

暂无评论...