从Ada Lovelace和Charles Babbage奠定的基础到Alan Turing开创性的计算研究,世界一直被人工智能的承诺所吸引——一个创造基于机器的实体拥有类似人类认知能力的梦想。
然而,人工智能的发展轨迹后来偏离了其生物学根源,转而倾向于暴力计算能力和算法复杂性。
于是,科幻小说注入的逼真机器人梦想在某种程度上缩小为更表面上平凡的大型语言模型(LLM),如ChatGPT。
当然,目前的人工智能模型仍然令人着迷,但它们扮演的是工具而不是存在的角色。
现在还处于早期阶段,但尽管有了惊人的进步,人工智能的计算军备竞赛暴露了我们追求真正智能机器的差距。
无论我们的算法变得多么强大,它们都缺乏优雅、适应性和能源效率,而这些正是生物系统的标志。
研究人员知道这一点–这让他们感到沮丧。
谢菲尔德大学的托尼·普雷斯科特教授和斯图尔特·威尔逊博士最近突出显示 大多数人工智能模型,如ChatGPT,是“无实体”的,这意味着它们缺乏与物理环境的直接联系。
相反,人类的大脑是在一个物理系统—我们的身体—内进化的,这使我们能够直接感知和与世界互动。
研究人员渴望将人工智能从他们的整体架构中解放出来,这导致了生物启发的人工智能(有时称为神经形态人工智能)的复兴,这是一个旨在模仿自然界中发现的复杂过程的子学科,以创建更智能,更高效的系统。
这些努力利用了各种生物学框架,从构成我们大脑的结构到在蚂蚁或鸟类身上观察到的群体智能。
在追求自主性和效率的过程中,生物启发的人工智能迫使我们研究长期存在的计算问题,例如从数千个耗电的GPU构建的资源密集型架构转向更轻、更复杂的模拟系统。
普雷斯科特最近与人合著了一篇论文,通过机器人技术理解大脑功能结构”他强调,“如果人工智能系统构建的架构与人类大脑相似,利用其与现实世界的联系,以类似于人类大脑的方式学习和改进,那么它们就更有可能开发出类似人类的认知。
大多数先进机器人的设想都假设他们既有“大脑”,又有感觉系统,并且自主运作。事实上,我们还没有克服与制造这样一个机器人相关的许多挑战。资料来源:Shutterstock。
人类的大脑就是一个很好的例子——你的大脑召唤出的每一个想法和动作只需要一个昏暗的灯泡的功率——大约20瓦。
而且还不止于此。即使人类没有从食物中获得外部能量,也可以存活一个多月。极端生物已经找到了在地球上一些最不适宜居住的环境中茁壮成长的方法。
相比之下,为像ChatGPT这样的人工智能模型提供动力所需的基础设施,后者需要与一个小镇相当的电力,并且无法自我复制、修复或适应环境。
为了让人工智能得到公平的听证,你可以辩称,将人工智能与生物智能系统进行比较是一种有缺陷的做法。
毕竟,计算机和大脑只是擅长于不同的任务——也许人类的天性是将它们融合在一起,形成自主人工智能的拟人化愿景,这些人工智能与环境互动,就像我们身边进化的生物一样。
然而,人工智能研究人员和神经科学家都愿意陷入这种智力僵局,许多人将大脑描述为“一台计算机”,可以人工建模和复制。
的 欧盟人类大脑计划(HBP)这是一项耗资近10亿美元的跨国实验,在《大科学》(Big Science)上的一堂课,让我们了解大脑的复杂性如何避开人工建模。
HBP开始对人类大脑进行建模,但只成功地对其功能进行了建模。
我们的大脑 – 为单个实体 – 用巨大的资金和计算能力击败了数千名研究人员的集体大脑, —打吧 诗意的正义
碰巧的是,意识和思想形成的本质是一个同样遥远的边界, -w只是还没到那一步。
人类大脑计划绘制了大脑功能的一些方面在“脑功能”。资料来源:EBRAINS。
这个问题的核心是生物学和机器之间的脱节。
虽然神经网络和其他形式的机器学习(ML)架构是通过模拟生物大脑来建模的,但计算方法是根本不同的。
麻省理工学院机器人学名誉教授罗德尼·布鲁克斯反思了这一僵局,指出”有一个担心,他的计算版本,基于整数的函数,是有限的。生物系统明显不同。他们必须长时间对不同的刺激作出反应;这些反应反过来又改变了他们的环境和随后的刺激。 例如,社会性昆虫的个体行为受到它们建造的家园结构以及它们在其中的兄弟姐妹的行为的影响。
布鲁克斯总结了这一悖论,他问道:“既然我们的大脑模型是在这样的机器上运行的,那么这些机器是否应该以大脑为模型呢?”
生物启发人工智能之旅
大自然已经有了数百万年的“研发”来完善其令人难以置信的弹性机制。
生物启发人工智能的趋势可以被看作是一种过程的修正,谦卑地承认,我们对先进人工智能的追求可能会带领我们走上一条道路,尽管它的复杂性仍然令人眼花缭乱,但从长远来看可能是不可持续的。
或者至少,目前的轨迹可能无法满足人类最终从人工智能那里寻求的东西。如果我们想生活在人类和机器人并肩行走的“未来”(当然,并不是每个人都希望这样),那么我们必须做得更好,而不仅仅是积累更多的GPU和训练更大的模型。
话虽如此,我们中热情的未来学家还是有希望的,因为研究人员几十年来一直在掩盖生物启发计算的想法,一些投机性的想法开始站稳脚跟。
在20世纪50年代末和60年代初,弗兰克·罗森布拉特的感知器工作提供了第一个简化的生物神经元模型。
感知器计算机设计于20世纪50年代末,是模拟神经网络的早期努力,主要用于图像识别任务。它是机器学习的概念验证,说明计算机可以被训练以根据数据做出决策。资料来源:美国博物馆。
然而,1986年的论文“通过反向传播误差学习表示法大卫·鲁梅尔哈特、乔治·辛顿和罗纳德·威廉姆斯改变了比赛。
辛顿和他的团队引入了反向传播算法,为训练多层神经网络提供了一种稳健的机制,推动了该领域的应用,从自然语言处理(NLP)到计算机视觉(CV)–现代人工智能的两个基本分支。
不久之后,生物灵感借鉴了达尔文的原则,走了一条不同的道路。约翰·霍兰德1975年的新书《自然和人工系统中的适应为遗传算法奠定了基础。
通过模拟变异和自然选择等机制,这种方法为优化问题打开了一个强大的工具,在航空航天和金融等行业得到了应用。
在昆虫群中观察到的“群体智能”等概念以及鸟类和鱼类的同步运动,在80年代和90年代首次被引入计算领域,并在2023年取得了显著进展。
2023年8月,前谷歌员工创建Sakana,一家初创公司提议开发一套更小的人工智能模型协同运行。
Sakana的方法的灵感来自于生物系统,如鱼群或神经网络,在这些系统中,较小的单元一起工作,以实现更复杂的目标。
蚂蚁行为表明有机体作为同步整体的一部分发挥作用的能力。资料来源:Shutterstock。
承认像ChatGPT这样的现代人工智能模型的单一架构,这种集成方法承诺减少功耗,并提供更高的适应性和弹性–这是生物有机体固有的品质。
即使是强化学习(RL),一个机器学习的分支,涉及教算法做出决策以追求奖励,在很大程度上也是生物启发的。
理查德·萨顿和安德鲁·巴托的开创性著作《强化学习:简介“从动物如何从环境中学习的例子中汲取了大量经验,启发了算法,可以根据奖励和惩罚进行适应。
这本书对动物行为进行了数百次比较,引用了“在所有形式的机器学习中,强化学习是最接近人类和其他动物所做的学习。
迈向生物启发的AI
在像人类和其他脊椎动物这样的复杂生物中,神经系统的不同组成部分协同工作来管理广泛的一系列功能。
中枢神经系统(CNS)作为控制中枢,处理信息和协调反应。
同时,外周神经系统(PNS)起着通讯网络的作用,在CNS和身体其他部位之间传输信号。
在PNS内是专门的自主神经系统(AN),它不自觉地操作来管理重要功能,如心率和消化。每个系统都有其不同的角色,但它们相互连接并无缝协作,以帮助我们驾驭环境。
像昆虫这样简单的生物体有一个更苗条,更经济的神经系统,尽管仍然非常复杂。果蝇有大约3000个神经元和50万个突触。
生物神经系统的组成部分在解剖学上是截然不同的,但它们的工作是整体的,通过发送和接收感觉刺激的神经元相连,最终形成概念上的理解–或者更复杂的生物的意识。
为了创造具有紧密耦合的大脑和感觉系统的自主机器人,研究人员必须摆脱暴力计算,并创造基于感觉现实的轻量级系统。
大脑、神经系统,以及延伸到感官,在生物体中紧密相连。资料来源:NeuroTechEdu。
虽然像ChatGPT这样的人工智能模型拥有丰富的知识,但它们在某种程度上被锁定在时间上,并被锁定在感官现实之外,理解主要由它们的训练数据驱动。
这确实赋予了优势,或者更确切地说,为生物体赋予了人工智能一种可区分的技能,这也许就是为什么人类热衷于开发人工智能来填补生物体的低效问题。
作为Amnon Shashua 亮点,“非常不同的计算机体系结构倾向于最大限度地利用其几乎无限的内存容量和暴力。”
然而,如果我们要将人工智能从数据中心和网络浏览器的限制中解放出来,研究人员必须解决这些挑战,并找到将人工智能系统与“身体”联系起来的方法,或者至少为它提供强大的感官基础。
这立即就有了实际用途。以无人驾驶汽车为例–它们的感官系统必须与我们的类似,才能安全工作。否则,他们就没有希望看到潜在的障碍,并迅速做出反应来拯救灾难,这被证明是他们大规模采用的一个重大障碍。
剑桥大学生理学、发育和神经科学系的丹尼斯·布雷(Dennis Bray)认为:“机器在许多任务上可以与我们匹配,但它们的工作方式与神经细胞网络不同。如果我们的目标是制造更智能和灵巧的机器,那么我们应该使用铜和硅电路。但是,如果我们的目标是复制人类大脑,其古怪的智慧,多任务处理能力和自我意识,我们必须寻找其他材料和不同的设计。
这些评论,虽然今天仍然相关,发表在一个 自然讨论文章 2012年,为纪念图灵诞辰100周年而发表——从那时起,人工智能发展迅速。
我们现在在哪?
尖峰神经网络(SNN)与生物硬件
今天的研究人员正在探索Bray所指的“其他材料和不同的设计”,例如尖峰神经网络(SNN),一种紧密模仿神经元功能的神经网络。
SNN为我们在机器学习中经常遇到的传统神经网络提供了一种专门的替代方案。
SNN不依赖于连续的激活函数来处理输入数据,而是通过使用离散的尖峰脉冲来进行神经元间的通信来模仿复杂的生物神经网络。
在这些网络中,每个人工神经元随着时间的推移整合来自其连接的神经元的传入尖峰信号。当累积的信号或膜电位超过某个阈值时,神经元本身就会发出一个尖峰。
这种尖峰机制允许网络捕捉和处理空间和时间模式,就像生物大脑中的神经元一样。
那么,是什么让SNN成为生物启发人工智能的焦点呢?
首先,它们自然处理时间数据序列的能力使它们与众不同,无需像递归神经网络(RNN)中看到的那样额外存储单元。
其次,SNN被设计为非常节能。与传统的神经网络中每个神经元都是持续活跃的,SNN的稀疏和事件驱动性质允许神经元大部分保持不活跃,只有在必要时才会触发尖峰。这大大降低了他们的能源消耗。
最后,通过更紧密地模仿生物系统,SNN有可能提高鲁棒性和灵活性,特别是在嘈杂或不可预测的环境中。
虽然SNN的概念起源于对生物神经系统的理论理解,但硬件技术的进步使这些网络更容易用于计算任务。
神经形态芯片是专门为有效模拟放电动力学而设计的,在使SNN实用化方面发挥了重要作用。
IBM的仿生模拟芯片和SNN
在过去的两年里,见证了在建造超轻型建筑方面取得的实质性进展,节能人工智能 也称为神经形态芯片。
现在也有其他几种类型的神经形态技术,比如模仿生物眼睛的神经形态相机。
开发于2023年, IBM的芯片 使用忆阻器之类的模拟元件来存储变化的数值。它还使用相变存储器(PCM)来记录数值谱,而不是0和1。
这些属性允许减少内存和处理器之间的数据传输,从而在能源效率方面提供优势。IBM的设计特点是“64个模拟内存计算核心,每个核心包含一个256乘256的突触阵列。”它在计算机视觉(CV)基准测试中获得了令人印象深刻的92.81%的准确率,同时效率是现有芯片的15倍以上。
虽然IBM的芯片没有明确基于SNN,但模拟特性和忆阻器的使用使其与SNN模型高度兼容。
本质上,SNN可以在这种架构上更自然地实现。
印度IT孟买公司基于SNN的芯片
2022年,来自孟买印度理工学院的研究人员,设计了一个芯片 它专门用于SNN。
这种芯片使用带对带隧道(BTBT)电流,用于超低能量人工神经元。根据乌达扬·甘古利教授的说法,该芯片实现了“在相似区域的每个尖峰能量降低5000倍,在相似区域的待机功率和每个尖峰能量降低10倍”。
这种芯片直接应用于手机、无人驾驶汽车(UAVs)和物联网设备等紧凑型设备,满足了对轻量级和节能AI计算的需求。
这两种方法的目标是最终实现Ganguly所描述的“极低功耗的神经突触核心,并开发实时片上学习机制,这是自主生物启发神经网络的关键。这就是圣杯。”
这些系统可以将“思维系统”与“行动和运动系统”结合起来,就像我们在生物有机体中观察到的那样。
这将使我们能够朝着创建强大、可持续的人工系统迈出重要一步,并与近一个世纪来激发人工智能的生物系统紧密结合。
最后,人类可以将人工智能从单块架构中解放出来,将它们从电源中拔下,并将它们作为自主的存在发送到世界和宇宙中。
不管这是不是一个好主意—好吧,那是另一次讨论。