理解人工智能经常被忽视的环境影响

AI特色新闻1年前 (2023)发布 yundic
542 0 0

随着围绕人工智能系统风险的讨论愈演愈烈,我们不能忽视技术给世界已经征税的能源和水供应带来的压力。

复杂的机器学习(ML)项目依赖于一系列技术,包括训练硬件(GPU)以及用于托管和部署AI模型的硬件。

虽然高效的人工智能培训技术和架构有望降低能耗,但人工智能热潮才刚刚开始,大型科技公司正在加大对资源密集型数据中心和云技术的投资。

随着气候危机的加深,在技术进步和能源效率之间取得平衡比以往任何时候都更加重要。

人工智能的能源挑战

人工智能的能耗随着神经网络等复杂、计算昂贵的架构的出现而上升。

例如,据传闻,GPT—4基于8个模型,每个模型有2200亿个参数,总共约有1.76万亿个参数。Inflection目前正在构建一个由22,000个高端Nvidia芯片组成的集群,成本约为550,000,000美元,每张卡的粗略零售价为25,000美元。这只是为了薯片。

每个先进的人工智能模型都需要大量的资源来训练,但直到最近,精确理解人工智能开发的真正成本一直是一个挑战。

一个2019年的研究 马萨诸塞大学阿默斯特分校的研究人员调查了与深度神经网络(DNN)方法相关的资源消耗。

通常,这些DNN需要数据科学家手动设计或使用神经体系结构搜索(NAS)来为每个独特的情况从头开始寻找和训练专门的神经网络。

这种方法不仅是资源密集型的,而且还会产生巨大的碳足迹。这项研究发现,训练一个基于变压器的大型神经网络,使用NAS–机器翻译中常用的工具–会产生大约62.6万磅的二氧化碳。

这大约相当于5辆汽车的寿命排放量。

理解人工智能经常被忽视的环境影响

二氧化碳对人工智能模型的影响。资料来源:MIT Technology Review。

西班牙科鲁尼亚大学的计算机科学家卡洛斯·戈麦斯—罗德里格斯(Carlos Gómez—Rodríguez)评论这项研究:“虽然我们中的许多人可能在一个抽象、模糊的层面上想到了这个问题,但这些数字确实显示了问题的严重性,”他补充说,“我和其他研究人员都不认为环境影响是如此重大。

训练模型的能量成本只是基线——使模型运行所需的最小工作量。

正如马萨诸塞大学博士生艾玛·斯特鲁贝尔所说:“培训一个模特是你能做的最低限度的工作。”

麻省理工学院的“一次为所有”方法

麻省理工学院的研究人员后来提出了解决这个问题的办法: “一次过”(OFA)方法

研究人员 描述问题对于传统的神经网络培训:“无论是使用基于人的方法还是NAS,为每种场景设计专门的DNN都是工程师昂贵的,计算成本也很高。由于这种方法需要重复网络设计流程,并针对每种情况从头开始重新训练设计的网络,因此它们的总成本随着部署场景数量的增加而线性增长,这将导致过高的能源消耗和二氧化碳排放。

使用麻省理工学院的OFA范式,研究人员训练一个单一的通用神经网络,从中可以创建各种专门的子网络。 OFA流程不需要对新子网进行额外的培训,从而减少了模型培训所需的高能耗GPU小时数,并降低了二氧化碳排放量。

除了其环境效益外,OFA方法还提供了实质性的性能改进。在内部测试中,使用OFA方法创建的模型在边缘设备(紧凑型物联网设备)上的性能比使用NAS创建的模型快2.6倍。

麻省理工学院的OFA方法在2019年的第四届低功耗计算机视觉挑战赛上获得了认可,这是由IEEE主办的年度活动,旨在促进提高计算机视觉(CV)系统能效的研究。

麻省理工学院的团队获得了最高荣誉,活动组织者称赞道:“这些团队的解决方案超过了文献中的最佳解决方案。

这个2023年低功耗计算机视觉挑战赛 目前正在收到提交到8月4日。

云计算对人工智能环境影响的作用

除了训练模型,开发人员还需要大量的云资源来托管和部署他们的模型。

微软和谷歌等大型科技公司正在2023年增加对云资源的投资,以应对人工智能相关产品不断增长的需求。

云计算及其关联的数据中心有巨大的资源需求。截至2016年,估计表明全球数据中心的用电量约占全球用电量的1%至3%,相当于某些小国的用电量。

数据中心的水足迹也是巨大的。大型数据中心每天可以消耗数百万加仑的水。

2020年,据报道,谷歌在南卡罗来纳州的数据中心被允许使用5.49亿加仑的水,几乎是两年前使用量的两倍。一个15兆瓦的数据中心每天可以消耗高达36万加仑的水。

2022年,谷歌披露其全球数据中心车队消耗了约43亿加仑的水。然而,他们强调,水冷比其他技术更有效。

大型科技公司都有类似的减少资源使用的计划,比如谷歌,该公司在2017年实现了将100%的能源使用与可再生能源购买相匹配的目标。

模仿人脑的下一代人工智能硬件

人工智能是非常资源密集型的,但我们的大脑运行在12瓦功率 —这样的能效能在人工智能技术中复制吗?

即使是台式计算机,也需要比人脑多10倍以上的能量,而强大的人工智能模型需要数百万倍的能量。建立能够复制生物系统效率的人工智能技术将彻底改变整个行业。

公平地说,这种比较并不能解释人类大脑经过数百万年的进化而被“训练”的事实。此外,人工智能系统和生物大脑擅长于不同的任务。

即便如此,构建能够以与生物大脑相似的能耗处理信息的人工智能硬件,将使人工智能能够自主地受到生物启发,而不是耦合到庞大的电源。

2022年,印度孟买理工学院的一个研究小组, 宣布了这一进展模仿人脑的一种新的人工智能芯片。该芯片与尖峰神经网络(SNN)一起工作,SNN模仿生物大脑的神经信号处理。

大脑由1000亿个微小的神经元组成,这些神经元通过突触与数千个其他神经元相连,通过协调的电尖峰模式传递信息。研究人员构建了超低能量的人工神经元,为SNN配备了带间隧道(BTBT)电流。

研究小组的Udayan Ganguly解释说:“使用BTBT,量子隧道电流以超低电流为电容器充电,这意味着需要更少的能量。”

根据甘古利教授的说法,与在硬件SNN中实现的现有最先进的神经元相比,他们的方法实现了“相似区域每个尖峰的能量降低5000倍,相似区域的待机功率和每个尖峰的能量降低10倍”。

研究人员在一个受大脑听觉皮层启发的语音识别模型中成功地证明了他们的方法。SNN可以增强手机和物联网传感器等紧凑型设备上的应用。

该团队的目标是开发一种“极低功率的神经突触核心和实时的芯片学习机制,这是自主生物启发神经网络的关键。”

人工智能对环境的影响往往被忽视,但解决人工智能芯片功耗等问题也将开启创新的新途径。

如果研究人员能够在生物系统上模拟人工智能技术,这将有助于开发不依赖充足的电源和数据中心连接的自主人工智能系统。

© 版权声明

相关文章

暂无评论

暂无评论...