人工智能能源使用和碳排放统计数据可能被夸大

AI行业新闻9个月前发布 yundic
268 0 0

信息技术和创新基金会(ITIF)的一份新报告称,将人工智能的能源消耗描述为失控的说法夸大了事实,往往具有误导性。

非营利智库ITIF发布了题为“重新思考人工智能能源使用的担忧”的报告,并对危言耸听的人工智能能源和碳排放声明进行了现实检查。

报告指出,关于新技术能源使用的戏剧性头条新闻并不是一个新现象。当网络时代在20世纪90年代达到顶峰时,《福布斯》的一篇文章声称:“在美国的某个地方,每次在网上订购一本书,都会燃烧一大块煤。

这份被广泛引用的报告接着声称,“在未来十年内,一半的电网将为数字互联网经济提供动力。

我们现在知道,这些估计被夸大了。国际能源署(IEA)估计,为互联网供电的数据中心和传输网络使用量占全球用电量的1—1.5%。

我们之前已经报道过训练人工智能模型和推理过程中消耗的巨大水和能源,但ITIF的报告有助于我们最初的恐慌反应带来一点理智。

事实vs虚构

为人工智能的排放和能源使用提供准确的数据是一个挑战。除了CPU处理能力之外,还有芯片制造、冷却、可变工作负载等方面的能源资源。

这使得它很难得到一个准确的数字,并容易提出一个可信的危言耸听。

2019年,马萨诸塞大学阿默斯特分校的研究人员估计,在79个小时的训练中,训练谷歌的BERT模型将排放1438磅二氧化碳(CO2)。这相当于从纽约到旧金山往返航班二氧化碳排放量的75%。

他们还估计,假设像Bert这样的模型被训练用于神经架构搜索(NAS),这是机器学习中计算最复杂的问题之一,它将排放626,155磅的二氧化碳排放。

这相当于大约300次从美国东海岸到西海岸的往返航班。猜猜哪个排放数字上了头条新闻。

更糟糕的是,事实证明,研究人员在NAS最糟糕情况下的估计被高估了88倍。不出所料,对这份报告的更正并未成为新闻。

越来越好了,不是更糟

是的,训练人工智能模型,主要是推理,消耗大量的能量。然而,该报告指出,人工智能模型和硬件的效率将随着时间的推移而降低能耗。

以下是报告中给出的理由的简短版本:

  • 随着人工智能模型改进的增量速度放缓,开发人员将专注于提高模型的效率,使其在经济上可行。
  • AI芯片的效率越来越高。在2010年至2018年期间,全球数据中心的计算实例增长了550%,存储容量增长了2400%,但全球数据中心的能源使用仅增长了6%。
  • 应考虑人工智能的替代效应。下载一本书比打印并递送一本书更环保。类似地,人工智能可以消除更高的碳排放任务。与人工智能生成文本相比,人类在输入一页文本时排放的碳要多得多。
  • 人工智能使公用事业系统更高效、处理复杂的气候变化数据、实现精准农业和优化物流的能力都减少了碳排放。

虽然该报告称人工智能能源使用没有报道的那么令人担忧,但它确实呼吁人工智能模型的能源透明度标准,以使基准测试更容易。

ITIF还得出结论,对人工智能模型的过度监管可能会降低它们的能效,因为LLM的去偏技术会增加更多的能源成本。

这份报告值得通读。它有更多优秀的例子,突显那些反对加快人工智能开发的人是如何利用误导性的能源使

文章最后引用了《卫报》的一位专栏作家的话,这位作家在2023年12月重复了这项声名狼藉的2019年伯特研究,两年前,该研究被证明是虚假和误导性的。这个问题并没有消失。

不要相信那些技术恐惧症者声称的一切。坐火车旅行不会破坏人体,互联网不会消耗我们大部分电力,人工智能可能不会破坏环境。

© 版权声明

相关文章

暂无评论

暂无评论...