ChatGPT的能源消耗低于预期,但未来可能增加

研究显示,ChatGPT的能源消耗低于预期,但未来可能增加

ChatGPT,OpenAI的聊天机器人平台,似乎并不像之前认为的那样耗费大量电力。然而,ChatGPT的能耗主要取决于其使用方式以及所运行的AI模型,这一点根据一项最新研究得出了不同的结论。

由非营利AI研究机构Epoch AI进行的分析,尝试计算一个典型的ChatGPT查询所需的电能。广为流传的一个数据是,ChatGPT每回答一个问题大约需要3瓦时的电力,这大约是一次Google搜索能耗的10倍。但Epoch认为,这一估算过于保守。

以OpenAI最新的默认模型GPT-4o为参考,Epoch发现,每个普通的ChatGPT查询大约消耗0.3瓦时的电力,低于许多常见家用电器的能耗。

Epoch的数据显示分析师Joshua You在接受TechCrunch采访时表示:“相比起使用普通家电、给房屋供暖或降温,甚至开车,ChatGPT的能耗根本算不了什么大事。”

目前,AI的能源消耗以及其对环境的影响,依然是一个备受争议的话题,尤其是在AI公司快速扩展基础设施的背景下。仅上周,100多家组织联合发布公开信,呼吁AI行业和监管机构确保新建的AI数据中心不会消耗过多自然资源,也不会迫使公用事业公司依赖不可再生能源。

You解释说,他的分析源自对之前一些研究的质疑。他指出,得出3瓦时这一数据的报告,假设OpenAI使用的是旧款且效率较低的芯片来运行其AI模型。

他说:“我看到不少公开讨论,准确地认识到AI将在未来几年消耗大量能源,但却没有充分解释当前AI的能耗。”他还提到:“一些同事指出,广泛引用的3瓦时数据其实基于比较陈旧的研究,而且采用了草率的估算方式。”

当然,Epoch的0.3瓦时估算同样只是一个近似值,OpenAI并未公开足够的细节以进行精准的能耗计算。分析中也未涉及诸如图像生成或输入处理等功能所增加的额外能耗。You承认,“带有长文件的输入查询”可能在短期内消耗更多的电力。

尽管如此,You仍预期,ChatGPT的基础能耗在未来可能会有所增加。

他说:“随着AI技术的进步,训练这些AI模型将需要更多电力,未来AI的使用强度也会更高——需要处理的任务种类和复杂度将远超今天的ChatGPT。”

尽管在最近几个月,AI的效率取得了显著突破,但由于AI技术的大规模部署,预计将推动基础设施的迅猛扩张并增加电力需求。根据Rand的报告,到2025年,AI数据中心可能需要几乎与加利福尼亚州2022年电力容量(68GW)相等的电力。报告预测,到2030年,训练一个前沿模型可能需要相当于8个核反应堆(8GW)的电力。

ChatGPT本身已经覆盖了庞大且不断增长的用户群体,因此其服务器需求也相当巨大。OpenAI及其投资伙伴计划在未来几年投入数十亿美元,建设新的AI数据中心。

此外,OpenAI和整个AI行业的关注点也开始转向推理模型。这些模型通常具备更强的任务处理能力,但运行时需要更大的计算资源。与响应查询几乎是即时的GPT-4o模型不同,推理模型需要花费几秒至几分钟来“思考”,这一过程将消耗更多计算资源,进而增加电力需求。

You表示:“推理模型将承担越来越多旧模型无法完成的任务,生成更多的数据来完成这些任务,而这需要更多的数据中心。”

OpenAI已经推出了更为节能的推理模型,如o3-mini。但目前来看,效率提升可能无法抵消推理模型“思考”过程及全球AI使用量增长带来的能耗压力。

对于那些担心自己AI能耗的人,You建议减少使用ChatGPT等应用的频率,或者选择更节能的模型——在现实情况下,尽量选择那些计算需求较低的模型。

他表示:“你可以尝试使用像GPT-4o-mini这样的小型AI模型,并且谨慎使用它们,避免需要处理大量数据的操作。”


这样改写后,文章语气更加简洁易懂,同时保留了原文的关键点。你觉得怎么样?

标签



热门标签