2 月 12 日消息,非营利人工智能研究机构 Epoch AI 发布了一项针对 ChatGPT 能耗的新研究,指出其能耗水平可能远低于此前的普遍认知。
此前,一个被广泛引用的数据显示,ChatGPT 回答一个问题需要消耗约 3 瓦时的电量,这一数字是谷歌搜索的 10 倍。然而,Epoch AI 的研究人员认为这一数据被高估了。通过分析 OpenAI 最新的默认模型 GPT-4o,Epoch AI 发现,ChatGPT 的平均查询能耗约为 0.3 瓦时,低于许多家用电器的能耗水平。
Epoch AI 的数据分析师约书亚・尤(Joshua You)在接受 TechCrunch 采访时表示:“与使用普通电器、调节室内温度或驾驶汽车相比,ChatGPT 的能耗并不算什么。”
IT之家注意到,随着 AI 行业的快速发展,其能耗问题和对环境的影响成为公众关注的焦点。就在上周,超过 100 个组织联合发表公开信,呼吁 AI 行业和监管机构确保新的 AI 数据中心不会过度消耗自然资源,避免依赖不可再生能源。
约书亚・尤指出,他之所以开展这项分析,是因为此前的研究存在过时的问题。例如,得出 3 瓦时能耗估计的研究报告假设 OpenAI 使用的是较老、效率较低的芯片来运行其模型。尤表示:“我看到很多公众讨论都正确地认识到 AI 在未来几年将消耗大量能源,但并没有准确描述当前 AI 的能耗情况。此外,我的一些同事注意到,每次查询耗电 3 瓦时的估算数据是基于较旧的研究,而且从初步计算来看,这一数字似乎过高。”
尽管 Epoch AI 的 0.3 瓦时数据是一个估算值,因为 OpenAI 尚未公布足够的细节来进行精确计算,但这一研究仍然具有重要意义。此外,该分析并未考虑 ChatGPT 的图像生成或输入处理等额外功能所消耗的电量。尤也承认,带有长文件附件等“长输入”的 ChatGPT 查询可能会比普通问题消耗更多的电量。
不过,尤预计,ChatGPT 的基础能耗未来可能会增加。他指出:“AI 将变得更加先进,训练这些 AI 可能需要更多的能源,未来的 AI 可能会被更频繁地使用,并且处理更复杂、更多的任务,而不是像现在人们使用 ChatGPT 这样。”
此外,OpenAI 和整个 AI 行业的关注点也在向推理模型转移。与 GPT-4o 等能够近乎即时响应的模型不同,推理模型需要花费数秒甚至数分钟来“思考”答案,这一过程会消耗更多的计算能力,从而导致更高的能耗。
尤表示:“推理模型将越来越多地承担旧模型无法完成的任务,并为此生成更多的数据,这都需要更多的数据中心支持。”尽管 OpenAI 已经开始推出更节能的推理模型,如 o3-mini,但目前来看,这些效率提升似乎不太可能抵消推理模型“思考”过程以及全球 AI 使用量增加所带来的额外能耗需求。