摘要
过去十年间,关于信息通信技术(ICT)行业电力消耗的讨论持续不断。人们担忧随着数字化程度加深、数据量增长以及处理和存储需求扩大,该行业的用电量可能出现大幅攀升。然而回溯历史可见,多数ICT研究严重高估了未来电力需求,因为这些预测主要基于一个简单假设:数据传输量与处理所需的电力消耗成正比。
爱立信研究[1]表明:2007至2023年间,尽管数据总流量实现了约80倍的指数级增长,但ICT运营阶段的电力消耗仅增加1.4倍。这充分证明数据传输量与电力消耗并非线性关系。要准确预测未来ICT电力需求,必须结合硬件市场统计数据与企业实际用电报告,才能可靠识别当前及未来的能源趋势。
预计未来数年网络与数据中心的用电量仍将增长。但爱立信分析表明,数字化进程、网络扩容及传统数据中心服务的发展不会引发用电量的指数级暴涨。真正的变量在于AI服务与技术演进路径:短期内受AI硬件供给限制难以实现能耗激增;中长期来看,要实现商业可行性必须发展更高效的AI模型与硬件。因此,把握数字领域技术进步趋势,建立基于实证的预测模型,对制定可持续数字发展政策具有关键意义。
引言
数字化转型的持续推进引发了人们对ICT行业电力消耗及相应温室气体排放的担忧。过去几十年来,业界制定了诸多未来电力需求预测方案。然而这些预测普遍存在一个共性缺陷——未能准确判断ICT行业的电力消耗趋势,其结果往往被严重高估。
本白皮书将揭示传统预测方法失效的根本原因,剖析过去十年间网络与数据中心实际用电量的演进轨迹,并阐明影响这些技术电力消耗的关键驱动因素。我们将论证数据流量与电力消耗并非直接正比关系,并重点围绕网络与数据中心领域,探讨行业未来发展的潜在情景。此外,本文还将深入分析人工智能技术的影响,就其当前及未来的能源需求做出科学研判。
历史与当前电力消耗格局
信息通信技术(ICT)产业主要由三大板块构成:固定/移动通信网络、数据中心以及智能手机和计算机等用户终端。爱立信研究显示,自2007年以来,该行业年用电量保持约1%-2%的平稳增长,而同期产品与解决方案的能效水平持续提升。值得注意的是,在2007至2023年间,尽管全球数据流量激增约80倍,ICT产业总用电量仅增长1.4倍。用户规模及其持有设备数量也从约30亿固定/移动用户增长至超100亿,这使得单用户电力消耗显著下降。
ICT产业温室气体(GHG)排放趋势与能耗变化基本同步。但自2020年起,全生命周期预估排放总量开始呈现下降态势。作为高能效低碳产业,ICT行业目前仅消耗全球约4%的电力,温室气体排放占比仅为1.4%[2]。
2020-2023年ICT行业电力消耗概况
2023年,ICT行业运营阶段总用电量约为1,000太瓦时(TWh)[3],较2020年报告的940太瓦时略有增长。其中,网络设施与数据中心2023年用电量约550太瓦时,剩余450太瓦时来自用户终端设备。该数据基于爱立信研究成果,并结合160余家大型ICT企业(承载全球超90%互联网流量)公开披露的用电报告综合得出。为确保全球代表性,各细分领域数据均通过科学推算法得出总量值。
ICT行业总用电量统计(单位:太瓦时)
通过收集和分析网络运营商与数据中心运营商披露的能耗信息,我们可以深入探究这些细分领域的发展趋势。图3展示了来自63家网络运营商的报告数据,这些运营商合计覆盖全球约75%的固定和移动用户订阅量。数据显示,2023年网络运营电力消耗较2020年仅小幅增长。
图3右侧图表呈现了36家大型数据中心运营商的用电数据,这些运营商承载了全球90%以上的互联网流量。值得注意的是,数据中心用电量呈现显著增长态势,增幅约达50%。
63家网络运营商与36家数据中心运营商实测及报告用电量
根据Omdia研究数据显示,2023年微软、Meta、谷歌和甲骨文等少数几家企业采购了市场上绝大多数新增AI GPU芯片。据估算[4],2023年专用于AI服务的电力消耗约占数据中心总用电量的8%,即不足ICT行业整体用电量的1%。
从历史维度看,多家机构曾针对ICT行业不同目标年份的电力需求与碳足迹做出预测。爱立信2024年发布的实证研究[5]表明,诸多针对2020年的预测显著高估了该行业的电力消耗与温室气体排放增速。这些误判主要源于研究采用的数据质量缺陷——多数预测模型过度依赖对未来数据流量的估算,并简单假定数据传输处理量与电力消耗呈线性正比关系(这种错误方法论的具体分析详见第4章节)。
通过对公开披露信息的分析研究,我们获得以下关键发现:
五大ICT巨头(微软、亚马逊、谷歌、Meta和苹果)的运营数据表明:
Netflix公开数据显示:
为何能源消耗并未呈指数级增长?
简而言之,能源消耗与数据流量并非直接正比关系。在网络系统中,数据传输和处理仅占用电量的一小部分,大部分电力实际用于维持网络覆盖——即使没有数据传输处理时仍需持续耗电,这部分被称为基础负载能耗。以移动网络为例,基站需持续与手机等终端设备同步位置、信号强度等参数,虽然仅交换少量信令数据,但这类基础负载能耗却占据约95%的用电量,主要用于维持全网所有接入设备的实时监测。
传统"自上而下"的预测方法通常基于单位数据能耗强度指标(如千瓦时/GB)进行推算,并假设未来能效水平保持不变,仅通过数据流量增长来预测能耗,再简单叠加能效提升系数。历史表明,这种方法会严重高估行业实际能耗,因此无法准确反映未来网络能源需求,更难以计算真实应用场景的能耗水平。
相比之下,"自下而上"的研究方法更具参考价值。该方法通过分析服务器功耗规格、数据中心基础设施特性(如电能使用效率PUE)、设备装机量与出货量等微观技术参数建立模型。虽然这种方法更接近网络和数据中心的实际运行状况,但关键在于需结合企业公开的实测数据进行验证,确保模型能真实反映系统运行特性。
移动通信标准与能效演进
蜂窝网络的电力消耗特性与通信标准代际密切相关。以4G网络为例,系统需每0.2毫秒(ms)发送一次信令以维持设备通信连接。相比之下,5G标准将强制传输间隔延长至20ms甚至更长,达到4G标准的100至800倍。这种延长的通信间隔使无线接入网(RAN)能够采用深度休眠模式,从而显著降低能耗。面向未来的6G标准,通过进一步优化通信间隔参数,有望实现更大幅度的能效提升[6]。
瓶颈在于用户需要快速访问通信网络。因此,间隔不能太长,以免影响用户体验,例如在需要时使用服务或拨打电话。
估算用电量
建议采用两步法估算网络和数据中心的用电量,将自下而上的分析与实际报告的能耗数据相结合。自下而上的分析,也称为功率模型,已在同行评审文章中有所描述。[7] 原则上,功率模型利用单个硬件组件的信息,考虑其最大功率和空闲模式功率值,来计算整个网络或数据中心随时间变化的代表性能耗。第二步是现实检验,使用公司报告的当前数据来了解通过功率模型获得的数值是否正确。评估公司报告的数据时,可以参考全国范围内的能源生产和消费统计数据。例如,公共统计数据是否反映了该行业在特定历史时期的预计增长情况?现实检验对于获得与实际情况相符的数值、了解数据中心利用率等多个参数以及评估所使用的总体预测模型都至关重要。
此外,由于用户数量不会随时间发生显著变化,因此长期观察的一个重要能效指标是每用户能耗(千瓦时/用户)。如前所述,网络中的大部分电力用于维持系统正常运行,而无需传输任何数据。例如,GSMA 报告称,在新冠疫情期间,移动网络中的数据传输量增长了 50%,而电力消耗却保持平稳。[8] 在数据中心,评估实际使用的电力容量非常重要,该容量通常远低于其最大容量。
此外,从能源角度来看,电信网络和数据中心之间的主要区别在于容量的扩展和缩减以及相关的用电量。 许多未来预测中未充分考虑的另一个方面是 ICT 设备的不断发展和效率的提升。网络设备和新一代技术正变得越来越节能,其容量和计算能力也在不断提升,只需更少的设备即可满足性能要求。服务器、路由器、交换机和其他基础设施也是如此。这是决定未来基础设施总体用电量的重要因素。
总而言之,即使数据传输量呈指数级增长,用电量也不会出现同样的增长。历史上一直如此,未来也很可能如此。
未来发展趋势展望
预测未来能源消耗需综合考量多重因素:
- 基础设施扩展:网络覆盖范围与数据中心规模的持续扩大
- 设备技术演进:硬件迭代与系统代际升级带来的能效提升
- 用户基数变化:全球用户规模及设备数量的增长曲线
- 技术架构转型:新型设备类型与网络架构的应用
如前述章节所论证,当前最准确的预测方法仍是将功耗模型与实际运行数据相结合的分析框架。需要特别强调的是,对于通信网络领域,采用"单位数据传输能耗"等强度指标进行推算,已被证实会导致预测结果严重偏离实际情况。
数字化程度的提高、对网络覆盖范围扩大的需求、存储和计算从本地服务向云服务的转移,以及对高质量数据服务总体需求的增加,都将增加数字服务的电力消耗。爱立信估算了 ICT 行业到 2030 年的用电量和潜在碳足迹,见图 6。预计从 2023 年到 2030 年,总体用电量将继续增长约 10%,达到约 1,100 TWh。预计到 2030 年,网络和传统数据中心服务的用电量将分别增长 6% 和 13%。
此外,人工智能服务正在扩展,而我们才刚刚看到这一演变的开始。然而,对于网络和传统数据中心服务而言,即使我们预计该行业的用电量会增加,但预计不会像一些研究报告的那样呈指数级增长。原因很简单,设备效率不断提升,新一代网络系统的标准也越来越多地纳入了能效措施,而且数据传输永远不会与用电量直接相关。此外,随着我们构建和部署新一代网络和服务器系统,老旧且能效较低的技术和硬件将被淘汰,取而代之的是更节能的设备。
那么人工智能的影响又是什么呢?
人工智能的普及将如何影响未来几年的数据中心市场?首先,这项技术仍处于起步阶段,发展迅速,因此很难预测未来人工智能系统的构建方式。当前的系统在训练过程中消耗大量电力,并且需要不断使用性能更强大的硬件。然而,我们也看到了潜在的颠覆性创新,例如DeepSeek,它声称能够比其他厂商更高效地运行大型语言模型(LLM)。此外,已经宣布在人工智能开发方面投入巨额资金,这些资金也将用于提高该技术的效率。从商业角度来看,降低人工智能的能源成本对于未来提供有吸引力的产品和建立合理的商业模式至关重要。
爱立信估计,到2023年底,将有多达1200万个人工智能图形处理单元(GPU)投入运行,耗电量约为21太瓦时,相当于所有数据中心用电量的约8%,这意味着不到整个ICT行业用电量的1%。展望未来,据估计[9],到2028年,人工智能的能耗将占数据中心总用电量的20%。
预计到2024年,高端GPU的销量将比2023年增长两倍,达到约200万台,与低端GPU的销量持平。[10] 预计未来几年高端GPU的销量将继续增长。目前,这些高能耗设备的70%由少数几家大型跨国公司采购。与此同时,我们看到传统服务器系统市场正在下滑。
此外,另一个重要方面是人工智能系统的使用频率和时长。最耗能的活动是训练人工智能模型;然而,预计未来人工智能的推理或使用将占据更大的能耗份额。
最后,评估人工智能用电量预测的可靠性至关重要。通过自下而上的分析,仔细审查服务器和 GPU 销售的市场数据,结合 ICT 公司报告的能耗数据以及全国范围内的电力消耗统计数据,我们可以更好地了解未来的合理发展方向。由于数据中心的很大一部分运营成本与电力有关,因此需要更换老旧且能效较低的硬件,以降低运营成本并提高竞争力。此外,还需要考虑技术进步。根据国际能源署 (IEA) 的数据,人工智能相关芯片的效率每三年翻一番,而最新的芯片在执行相同计算时所消耗的电量与 2008 年的模型相比减少了 99%。[11] 因此,随着更高效的处理器在 2030 年之前进入市场,服务器和人工智能 GPU 都很有可能取得进步。
结论
随着数字化进程的加快,ICT行业,尤其是网络和数据中心,用电量可能会有所增长。不过,增幅可能不如一些报告所称的那么显著。未来的不确定性在于人工智能服务和技术在未来几年将如何发展。
目前,整个行业消耗了全球约4%的电力。据估计,到2030年,网络和传统数据中心服务的用电量将每年增长1%至3%。为了控制运营成本,老旧设备将不断升级为更新、更节能的设备。人工智能技术也将应用于网络和数据中心,以提高各方面的效率,包括降低能耗。能源效率较低的传统技术,例如固定电话、2G和3G,将被5G等节能标准逐步淘汰。这一发展将减少用电量,同时提升网络和数据中心的容量。 评估信息通信技术 (ICT) 行业未来的电力消耗趋势是一项艰巨的任务,需要考虑多个方面。
历史上,许多预测都高估了电力消耗,因为它们依赖于简单的方法,例如使用强度数据,或者没有将结果与公司实际报告的数据进行比较。 这些方法也未能考虑技术的运作方式、技术进步以及未来的服务需求。 人工智能的采用可能会彻底改变数字技术和服务。由于训练 LLM 以及最终进行 AI 推理所需的计算能力,电力使用是一个令人担忧的问题。我们需要开发更高效的 AI 硬件和模型,以降低能源成本并改进 AI 服务的商业案例。区分服务于特定目的的专用 AI 模型和 LLM 至关重要。例如,用于管理电信网络能源使用或提高电网效率的专用 AI 服务在实现可持续效率方面具有巨大的潜力。
当前,微软、亚马逊、谷歌和Meta等少数几家承载全球70%互联网流量的科技巨头,采购了市场上80%的高端AI硬件。由于目前仅有少数厂商能够供应此类硬件,短期内产能受限形成供给瓶颈。基于市场统计数据和AI模型运行特点,我们预计未来数年AI服务的电力消耗将持续增长。但鉴于AI技术仍处发展初期,其硬件和软件的能效水平正在快速提升,因此难以准确预测具体增幅及未来能耗演变趋势。历史经验表明,对新兴技术的能耗预测往往存在高估风险,正如2000年代初互联网泡沫时期的情况。
数字化投资决策和未来监管政策的制定,必须以准确的信息和假设为基础。ICT行业的电力消耗是需要重点考量的因素,因此可靠的预测数据至关重要。支撑公用事业、电网、交通系统、建筑和工业数字化转型的互联技术,将成为绿色转型的关键推手。我们应当优先发展和激励数字化解决方案,以此推动淘汰化石燃料,实现社会深度脱碳。