切换到宽版
  • 10阅读
  • 2回复

[智能应用]AI狂飙下的电力挑战 [复制链接]

上一主题 下一主题
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君
 

发帖
157088
金币
388779
道行
20030
原创
764
奖券
263
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 18740(小时)
注册时间: 2012-06-21
最后登录: 2025-09-29
只看楼主 倒序阅读 使用道具 楼主  发表于: 6小时前

当越来越多的人习惯于向ChatGPT之类的人工智能寻求日常答案,这份触手可及的便利背后是由无声流淌的能源在默默支撑。研究估算,ChatGPT处理一次查询的耗电量约相当于一盏家用白炽灯点亮20秒所需的电力,而更为复杂的任务,其能耗可能达到普通搜索的近百倍。
我们正步入一个能源需求越来越旺盛的世界。国际能源署(IEA)称其为“电力新时代”:交通、建筑和工业的电气化推动电力需求激增。除了电动汽车和工厂,数据中心也正在被视为电力需求的“新兴驱动力”。
9月24日,人工智能巨头OpenAI宣布了其新数据中心建设计划:根据今年1月在白宫与特朗普总统共同公布的“星际之门”计划,将在美国各地建立五个新的数据中心,其能源消耗足以为数十万户家庭供电。
IEA在4月发布的报告中指出,目前,AI占数据中心电力消耗的5%至15%,但到2030年,这一比例可能升至35%至50%,相当于日本全国目前的用电规模。届时,约十分之一的全球电力需求增长将来自数据中心。
2021年,谷歌能耗为18.3TWh,其中AI部门仅占10%至15%,但有研究预测,仅谷歌AI部门几年后的年耗电量就可能与爱尔兰全国用电量(29.3TWh)相当。而中国的三峡水电站年发电量约为100TWh,这意味着未来仅谷歌AI就可能消耗掉三峡三分之一的发电量。
AI应用在全球快速扩张,但其能源消耗问题却常被忽视。目前全球AI的碳排放已与全球航空业相当,约占全球总量的2%。AI会在多大程度上推高电力需求?我们如何在满足日益增长的数据与人工智能需求同时,实现能源的绿色供应,避免加剧对气候危机的影响?这些问题仍亟待我们去回答。
美国电价上涨引发社会反弹
一个温暖的周末早晨,佐治亚州梅肯市的罗莎·杰克逊社区中心早已热闹非凡。孩子们在体育馆内奔跑;家长们和其他成年人在当地环保组织设立的展台前驻足,电台DJ正为现场观众和听众进行直播。吸引人们前来的并非宏大的气候议题,甚至也不是当地的空气质量问题,而是一场抽奖活动——300美元的奖金可用于抵扣水电费。

据《时代》周刊报道,今年以来,在佐治亚州乃至全美范围内,电费持续上涨。南方环境法律中心的分析显示,过去两年,佐治亚电力公司的居民用户月均电费已增加超过40美元。美国能源信息署数据指出,自2022年以来,全国电价涨幅已达13%,超过通货膨胀率。
推动居民电费增长的主要原因源于当地为满足数据中心用电需求新建的两座核电站超支成本及燃料费用上涨,加之今年7月破纪录的高温天气,部分用户的电费账单甚至翻倍或增至三倍。
近年来,美国电价涨幅持续高于通货膨胀率。分析指出,近期的事件仅是开端:在电力需求平稳多年之后,美国电力需求出现了持续增长,增长主要受三方面驱动:电气化普及、制造业扩张以及为训练和运行AI模型而新建的高能耗数据中心。
中美两国在人工智能领域已展开激烈竞争,AI技术高度依赖充足且廉价的电力。而美国电力供应体系及老化电网难以匹配需求增速。供应短缺与需求激增正在共同推高成本。
目前,可再生能源(包括风能和太阳能)被视为最快、最经济的电力供应方式之一。然而,特朗普政府上台后,不仅削弱了《通胀削减法案》的支持力度,还对可再生能源发展设限,这也成为近期美国电价上涨的原因之一。
预期中的电价大幅上涨可能改变民众行为。1985年以来,电价涨幅长期低于通胀率。如今,美国人开始担忧。安永公司去年调查显示,仅30%的受访者对能源成本可承受性有信心,近三分之二的人表示难以应对10%的涨幅。
上述报道指出,这种变化折射出全球气候行动叙事的重要转变:几十年来,气候倡导者一直在试图让民众认识到全球变暖及其背后的化石燃料系统的作用,但成效有限。如今,许多美国人可能首次直接感受到这一系统的影响,人们日益担忧数据中心的快速扩张对能源成本的影响。能源可负担性正成为新焦点。
电力将成为AI发展瓶颈
国际能源署预测,到2030年,全球数据中心的电力需求将翻倍,达到约945TWh,相当于日本当前的总用电量。在增长份额中,中国和美国将主导全球数据中心电力需求的上升,合计占比约80%。
长期研究AI能耗的荷兰央行金融经济学家、独立数据科学家亚历克斯·德弗里斯(Alex de Vries)向澎湃新闻(www.thepaper.cn)指出,AI正成为数字世界中最大的能耗来源之一,但对此相关的监管与透明度严重不足。
“公众常将数据中心用电与AI用电混为一谈,因为AI服务器就在数据中心内运行,从外部无法区分。真正的区别在于内部:AI服务器使用高度专业化的芯片(如英伟达、AMD等),这些芯片将内存和处理单元集成在同一封装内,以提供极高的内存带宽,满足AI工作负载对内存的巨大需求。相比之下,传统服务器(用于流媒体、云存储等)使用不同的硬件,且其性能与能耗的关系与AI‘越大越好’的范式不同。”他说。

随着聊天机器人、搜索引擎、翻译工具等AI应用正被越来越多企业和个人广泛使用。支撑这些系统的是成千上万的高性能芯片,它们提供巨大的算力,先用于训练模型,再用于日常推理。尤其是后者,每天都在大规模进行,导致AI总能耗被严重低估。
谷歌、微软、OpenAI等科技巨头对AI能耗披露极少。谷歌仅在2022年透露AI占其总能耗的10%至15%,此后未更新数据。《欧洲人工智能法案》仅要求企业报告训练阶段的能耗,而实际占大头的使用阶段的能耗却不在强制披露范围。缺乏强制报告机制使得AI的实际能耗难以追踪。
由于缺乏直接数据,德弗里斯只能通过分析AI芯片供应链来估算能耗。“已知封装总产能和单个芯片尺寸,就能计算出能生产的芯片总数,进而推算出加速器模块、服务器数量,再结合已知的服务器功耗数据,最终估算出全球AI系统的总能耗。”他将此过程类比为“已知纸张大小和名片尺寸,计算能印制多少张名片。”
根据今年5月德弗里斯在国际学术期刊《焦耳》上发表的研究,相较于其2023年的初步估算,过去两年的全球芯片生产数据显示AI的能耗增长远快于此前预期。
“2023年底,AI的电力需求已达到我的祖国荷兰全国的用电水平,占全球数据中心耗电量的20%。这一需求在2024年可能会翻番,届时AI可能占全球数据中心耗电量的一半。”他说。“即使这个惊人的数字,可能仍是保守估计。因为我对数据中心冷却系统能效(PUE)可能过于乐观(实际更耗电);对AI服务器利用率(假设为65%)的估计可能偏低。”
德弗里斯认为,短期内(1-2年)AI总能耗仍将显著增长,因为过去几年制约AI发展的主要瓶颈——芯片封装产能正在迅速扩张,例如台积电的产能每年翻番,供应正在追赶需求。
然而,下一个瓶颈将是电力供应本身。AI的耗电量已经变得如此巨大,以至于寻找能够支撑这些庞大数据中心的充足电力变得非常困难。
IEA指出,尽管全球范围内数据中心对总电力需求的推动相对有限,但由于数据中心分布高度集中,因此在某些国家影响更为显著。目前近一半的数据中心电力消耗发生在美国,25%在中国,15%在欧洲。
美国劳伦斯伯克利国家实验室分析显示,2023年美国数据中心用电占全国4%,到2028年可能升至7%至12%。在爱尔兰,数据中心用电量已占全国21%,IEA预计到2026年这一比例将达32%。在弗吉尼亚州和都柏林等地区,数据中心用电占比甚至分别达到26%和79%。
德弗里斯警告,AI的快速发展可能与气候减排目标相冲突,他呼吁企业提高透明度,以便政府制定政策,协调AI发展与可持续目标。否则,AI可能成为隐形的,不受控制的能耗与排放源。
绿色和平气候与能源项目主任吕歆表示,2020年9月之后,中国数据中心企业对可再生能源的态度出现了明显的进展,先行企业开展ESG工作,参与绿电消费;2022年,多家头部企业承诺在2030年及以前实现100%可再生能源和运营范围碳中和。目前AI算力需求激增,企业绿电消费能否走出更加陡峭的增长曲线,如期实现2030年目标值得关注。
电力需求何解?
9月25日,在纽约举行的联合国气候周上,包括微软、谷歌等全球企业巨头都同意,为飞速增长的数据中心和人工智能提供能源将是一项共同的挑战。
微软和谷歌的高管承认,他们建设数据中心的计划可能会导致增加使用化石燃料发电,尽管企业将尝试通过从其他地方购买可再生能源来减轻这种消耗的影响。
在IEA报告中,到2035年,全球数据中心电力结构将从目前约60%化石燃料转变为60%清洁能源。这一转变主要依赖全球可再生能源扩张,部分可再生能源由数据中心企业直接资助。
不过,IEA也指出,为满足数据中心需求,可能仍需扩大天然气和煤炭发电。目前,全球尚无完整的数据中心能耗或排放数据集,也缺乏政府强制报告,所有数字均为估算。
眼下煤炭仍是全球数据中心最大的电力来源,尤其在中国。同时,中国的数据中心用电量增速预计将远高于全社会用电量。北京理工大学能源与环境政策研究中心今年1月发布的《2025年中国能源经济指数研究及展望》指出,2024至2030年,全国数据中心用电量年均增速将达20%,远超全社会用电量增速。
新增的电力供应从何而来?绿色创新发展研究院(IGDP)能源转型项目主任、高级分析师李鑫迪解释说,中国数据中心多数依赖电网供电,其绿电比例取决于电网整体脱碳进度。企业可通过购买绿证或选择在可再生能源丰富地区(如云南)建立数据中心来提高绿电使用率。
为应对数据中心的电力需求挑战,中国正通过“东数西算”工程、提升“绿电”比例(力争2025年国家枢纽节点新建数据中心绿电占比达80%),以及严格能效标准(PUE降至1.5以下)等措施,推动数据中心绿色转型。

吕歆指出,中国数据中心实现大规模绿电消费正聚焦三大关键:稳定的市场价格与预期、成熟的多年期绿电交易模式和畅通的跨区跨省绿电交易渠道。近年来,得益于政策引导与机制创新,已经取得了积极进展。
针对“以绿电满足AI需求”的观点,德弗里斯认为有其局限:数据中心需全天候24小时稳定供电,而风电、光伏具有间歇性。AI数据中心同样面临备份电力依赖化石能源的问题。
他强调,当前全球尚无足够可再生能源实现100%绿电供应。AI电力需求的激增,在中短期内反而可能增加对化石燃料的依赖。
对此,吕歆认为,在新能源装机总容量较低时,企业通过参与绿电交易等方式,能够从需求侧有效促进新能源供给。伴随着更高比例的新能源接入电网,若缺乏储能等灵活性资源,新能源的消纳和利用可能成为挑战。因此,在现有基础上,持续完善市场的自调节能力、推动储能及需求侧响应等灵活性资源参与,能够助力新能源稳定供应和进一步发展。
而对于“AI可通过优化其他行业节能以抵消自身能耗”的观点,德弗里斯也持怀疑态度。他指出,目前科技公司用电需求因AI能耗大幅上升,但节能效益尚未显现,IEA2024年报告也认为这些效益目前“可忽略不计”。
德弗里斯提到“回弹效应”:即能效提升可能激发更大需求,导致总能耗不降反升。“AI本身就是典型案例:硬件与算法进步被用于构建更强大模型,推动总能耗上升。”他说。
不过,AI普及速度、能效提升等仍存在不确定性。尽管生成式AI热度高,其商业持续增长前景可能弱于预期,而更优芯片、高效算法和大型数据中心可能提升能效,抑制电力需求。
关于未来AI用电的增长趋势,李鑫迪则认为,尽管AI属于突变型技术,可能呈爆发式增长,但目前尚未有明确预测显示其会在新增电力需求中占主导地位。
总之,国际能源署表示,电力需求增长为“发达经济体”敲响了“警钟”,要求电力行业投资基础设施,否则“满足数据中心负荷增长可能需要与电气化等其他目标进行权衡”。
德弗里斯举了在欧洲发达国家中凸显电力分配机会成本的两个案例:在荷兰某地,当地电网容量饱和时,电力被优先分配给一个数据中心而非大学;在瑞典,政府对当地数据中心的电力补贴多年后取消,转而用于钢铁制造,因为当地政府认为数据中心创造的就业有限。
“当电网容量饱和时,社会将不得不思考电力资源的优先分配问题。”他说。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
我有我可以
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
157088
金币
388779
道行
20030
原创
764
奖券
263
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 18740(小时)
注册时间: 2012-06-21
最后登录: 2025-09-29
只看该作者 沙发  发表于: 6小时前
AI算力扩张引发的全球电力需求危机
人工智能技术的飞速发展正对全球电力系统构成严峻挑战。国际能源署(IEA)报告显示,当前AI已占数据中心电力消耗的5%至15%,预计到2030年这一比例将升至35%至50%,相当于日本全国当前的用电规模2。荷兰央行金融经济学家亚历克斯·德弗里斯的研究指出,2023年底AI的电力需求已达到荷兰全国用电水平,占全球数据中心耗电量的20%,2024年可能翻番并占据数据中心耗电量的一半2。高盛预测,到2030年全球数据中心用电需求将激增160%,其中约十分之一的全球电力需求增长将来自数据中心24。

AI能耗的具体表现与增长趋势
单次任务能耗惊人:ChatGPT处理一次查询的耗电量约相当于家用白炽灯点亮20秒,复杂任务能耗可能达普通搜索的近百倍2。Gartner数据显示,ChatGPT单次查询耗电量是谷歌搜索的10倍,而GPT-5的推理能耗将达前代的50倍4。
巨头企业能耗激增:2021年谷歌总能耗为18.3TWh,AI部门占比10%-15%,但研究预测其AI部门未来年耗电量可能与爱尔兰全国用电量(29.3TWh)相当2。OpenAI计划新建的五个数据中心能源消耗足以为数十万户家庭供电2。
训练阶段能耗巨大:训练GPT-4消耗的50GWh电力相当于1.2万个美国家庭年用电量,产生的二氧化碳需700万棵树才能中和4。过去五年AI大模型参数规模从千亿级跃升至百万亿级,单次训练能耗暴涨300倍4。
电力系统面临的结构性挑战
供需矛盾与成本压力
美国电力供应体系及老化电网难以匹配AI驱动的需求增速,供应短缺与需求激增共同推高成本12。2023年亚马逊、谷歌等公司数据中心占美国电力消耗的4%,预计2028年将攀升至12%3。佐治亚州因新建核电站支持数据中心导致居民月均电费两年内增加超40美元,部分用户账单甚至翻倍2。美国能源信息署数据显示,自2022年以来全国电价涨幅达13%,超过通货膨胀率2。

电网稳定性与技术瓶颈
AI数据中心用电呈现极端不稳定性,训练工作负载检查点前后几秒钟内会从峰值需求切换到最小负载,瞬时功率波动可达电网基础负荷的30%34。这种锯齿状负荷特性导致传统火电机组频繁启停,加速设备老化,同时威胁电网电压和频率稳定,10%的波动就可能损坏电子设备或触发跳闸保护3。美国德州电网运营商ERCOT已明确将AI训练任务列为电网韧性的主要挑战4。

能源转型期的双重压力
电力系统需同时应对数据中心7×24小时稳定供电需求和新能源占比提升带来的波动性挑战4。高盛预测到2030年全球可再生能源发电量增速仅为65%,远低于数据中心160%的用电需求增长4。尽管中国通过东数西算工程、提升绿电比例应对挑战,但全球范围内AI能耗监管与透明度严重不足,谷歌、微软等科技巨头对AI能耗披露极少12。

应对策略与行业变革趋势
科技巨头自主发电:亚马逊、谷歌等公司开始建设自有发电厂,使用可再生能源、燃气轮机或柴油发电机,部分计划运营核电站,并将剩余能源在批发市场出售,过去十年销售额已达27亿美元3。微软在怀俄明州建设全球首个全钒液流电池储能中心,英伟达将锂电BBU列为服务器标配4。
电网升级与成本分摊争议:俄亥俄州公共事业委员会批准为数据中心设立单独费率类别,要求支付至少85%的申请容量费用,引发科技公司上诉3。公用事业行业警告,科技公司预留容量可能远超实际使用,导致纳税人承担闲置基础设施成本3。
政策与监管应对:《欧洲人工智能法案》要求企业报告训练阶段能耗,但占大头的使用阶段能耗未纳入强制披露范围2。美国"星际之门"计划试图协调数据中心布局与电力基础设施建设,但面临电网扩展的巨大挑战2。
电力已成为AI发展的关键瓶颈,其可持续性将取决于能源结构转型速度、电网技术创新以及政策监管框架的完善程度。正如行业分析指出,算力战争的下半场本质是能源战争,AI的进化绝不能以透支地球为代价
如何不发帖就快速得到金币道行
 
我有我可以
在线jjybzxw

UID: 551814


发帖
189726
金币
442616
道行
2004
原创
2428
奖券
3015
斑龄
38
道券
1101
获奖
0
座驾
设备
摄影级
在线时间: 42362(小时)
注册时间: 2008-10-01
最后登录: 2025-09-29
只看该作者 板凳  发表于: 4小时前
是的,根据目前的研究与公开数据估算,ChatGPT处理一次典型查询的耗电量大致相当于一盏家用白炽灯(约60瓦)点亮20秒所需的电能,这个类比在数量级上是合理的。

下面我们从多个角度深入分析这一问题,以揭示其背后的能源消耗机制、技术背景与环境影响。

---

一、单次查询的能耗估算

根据多项研究(如来自麻省理工学院、伯克利AI实验室及《Joule》期刊的相关论文),运行一次中等复杂度的自然语言查询(例如:“解释相对论”或“写一首关于秋天的诗”),使用大型语言模型(如GPT-3.5或GPT-4级别)大约需要 0.3 到 1 瓦时(Wh) 的电能。

我们来做一个具体换算:

- 假设平均每次查询耗电为 0.5 瓦时(Wh)
- 一盏60瓦的白炽灯工作1小时消耗60瓦时
- 那么这盏灯点亮1分钟消耗:1瓦时
- 所以,0.5瓦时 ≈ 这盏灯点亮 30秒

> 因此,说“相当于点亮一盏白炽灯20秒”是一个保守且接近实际的比喻,尤其当查询较简单时可能更低,若涉及长文本生成或复杂推理,则可能达到40~60秒的等效照明时间。

---

二、能耗来源解析:为什么AI查询会耗电?

虽然用户只是输入一句话并等待几秒回复,但背后涉及庞大的计算资源调动。主要能耗来自以下几个环节:

1. 模型推理计算  
   每次生成回答都需要将输入通过包含数十亿参数的神经网络进行前向传播运算。这些运算在GPU或TPU集群上完成,功耗极高。例如,一块NVIDIA A100 GPU的满载功耗约为400瓦,而一次推理任务可能占用其数秒至十几秒的算力。

2. 数据中心整体开销  
   包括冷却系统、电源转换损耗、网络传输、内存调用等。据估计,AI芯片本身的能耗只占整个数据中心总能耗的30%左右,其余70%用于支持基础设施。因此,真实总能耗远高于芯片直接使用的电量。

3. 模型加载与缓存维护  
   大型模型通常保持“常驻”状态,即使没有请求也在消耗电力以维持权重加载在显存中,这部分属于“待机能耗”,摊入每一次查询成本中。

---

三、横向对比:与其他数字活动的能耗比较

| 活动 | 能耗(瓦时) | 等效白炽灯点亮时间(60W) |
|------|---------------|---------------------------|
| Google搜索一次 | ~0.3 Wh       | 18秒                      |
| ChatGPT查询一次 | ~0.5–1 Wh     | 20–60秒                   |
| 观看YouTube视频(5分钟) | ~0.7 Wh         | 42秒                      |
| 发送一封电子邮件 | ~0.03 Wh      | 1.8秒                     |

> 可见,ChatGPT的一次交互能耗显著高于传统互联网操作,接近观看一段短视频的水平。

---

四、可持续性挑战与行业应对策略

随着AI应用爆发式增长,其能源足迹正引起广泛关注。据预测,到2030年,AI可能占全球电力需求的2%以上(目前约为0.5%)。为此,业界正在采取多种措施降低单位查询能耗:

1. 模型压缩与量化技术  
   将大模型“瘦身”,如使用INT8或FP4精度替代FP32,可大幅减少计算量和能耗。

2. 稀疏化与MoE架构(Mixture of Experts)  
   如GPT-4被推测采用MoE结构,每次仅激活部分子模型,而非全部参数参与运算,从而节省能耗。

3. 绿色数据中心建设  
   微软、谷歌等公司承诺使用可再生能源供电,并采用液冷、热回收等节能技术。

4. 推理延迟优化  
   提高硬件利用率,减少响应时间,间接降低每单位任务的能耗。

---

五、未来展望:更高效AI时代的来临

尽管当前AI查询能耗较高,但发展趋势显示单位能耗正在快速下降。例如:

- GPT-2到GPT-3时代,性能提升百倍,但能效比反而有所恶化;
- 而从GPT-3到GPT-4及后续版本,厂商更加注重“推理效率”,新一代模型在保持强大能力的同时,逐步优化了能耗表现。

长远来看,随着专用AI芯片(如Apple M系列、Google TPU、Meta MTIA)、光子计算、存内计算等新技术的发展,AI的能耗有望再降低一个数量级。

---

结语

综上所述,“ChatGPT处理一次查询的耗电量相当于一盏家用白炽灯点亮20秒”这一说法不仅合理,甚至可能略微低估了复杂查询的实际能耗。它提醒我们:人工智能看似无形无耗,实则背后有巨大的能源支撑体系。未来,在追求智能进步的同时,也必须重视能效与可持续发展之间的平衡。

正如一句科技伦理中的名言所说:  
> “Every byte has a footprint.”  
> ——每一个字节,都有它的生态足迹。
如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个