决定AI发展速度和成本的关键因素
当我们惊叹于生成式人工智能以前所未有的速度重塑世界时,公众的目光大多聚焦于算法的精妙和模型的庞大。然而在这场数字革命的背后,一场围绕着基础物理资源的争夺战早已悄然打响。算力的每一次跃升,都并非凭空产生,而是建立在对铜、铝、冷却液和电力等物质资源的巨大消耗之上。今天我们将深入探讨这场由AI驱动的、关乎物理世界基础材料的深刻变革。
铜,这种古老的金属,正成为制约AI发展的关键瓶颈。它不仅是电路连接的基础,更是高性能计算芯片赖以生存的散热命脉。
每一颗高端GPU芯片的正常运转都离不开大量的铜。以当今AI训练和推理的核心——英伟达H100 GPU为例,其内部结构极为复杂。每个GPU拥有多达3273个焊球,每个焊球背后都连接着至少1-2根铜线,用于数据和电力的传输。此外核心芯片与其他部分的连接还需要数千根铜线。在这个微观世界里,任何一根铜线的断裂或缺陷,都可能导致这颗价值数万美元的芯片瞬间报废。
随着芯片性能的指数级增长,其功耗也从几十瓦飙升至上千瓦。英伟达H100的热设计功耗(TDP)已高达700W,而其最新的GB300服务器机柜的功率密度更是达到了惊人的130kW,堪比一台小型柴油发电机。在如此高的热流密度下,传统的散热方案已然失效。只有导热性能卓越的铜,才能通过热管或均热板等形式,高效地将芯片核心产生的巨大热量迅速导出,确保其稳定运行。
然而GPU制造本身所消耗的铜,与支撑其运行的基础设施相比,只是冰山一角。真正的“吞铜巨兽”是数据中心的电力网络和其背后的公共电网。
根据施耐德电气的测算,建设一座1GW规模的数据中心,仅基础设施就需要消耗约65,800吨铜。2023年全球数据中心装机容量消耗了46.7万吨铜。随着AI需求的爆发,预计到2026年,仅数据中心建设本身的铜消耗就将攀升至71万吨。如果我们考虑到英伟达新一代GB200超级芯片的巨大出货量,其内部采用的铜缆连接方案,仅此一项每年就可能消耗数万吨铜材。
更大的挑战来自电网侧。AI的崛起正以前所未有的速度推高全球电力需求。高盛集团的报告指出,到2030年全球数据中心的电力需求预计将激增160%。这一需求增长不仅需要新建大量发电设施,更对老化的电网构成了严峻考验。目前北美电网的平均“年龄”超过40年,欧洲电网更是高达50年。这些陈旧的设施输电效率低下,难以承受AI数据中心带来的新增负荷。2024年夏季,美国13个区域电力市场中就有9个出现电力短缺,这一问题正变得日益严重。
电网升级迫在眉睫,而铜是无可替代的核心材料。铜的导电率是铝的1.6倍,电阻率极低,且使用寿命长达30-50年,远超铝制品。为了应对AI带来的电力冲击,全球范围内的电网升级改造已全面展开。瑞银预测,从2024到2030年,仅欧美地区的电网年均铜消耗量就将增长3%。高盛更大胆预测,到2030年全球电网和电力基础设施建设将贡献铜需求增长的60%。
需求飙升的另一面是供应的增长乏力。过去十年全球铜矿产量的年均复合增长率仅为2.1%。国际铜业研究组织(ICSG)在2025年10月发布的报告中,进一步下调了增长预期,预计2025年全球铜矿产量仅增长1.4%。其核心原因是全球优质铜矿资源日益枯竭,例如:全球最大的产铜国智利,其矿山平均铜品位已从2010年的1.6%下降至2024年的1.1%。
供需的严重错配,使得铜价上涨几乎成为必然。高盛预计2027年铜价将达到每吨10,750美元,而其他机构如花旗银行和美国银行则预测,由于AI、电动汽车和可再生能源的共同驱动,铜价在2025年已突破万元美元大关,并可能在未来几年创下历史新高。
铜价的飙升,自然而然地将聚光灯引向了其最主要的替代品——铝。尽管导电性和导热性不及铜,但铝凭借其显著的成本和重量优势,在AI基础设施的特定领域中扮演着至关重要的角色。
在GPU散热领域,铝是不可或缺的。高端GPU散热器上那些与空气进行热交换的密集鳍片阵列,几乎全部由铝制成。这是因为铝能够在有限体积内,以更低的成本和重量提供最大的散热表面积。以H100为例,其散热器上的铝制鳍片重量估计在300克到700克之间。在一个部署了80个GPU的服务器机柜中,若全部改用铝制散热器,总重量可减轻40-60公斤。这不仅降低了机柜的结构承重要求,更重要的是,铝制散热器的成本仅为铜制散热器的40%-50%,为大规模部署节省了巨额投资。
在电力传输领域,铝同样找到了用武之地。特别是在从变电站到数据中心楼宇,以及楼宇内部的主干电缆桥架等长距离、大电流场景下,“以铝代铜”的趋势愈发明显。虽然铝缆需要比铜缆更粗的线径来传输相同功率,但其综合成本可降低约20%,重量更是只有铜缆的三分之一。
然而铝的供应也并非高枕无忧。中国作为全球最大的铝生产国,产量占全球六成以上,但自2017年起实施的供给侧改革,为电解铝行业设定了4500万吨的产能“天花板”。截至2024年底中国电解铝产能利用率已高达97.74%,增长空间极为有限。尽管海外产能在逐步恢复和扩张,但美国银行预测,随着需求的持续增长,到2026年全球铝市场将由过剩转为约29.2万吨的供应缺口,届时价格可能攀升至每吨3000美元。
当AI芯片的功耗跨越1000W门槛,甚至向2000W迈进时,无论是铜还是铝,基于空气的传统散热方式(风冷)都已触及其物理极限。风冷散热的上限通常在每机柜15-20kW,这对于动辄上百千瓦的AI服务器机柜而言无异于杯水车薪。此时液冷技术从备选方案成为了唯一出路。
液体的散热能力远超空气。以水为例其导热系数是空气的25倍。更关键的是单位体积水的吸热能力(比热容与密度的乘积)是空气的近3500倍。这意味着通过液体循环,可以从狭小的芯片表面带走巨大的热量。
实践证明液冷技术能显著降低数据中心的能耗。相比传统风冷数据中心PUE(电源使用效率)普遍在1.6-1.8之间,采用液冷技术可以将PUE降至1.2以下。一些先进的商业案例甚至展示了更惊人的效果:一家全球金融机构将其GPU集群升级为冷板式液冷后,PUE从1.85降至1.25,每年节省420万美元的能源成本。而浸没式液冷方案,则可以将PUE降至接近完美的1.05。
液冷带来的不仅是技术革命,更是巨大的商业机遇。据预测全球液冷数据中心市场规模将从2025年的约28.4亿美元,增长到2032年的超过211.4亿美元,年复合增长率高达33.2%。
目前主流的冷板式、浸没式和喷淋式液冷技术各有优势。英伟达等芯片巨头也在积极推广其微通道液冷散热板(MLCP)等专用解决方案,其单价虽高,但散热能力是传统热管技术的4倍。
冷却液本身也形成了一个庞大市场。MarketsandMarkets预测,到2032年,全球冷却液市场规模将与液冷设备市场同步增长至211亿美元。同时受环保法规(如欧盟对PFAS物质的限制)影响,由生物基材料等制成的环保型冷却液正迎来高速增长。
液冷系统的普及,将带动包括管道、泵、阀门、监控系统等一系列配套产业的发展。
人工智能的浪潮壮阔而迅猛,但我们必须清醒地认识到,这一切都建立在坚实的物理基础之上。算力的增长,必然带来功耗的增长;功耗的增长,必然导致对铜、电网基础设施的极限施压;而散热需求的激增,则必然催生对铝、先进冷却技术和冷却材料的庞大需求。
从铜矿的品位,到电网的容量,再到冷却液的化学成分,这些看似与算法无关的物理变量,正在成为决定未来AI发展速度和成本的关键因素。对于投资者、政策制定者和行业参与者而言,理解并布局这场AI背后的“物理战争”,将是在下一轮科技浪潮中占据先机的核心所在。这场革命远比我们想象的更为“沉重”。返回搜狐,查看更多