大摩最新研报:AI硬件领域的投资逻辑变了
过去两年,市场把注意力几乎全部给了上游算力芯片与先进封装:谁拿到更多加速卡、谁拥有更高的封装产能,谁就能率先起跑。但版图正在悄悄改写。
摩根士丹利最新研报指出:芯片制造和封装环节通过大规模扩产,已不再是制约AI发展的核心矛盾。真正的瓶颈,向下游转移至数据中心空间、电力、液冷、HBM、服务器机架和光模块等配套基础设施上。未来,无法获得足够电力和物理空间的数据中心,将在AI算力竞赛中掉队。
一、电力不够了
过去一年,台积电、三星、英特尔都在扩大先进封装产能。摩根士丹利的追踪数据显示,2026年全球CoWoS总需求将达到115.4万片晶圆,同比增长70%,但供应端的快速响应能力已显著增强。英伟达、博通、AMD、AWS 等主流买家已提前锁定订单。短期“封装荒”得到缓解,GPU 供应紧张的峰值已经过去。
但问题在于:算力堆上去了,电从哪来?
在高热流密度的液冷场景,单机架功率已进入 60–120 kW 区间;以 GB300 NVL72 等系统为例,工程设计约 120 kW / rack。面向更大规模集群,业界正按 Pod 或 机房级 规划 数百千瓦至兆瓦级 的容量,配电结构、变电容量与短时压降容忍度成为关键约束。
据 IEA 《Electricity 2024》报告,2022 年全球数据中心耗电约 460 TWh,基线情景下 2026 年可能超过 1 000 TWh,增幅接近翻倍。随着算力扩张,电力供应与配网能力正成为 AI 产业新的底层瓶颈。
二、液冷:AI时代的“新水电”
在 50 千瓦/柜以上的高热流密度场景,传统风冷已难以为继。于是,液冷逐渐成为高密度 AI 机架的优选冷却方案。OCP(开放计算项目)大会透露,液冷已成为新AI机架的默认配置。
液冷的意义不只在于节能。它代表着算力密度的可持续性:
在风冷机房里,GPU 集群往往受限于散热瓶颈而无法“满载”;
液冷方案则可以让机柜上架率显著提升,运行温度更稳定,能效(PUE)显著下降。
三、内存与光互连:数据流的瓶颈
当算力提升速度远高于带宽扩展速度,新的“塞车点”出现了。
摩根士丹利预测,到2026年,全球HBM消耗量将高达260亿GB,其中英伟达一家就将消耗54%的份额。
这预示着,HBM(高带宽内存)将成为未来的核心约束:需求激增但产能释放有限,尤其是 HBM3 与 HBM3e 的良率问题,仍是多家芯片厂的短板。
在训练与推理环节,带宽不足不仅意味着速度下降,还会造成 GPU 间通信不稳定、集群利用率下滑。
这让内存、交换芯片、光模块形成“命运共同体”:缺一不可。
四、机架与工程:从产品到系统的演化
算力中心的竞争,正在从“单点性能”转向“系统一致性”。
不同于芯片制造追求的规模经济,AI 数据中心的建设更像是一场系统工程:从机架布线、供回液接口、稳压模块,到网络拓扑与测试验收流程,每一个环节的标准化都决定了集群能否被快速复制与扩展。任何非标准化的“临时拼接”,都可能在大规模部署时造成数倍的成本浪费。
行业内逐步形成共识:未来的领先者,不一定拥有性能最强的单芯片,而是拥有更高系统稳定性与可复制效率。因此,工程管理、系统集成与运维能力,正成为数据中心的新核心竞争力。
五、结语:AI的极限,正在被能源定义
AI 芯片不再是孤立的“智力游戏”,它需要一个能量、散热、带宽与工程协同的物理底座。
这场竞争不再是谁的 GPU 更快,而是谁能稳定、可持续地把算力转化为服务能力。
这不仅是技术路线的更替,更是产业逻辑的再平衡。
AI 的真正壁垒,正从算法与晶体管,转向电力与系统工程。