AI服务器估值演化:冷静拆解高算力热潮
需求爆发:算力浪潮带动估值飞升
自ChatGPT引领的大模型热潮席卷全球以来,AI算力需求呈现爆发式增长,直接带动AI服务器市场进入加速扩张周期。据IDC数据显示,2024年全球人工智能服务器市场规模为1251亿美元,2025年将增至1587亿美元,2028年有望达到2227亿美元,成为整个算力产业链中最具弹性的高增长环节。
这轮增长预期正在迅速传导至二级市场,推动相关企业的估值不断抬升。然而,市场火热归火热,估值飞升背后更值得关注的是:高估值是否真的能转化为高收益?这笔账,不能只看增长率,还得看盈利质量、交付能力与毛利兑现程度。
硬件瓶颈:散热与机柜标准经受考验
面对暴涨的算力需求,AI服务器在技术层面遇到前所未有的散热与功耗瓶颈 。NVIDIA新一代GPU(代号B100/GB200)功耗将逼近1000W ,比上一代H100高出40%以上。可想而知,仅仅是一台满配8颗H100的AI服务器, 光GPU功耗就超过5.6kW ,这还不包括CPU、内存等其他部件发热。既然传统风冷难以为继,液冷 正在成为必选项。而机房机柜的设计上限分别为:风冷单柜散热15kW ,而采用液冷单柜上限30kW以上 。显然如果不升级散热方案,现有机柜标准难以承载这种功率密度 。而传统数据中心的承重、供电和空调标准,还尚未为液冷做好准备。机柜本身的承重和布局需要被重新设计,以便 容纳冷板、冷却液管路等附加重量和体积。
与传统服务器相比,AI服务器在以下方面提出全新挑战:
- 功耗激增:传统双路服务器CPU峰值功耗不过几百瓦,而一台AI训练服务器往往集成8颗GPU,单机功耗飙升至数千瓦 量级。这使得供电和散热负荷大幅提高。
- 散热升级:风冷散热逐渐触顶。AI服务器整机功率远超风冷极限,需要液冷冷板 等技术来有效导出热量。2024年被视为液冷散热放量元年 ,未来液冷有望从高性能计算领域向更多数据中心普及。
- 机柜改造:高功率带来高热密度 和高重量 。传统19英寸机柜和地板承重可能无法直接适应集中液冷设备。机柜标准需升级 (如引入OCP开放计算机架、电源母排直供、加强承重等)以满足AI硬件部署需求。
- 组件规格变化:AI服务器多采用GPU加速卡模块(OAM) 、高速互联(如NVLink)、HBM高带宽内存等新部件,对主板PCB、电源和散热结构提出了特殊要求。整机设计更复杂,供应链协调更难。
上述挑战意味着,并非所有服务器厂商都能轻松跟上这轮技术升级。散热和结构设计能力 ,将成为AI服务器玩家能否胜出的关键因素。戴尔COO就直言,下代GPU散热将考验整机厂的工程功力,他们已准备好通过液冷、大功率供电设计来大规模应对这一挑战。换言之,能否搞定“散热+供电”这道坎,将直接决定AI服务器厂商的生死存亡 。如今多数传统数据中心尚在摸索液冷改造的成本效益,但随着PUE能效要求日趋严格,液冷大势已不可逆。换句话说,谁先解决了散热瓶颈,谁就有机会在新一轮行业竞赛中,抢到先机。
毛利现状:GPU吞噬行业利润蛋糕
高昂的价格和炙手可热的需求,并没有为整机厂商带来想象中的厚利。拆解一台AI服务器的成本结构,我们发现GPU等核心加速卡约占整机成本的70~75% ——也就是说,大半收益被上游芯片厂商拿走了。整机厂商拿到的只是“卖水”的微利,这一点从各大厂财报可见一斑:
- ODM代工厂毛利率低迷:根据最新的财报可以看到,部分公司 均因AI服务器出货占比提升,而导致毛利率同比下滑,可见AI服务器订单在账面拉高收入的同时,还摊薄了实实在在的利润 。
- 品牌厂商相对较高: 品牌厂由于附加了软件、服务和品牌溢价,单机利润空间比ODM代工模式大。然而即便如此,随着AI服务器销量占比上升,戴尔和HPE的毛利率也呈现下滑趋势。戴尔预警称,2026财年毛利率将承压,主要因为高性能AI服务器“烧钱”的生产成本 侵蚀了利润。
- 毛利陷阱解析:传统ODM整机组装多采用“buy and sell”模式——由客户(云厂商)直接采购GPU等关键部件,转卖给ODM组装后,再由ODM整机卖回客户。在这种模式下,订单金额被GPU的高价大幅抬高,但ODM从中获取的固定组装费用并未同比例提升,导致营收做大而毛利率摊薄。例如,Supermicro近年大举进军超大规模云客户,就是走了这条路,结果毛利率快速向ODM水准下滑。 广达的策略则有所不同:其AI服务器出货量大增至整体的一半以上,但通过汇率收益和低单价Chromebook业务占比降低等因素,对冲了部分毛利率压力。即便如此,广达也坦言高单价AI服务器出货增加会让毛利率承压。 纬颖(纬创旗下)干脆采用“consign”寄售模式——客户自购核心零件后交由纬颖组装,这样巨额GPU成本不体现在纬颖营收里,毛利率反而保持相对平稳。另外,纬创本身还有相当比重的业务在GPU模块代工 (而非整机),这类模块单价低一些,毛利率反而高于整机。
可以看出,AI服务器业务本质上是一场“毛利率之战” :上游NVIDIA等掌握定价权,吃掉了大部分利润蛋糕,下游整机厂商则通过调整模式勉力维持薄利。值得注意的是,对于广达、纬创等ODM而言,哪怕AI服务器毛利率只有个位数,也好过笔记本代工业务 的微利。随着它们业务从传统PC转向服务器,整体毛利率较之前反而有所改善。换句话说,薄利多销仍然可以带来利润总额的增长 ,只是利润率指标不好看而已。正因如此,一些厂商甘愿“以价换量”追求市占,只不过,投资者未必买账:资本市场更青睐那些既有增长又能守住利润率的玩家。
资本冷思考:高估值下的隐忧与变局
目前来看,资本市场对AI服务器板块呈现冷热分化 :具备核心技术和客户壁垒的公司继续受到青睐,而纯粹拼装代工模式的厂商估值则趋于理性甚至受压。一个典型例子是戴尔,凭借多年深耕企业级市场的工程实力,成功获得了大模型时代的大额订单:不仅与马斯克的xAI签下50亿美元合同,还拿下了CoreWeave的大单。高盛在实地调研戴尔总部后,对其供应链执行力和液冷散热等工程实力 高度认可,指出戴尔AI服务器目前积压订单高达144亿美元 ,需求强劲。高盛随后上调了戴尔目标价并维持“买入”评级。显然,市场相信“硬件实力+客户资源”能帮助戴尔在薄利时代仍获得可观的绝对利润。而另一方面,一些缺乏技术护城河、纯靠堆料抢单的厂商,股价则逐渐回吐早前涨幅。毕竟,当行业进入拼真刀实枪的阶段,投资者更看重的是赚钱能力而非单纯故事 。
值得一提的是,云计算巨头的采购模式变化正深刻影响竞争格局 。大型云厂商(微软、谷歌、亚马逊等)越来越倾向于ODM直采定制服务器。这使得富士康、广达等代工厂直接受益,甚至取代戴尔等成为最大供应商。ODM模式下业绩增长能否支撑高估值,取决于未来几个季度利润兑现的质量 。如果只有营收狂飙、利润薄如刀片,那市值恐怕难以做出积极反馈。
结论:聚焦优势玩家
AI服务器的结构性高景气毋庸置疑,但价值链的天平正向上游倾斜,整机厂商整体面临被GPU供应商挤压利润的困境 。这意味着,投资这一板块需要比以往更加挑剔。对于掌握核心散热、电源技术 、深度绑定GPU供应链、拥有大客户定制优势 的龙头企业,AI服务器热潮依然是值得参与的做多机会 ——它们有望凭借规模和技术优势,在毛利率低的情况下依然取得绝对利润 的可观增长。这部分公司将继续享受算力时代的红利,其估值有望随着业绩兑现而巩固。
但是,对于缺乏护城河、纯粹堆砌硬件跑量 的跟风者,还是要保持警惕。GPU等核心器件的垄断地位使这类厂商很难获取超额利润,哪怕短期订单爆棚,长期看也可能陷入规模越大、毛利越薄 的窘境。这部分玩家的估值想象空间实际上已被压缩到边缘。AI服务器产业的蛋糕在做大,但大头早已被GPU巨头分走 ,留给整机厂的只是刀刃上的薄利。因此,资本最终不会盲目赋予所有相关公司以泡沫估值,而还会按照各自的长期盈利模式和技术含量,来重新进行理性的定价。
冷静下来审视 ,AI服务器作为算力基建的长线机会依然存在,但投资的重点应放在那些能够提升效率、控制成本、提供差异化价值 的企业上。展望未来,随着液冷技术逐步成熟、行业标准趋于统一,整机厂的利润率或有企稳回升的机会。但在此之前,我们更可能看到的是行业内部的分化洗牌 :强者恒强,弱者出局。
毕竟,散热能冷却情绪,成本更能揭示真相——唯有看清利润格局,才能抓住投资真机。