甲骨文豪购5万颗AMD芯片,力求摆脱英伟达依赖

10月14日,甲骨文云宣布,将在2026年第三季度开始部署5万颗AMD最新一代MI450 AI芯片,用于构建新一代AI超级集群。
消息一经宣布,就被很多人解读为,甲骨文是在故意“绕开”英伟达,摆脱对英伟达的依赖症。
为何选择AMD:摆脱单一依赖的“算力独立战”
这批芯片来自AMD的Instinct MI450系列,是其在2025年正式推出的新旗舰AI芯片。根据官方信息,MI450是AMD面向数据中心和AI训练的高端GPU系列。虽然AMD尚未公开全部技术参数,但多家技术媒体指出,MI450预计将采用CDNA家族的最新架构,并支持高带宽HBM3E显存。
根据AMD在今年6月公布的信息显示,其即将于2026年推出下一代的MI400系列加速器,将基于2nm制程,集成432GB的HBM4内存,内存带宽将达19.6TB/s,单个GPU的横向扩展带宽也将高达300GB/s,而MI400 GPU的算力将高达FP4数据格式下40PFLOPS、FP8格式下20PFLOPS。
甲骨文计划首批部署约5万颗MI450芯片,分布在全球多个云数据中心。这将构成一个可容纳大规模AI模型实例的计算网络。项目的第一阶段预计在2026年第三季度上线,随后在2027年继续扩容。
这意味着,甲骨文将一举跻身全球AI基础设施的主力阵营,与AWS、微软Azure、谷歌云形成更直接的竞争关系。更重要的是,这一动作为市场释放了明确信号:AI算力的供应格局正在变得更加多元。
过去几年,英伟达的GPU几乎垄断了AI训练市场。A100、H100等系列成为AI云厂商的首选。然而,供给紧张、成本高企成为各大厂商的共同痛点。尤其在生成式AI热潮席卷后,H100的供货周期持续拉长,价格一度大幅上涨。
甲骨文的选择,是对这种依赖的一种战略性反制。AMD近年来持续在AI芯片领域加大投入,从MI250到MI300,再到如今的MI450,产品性能逐步提升,生态也更趋成熟。同时,AMD在能效比、开放生态和价格灵活性方面具备一定优势。
更关键的是,甲骨文与AMD有长期深度合作的基础。从早期的Epyc服务器CPU到云端AI集群,双方已建立稳定的技术协同。此次合作规模之大、节奏之快,意味着双方都在押注未来五年的AI基础设施格局将发生根本转变。
甲骨文和AMD各取所需
对于甲骨文而言,这不仅是一次技术采购,更是一次产业赌注和再平衡——在AI云计算的下半场,掌握多元化芯片供应将成为新的生存底线。
长期以来,甲骨文在云计算领域被视作“后进者”。相比AWS的市场先发优势、Azure的企业渗透能力、Google Cloud的AI算法积累,甲骨文更多依赖数据库和企业软件的传统优势,市场份额也一直处于追赶者的位置。
然而,AI时代重塑了云的定义。数据、算法和算力的结合,正在决定企业的技术边界。此次大规模采购AMD芯片,标志着甲骨文正式在AI算力赛道上放下重注。
未来,这些MI450集群将成为甲骨文AI服务的基础,用于大型模型的训练、微调与推理部署。
更重要的是,这为甲骨文提供了一个“算力即服务”的商业模式扩展。面对生成式AI企业的巨大算力需求,甲骨文有望成为新的基础设施供应商,与微软、亚马逊同台竞争。
对于AMD而言,这笔订单是其AI战略的重要里程碑。在过去两年中,AMD在AI芯片市场一直努力追赶竞争对手。尽管MI300系列在2024年底赢得部分云厂商订单,但市场份额仍偏低。此次甲骨文直接下单5万颗MI450,不仅意味着巨额营收,更是对AMD技术路线的重大信任。
虽然交易金额未公布,但业内普遍认为这将显著提升AMD在AI基础设施市场的地位。在资本市场上,这一信号极具放大效应:AMD不仅证明了自己的产品具备竞争力,也显示出客户愿意押注其生态。从战略层面看,这将推动更多云厂商重新评估“非英伟达路线”的可行性。
对AI生态的连锁反应
这场合作的影响,不止于硬件采购层面。在AI训练生态中,算力、模型和框架是三大核心环节。随着AMD在算力层的崛起,AI产业的算力结构将逐渐趋向多极化。
这一趋势或将带来价格和可及性变化。过去一年,AI算力租赁价格因H100稀缺而持续上升。AMD产品的加入有望缓解这种紧张态势,为开发者提供更多选择。
虽然这一变化的具体幅度尚待观察,但显然,AI基础设施的竞争正从“性能之争”转向“生态之争”。
从长远来看,AI产业的硬件格局可能逐步走向“多芯共生”,不同架构、不同厂商的产品将共同支撑全球AI的计算需求。这对于产业创新与成本优化都具有积极意义。
甲骨文与AMD的合作揭示了一个深层趋势:AI硬件的去中心化。过去十年,AI技术栈高度集中在少数企业——硬件依赖英伟达,云依赖少数寡头。但这种集中让整个产业在供应与创新上承压。
如今,云厂商开始自建AI算力体系,芯片厂商加速推陈出新,软件生态趋向开放共建。这不仅意味着竞争,更意味着一个更健康、更高效的产业循环。