预见

英伟达主光圈外,谷歌AI生态悄然成形

原文链接: https://www.yjnt111.top/article/1089

英伟达在台上抢尽风头,而谷歌在后台悄悄造出了一整片“气候系统”。

当你回头一看,会发现它在AI基础设施的布局,已经没有任何公司能追得上。

一、Ironwood:AI推理时代的“算力标杆”

2025年4月,谷歌发布了第七代自研张量处理单元(TPU)——Ironwood 。 2025 年 11 月 6 日 (美国时间),谷歌正式宣布 Ironwood 将在 “未来数周内”(coming weeks) 全面商用,这是谷歌首次明确给出该芯片的商用时间表。

这颗芯片的规格几乎刷新了业界认知:单颗算力达4614 TFLOPS(FP8精度),搭载192GB HBM3E内存,带宽高达7.37 TB/s ,与上一代TPU v5p相比性能提升十倍。

对于云端客户,Ironwood提供两种配置:256颗与9216颗芯片版本。后者即一个完整的TPU Pod,总算力达到 42.5 ExaFLOPS 。相比之下,英伟达目前主推的GB300 NVL72系统只有 0.36 ExaFLOPS 。(此对比基于 2025 年 11 月初公开的官方数据,适用于特定 FP8 计算场景。)

这意味着在大规模推理任务中,谷歌的系统性能已超过英伟达一个数量级。

Ironwood的设计目标很明确:降低AI推理阶段的总拥有成本(TCO)

谷歌CEO劈柴(Sundar Pichai)在发布会上直言,Ironwood的能效是上一代Trillium(TPU v6)的两倍。它的架构围绕“专用化”理念打造——牺牲通用性换取极致效率。

在大模型进入“推理时代”的今天,Ironwood的定位也非常清晰:

Trillium(v6)负责训练,Ironwood负责推理,两者形成“资本支出—运营支出”的内循环。

二、TPU十年:从救火项目到系统哲学

谷歌TPU的发展是一部典型的“危机驱动创新”史。

2013年,公司内部意识到神经网络的计算需求将迫使数据中心规模翻倍。那意味着巨额电力成本和运营风险。于是,一个小团队在15个月内“急行军”造出了TPU v1。

这颗28nm工艺、功耗仅40W的芯片,当年就为AlphaGo提供算力支持。它的能效比(TOPS/W)比CPU和GPU高出30至80倍。

谷歌第一次意识到:在大规模推理场景下,通用芯片不是答案。

随后的每一代TPU,都围绕两个核心命题演化:

一是算力密度的极限 ;二是系统集成的规模

·TPU v2(2017) :引入bfloat16格式,实现从推理到训练的跃迁。

·TPU v3(2018) :首次采用液冷,单Pod扩展至1024颗芯片。

·TPU v4(2021) :v4 Pod 在规模化时“每芯片互连带宽”较其它网络技术高 10倍,与英伟达A100并驾齐驱。

·TPU v5(2023) :分为v5e(高效型)与v5p(性能型),为Gemini 1.0提供训练支撑。

·TPU v6 Trillium(2024) :性能达918TFLOPS,引入SparseCore专核,应对Transformer与MoE模型的计算瓶颈。

到了Ironwood(v7),谷歌完成了一个闭环:

从训练到推理、从模型到云端、从芯片到系统——TPU已不再是一颗芯片,而是一种基础设施哲学。

三、造芯之外:CPU与虚拟机的另一面

很多人只关注谷歌的TPU,却忽略了它同时在CPU领域也有动作。

2025年,谷歌推出了自研的 Axion CPU  ——一颗基于Arm架构的通用处理器,面向云端的日常计算任务。

围绕这颗芯片,谷歌发布了两款新产品:

·Axion虚拟机(N4A) :价格性能比比同代x86虚拟机高出一倍;

·Axion裸金属实例(C4A) :提供专属物理服务器,适配Android开发、车载系统与模拟计算等高一致性任务。

表面看,这只是CPU产品线的延伸;但本质上,它是谷歌完善自身“云计算底座”的关键一步。

在AI算力的金字塔中,TPU是塔尖,而CPU是塔基。

前者决定算力峰值,后者决定资源效率。两者合起来,才是谷歌真正意义上的“AI基础设施自给自足”。

四、从芯片到生态:AI Hypercomputer

当英伟达以显卡堆叠定义“算力”,谷歌则在构建一个自我循环的“气候系统”。

这个体系有一个名字:AI Hypercomputer

它不仅是数据中心架构的整合,更是一种从芯片—模型—云—生态的闭环逻辑。

在这一逻辑下,谷歌的AI算力不再通过单纯销售硬件获利,而是通过生态放大

2025年10月,Anthropic宣布扩大合作,获得高达100万个TPU芯片 的使用权,合同价值数百亿美元,对应超过1吉瓦算力容量

Anthropic、Cohere、Character.AI、Essential AI——

这些名字在外界看来是独立的AI公司,但它们在算力和模型底座上,都深度绑定谷歌的TPU集群和Gemini家族。

这背后,是谷歌 quietly 建立的 AI Infrastructure Fund(AI基础设施基金)

它的模式并非传统投资,而更像是“算力换股权”的生态融资:

谷歌以TPU资源和云服务为筹码,投资早期AI公司,反过来再扩大自身生态的算力需求。

结果是,一个自我繁殖的生态循环 诞生了:

谷歌训练Gemini → 提供TPU算力 → 投资使用TPU的创业公司 → 创业公司回流算力需求 → 谷歌获得回报与数据积累。

这就是谷歌真正的护城河。

不是性能领先的某一代TPU,也不是Gemini的参数量,而是一个可以不断进化的系统。

结语:在光照之外

过去十年,全球AI产业的聚光灯几乎都照在英伟达身上。

但在聚光之外,谷歌已经悄悄构筑了自己的“算力大陆架”。

它从TPU v1的救火实验,走到了Ironwood的成熟生态;

从单一芯片制造商,变成了一个拥有数据、算法、硬件、云服务与资本的全栈AI公司

在未来的几年里,当市场还在讨论GPU供需、HBM价格和AI服务器出货量时,谷歌的TPU体系将继续以一种低调但稳健的方式扩张。

它不是在追逐潮流,而是在重写基础设施的定义

这或许正是谷歌的风格:

当别人在点亮灯光,它早已在设计电网。

© 2025 预见 - 用冷静的智慧预见下一个未知

京ICP备2025144713号-1

主体备案单位:北京预见花开网络科技有限公司

微信扫码分享
微信扫码分享本文