“HBM之父”预言:英伟达或收购闪迪、美光等存储公司

最近,HBM(高带宽存储)之父金正浩(Kim Jung-Ho)的一句预言在半导体圈掀起波澜——他认为,AI时代的主导权,正从GPU转向存储!而英伟达(NVIDIA)未来可能会收购一家存储芯片公司,收购目标就包括闪迪(SanDisk)和美光(Micron),甚至不排除三星和海力士,但后两家难度会非常大。
对于这次预言,金正浩也给出了自己的解释,在AI时代,性能的瓶颈不再是GPU算力,而是存储带宽。随着模型规模暴涨、参数数量激增,存储的速度、功耗和容量将直接决定AI系统的上限。
“目前的GPU有60%到70%的时间,都在等待内存,处于闲置状态。”
金正浩的观点到底代表着当下芯片市场怎样的现状,这些现状未来又会怎样影响整个芯片市场呢?
HBM之父的警示:算力的瓶颈正在转移
HBM,全称“高带宽内存”(High Bandwidth Memory),由韩国科学技术院教授金正浩团队首创,金正浩也因此被认为是HBM之父。它通过将多层DRAM垂直堆叠,并以宽总线方式连接GPU核心,大幅提升了数据吞吐率。
也正因为此,金正浩对于存储芯片的预言,受到了广大的关注。
金正浩指出,AI芯片运算速度再快,如果存储无法跟上数据传输,算力就会“干渴”。这也是为什么英伟达在每一代GPU架构中,都必须重新设计与HBM的接口与功耗系统。他进一步判断,未来AI计算的瓶颈将不在GPU,而在存储。
因此,他也对未来市场做出了一个大胆的判断,“NVIDIA目前过度依赖SK海力士和三星等存储巨头,目前HBM市场中,SK海力士占据了约60%的市场份额,且产能已被预订到2026年。如果未来 HBF等新技术也被这些韩国厂商垄断,NVIDIA将持续面临“卡脖子”的风险。”
金正浩的预言并非空穴来风。
英伟达的生态版图正不断向下延伸:从GPU芯片到NVLink、NVSwitch,再到Grace Hopper超级芯片,英伟达已经把互联、算力、软件堆栈都握在手中——唯独存储芯片仍掌握在别人手里。
当前,英伟达的AI GPU主要搭配SK海力士的HBM3E和三星的HBM3产品,而下一代Blackwell及其后续平台将过渡到HBM4。随着HBM堆叠层数增加、制程精度提升,HBM的良率、封装、功耗都成了决定性能的关键环节。
而一旦HBM(以及未来可能成熟的HBF)不能在性能上满足英伟达的要求,其就会成为“木桶效应”中的短板。如果英伟达想继续主导AI计算,提升算力,它必须控制存储芯片的能力和质量。HBM不只是配件,而是决定GPU生死的“第二引擎”。一旦HBM供给短缺或良率不稳,GPU再强也只是空转。
HBM市场:从技术革命到资本狂潮
HBM原本是小众产品,但AI崛起彻底改变了市场格局。行业机构数据显示,全球HBM市场近两年高速增长,规模已达数十亿美元级别,增长率超过两倍。SK海力士、三星、美光三大巨头占据主要份额,其中海力士居首。
这波狂潮源自AI大模型的指数级需求。每一台训练系统都需要上百颗GPU,每颗GPU通常搭载多层HBM堆叠。以英伟达H100为例,单颗芯片所用HBM容量为80GB,带宽超过3TB/s。
近期,三星和SK海力士已分别宣布,将HBM价格上调至较前期最高约30%,并与客户签订长期供货协议;美光也发布了供不应求的指引。摩根士丹利的研究报告指出,DRAM价格涨势或将持续到2026年,行业可能进入类似2017–2018年的上行周期。这三大HBM巨头有着自己不同的市场现状和发力方向。
三星近月宣布,与英伟达就HBM4供货展开谈判。虽然早前在HBM3E的良率上落后SK海力士,但三星通过扩大EUV制程和新一代堆叠封装技术(如TSV结构优化)力图追赶。公司高层表示,计划在未来两年将HBM产能翻倍,以满足AI客户需求。
SK海力士的HBM3E则在英伟达供应链中占据最大的一部分。摩根士丹利曾形容其“全部产能已售罄”,并预测其存储业务利润率将接近前期高点。
而作为唯一的美系存储巨头,美光近两年在HBM领域发力显著。其HBM3E产品已获得验证,并传出进入部分AI GPU样品阶段。美光既拥有HBM技术,又掌握高端封装工艺,一旦被英伟达收购,将可在美国本土形成“GPU与存储协同”的体系,在供应安全上具有战略意义。
AI生态的微妙转折:算力融合的时代
英伟达如果真的收购美光或闪迪,这不仅仅是产业整合,更可能开启“算力融合”的新纪元。
过去二十年,芯片产业沿着“计算—存储—互联”三大支柱分工。但AI改变了逻辑——模型训练和推理的效率取决于数据路径的整体延迟,而非单一芯片性能。
金正浩预言的背后,正是对“融合架构”的判断。他认为,未来GPU与存储将通过更紧密的封装技术(如3D堆叠、Chiplet互联)实现同层集成。到那时,存储不再是外部模块,而是算力芯片的一部分。
英伟达的NVLink、Grace Hopper,以及即将推出的新一代平台,已经在试探这种趋势。GPU与HBM封装于同一基板,实现极低延迟的数据交互。若英伟达直接掌握HBM设计制造,其优化空间将大幅提升。
未来的AI芯片将更像“数据能量体”:算力、存储、互联、电源管理彼此融合,形成自适应的能效系统。HBM市场未来几年仍将保持高速增长,年复合增长率预计在20%以上。当下,存储芯片不再是配角,而是AI工业的“阿喀琉斯之踵”。