预见

高通推出AI芯片,数据中心战场正面挑战英伟达

原文链接: https://www.yjnt111.top/article/923

高通的动作终于落地。在全球AI芯片赛道高速狂奔的当下,这家以移动处理器闻名的企业,正式把手伸进了最烧钱、也最关键的领域——数据中心。

10月27日,高通宣布推出两款全新AI芯片——AI200AI250 ,旨在直接挑战英伟达在AI算力市场的主导地位。消息发布后,公司股价一度飙升超20%,收盘仍大涨约11%,创下2019年以来最大单日涨幅。

根据公开信息,AI200AI250 预计分别将于2026年和2027年 正式投入商用。它们主要面向生成式AI和推理任务,强调大内存容量高能效比 、以及性价比优势

高通首席执行官在发布会上表示,这两款芯片的目标是“让更多企业能够以更低成本部署AI模型”,同时填补高性能计算与节能之间的空白。

外媒普遍认为,这一布局标志着高通从移动SoC制造商向AI基础算力供应商转型的重要一步。

AI200和AI250技术细节:性能、定位和优势

高通AI200和AI250的设计核心,在于能效优化和内存带宽提升。

虽然公司尚未披露完整技术规格,但根据多家科技媒体报道,这两款芯片基于高通最新的定制AI引擎架构 ,搭载大量向量化处理单元,专为AI推理任务 优化。

尤其在内存设计上,高通采用了片上大容量内存整合方案 ,AI200单卡支持高达768GB的****LPDDR内存(低功耗动态随机存取存储器) 。作为对比,英伟达最新的GB300每个GPU配备288GB的HBM3e内存。高通强调,这款芯片侧重于推理(运行AI模型),而不是训练。 可显著提升数据吞吐速度,减少延迟瓶颈。

而2027年上市的AI250解决方案将首发一种基于“近存储计算(near-memorycomputing)”的创新内存架构,为AI推理工作负载带来“跨代的效率与性能飞跃” 。高通声称,这款芯片在有效内存带宽方面提升超过10倍,同时显著降低功耗。

从市场定位来看,高通并不打算在极致算力上硬拼英伟达的H100或GB300,而是选择从推理能力切入,在内存容量,功耗效率和成本端寻找突破口

AI200和AI250更倾向于为中大型数据中心提供更可控的部署方案 ,在AI推理任务中实现接近旗舰GPU的性能,同时能耗更低。

业内人士将其与英伟达A100/H100以及AMDMI300系列进行了简单对比:

英伟达的H100在浮点运算性能和CUDA生态上仍然无可撼动,AMD的MI300凭借Chiplet架构和HBM3内存也在迅速追赶,而高通的AI200系列强调的是每瓦性能 ,在相同功耗下可提供更高推理效率。

发挥优势,与英伟达的博弈

过去十年,高通在移动端芯片市场建立了坚实的地位。但随着智能手机市场趋于饱和,其增长曲线日益平缓。AI的爆发,给高通提供了重新定义自身角色的契机。

此次进军数据中心,实际上是高通在“AI基础设施化”浪潮下的主动转型。不同于移动芯片业务的高毛利与封闭生态,数据中心市场更开放、更残酷,也更具规模效应。

AI芯片市场正快速增长,而高通早已摩拳擦掌,跃跃欲试。

但英伟达几乎定义了AI算力的“标准”。从GPU生态、CUDA平台,到AI模型训练的主流框架,都深深绑定在它的体系之中。高通想要撬动这个格局,难度可想而知。

所以高通决定利用自身优势,扬长避短也就可以理解了。

一是成本控制。高通在移动芯片时代形成了高效的设计制造体系 ,拥有深厚的代工与供应链资源。

二是能效领先。长期的移动端积累让高通在低功耗计算与异构调度 上有独特经验。

三是客户基础。高通在全球运营商、OEM厂商、以及汽车计算平台上拥有广泛合作关系,这为其AI芯片提供了天然的落地渠道。

目前,英伟达面临的最大问题是供货紧张与成本压力。AI芯片价格高昂,算力集群投入巨大。高通希望通过更灵活、更经济的方案,切入那些“预算有限”的中小型AI企业与云厂商市场。

当然,生态仍是高通最大的短板。目前的资料显示,高通正在打造自身AI软件框架,但尚无详细披露。生态体系的成熟仍需时间。

从挑战者到共生者

多家媒体指出,高通的入场让“AI芯片市场竞争加剧”的可能性提升。英伟达的垄断地位或许不会立刻动摇,但在中端市场,高通的AI200系列可能会成为许多云计算企业的现实选择。

与此同时,AMD也在加速推出MI400系列,英特尔的Gaudi3正在争夺推理领域的份额。AI芯片之战,正从性能比拼转向“成本+能效+生态”的综合较量,这场大战才刚刚开始。

© 2025 AI资讯 - 用冷静的智慧预见下一个未知

京ICP备2025144713号-1

主体备案单位:北京预见花开网络科技有限公司