不想依赖谷歌Gemini?苹果将推自研万亿参数大模型

就在和谷歌AI签订每年10亿美元的合作订单后的不到一周,苹果就宣布了自己新AI大模型的计划。近期《Power On》报道称,苹果计划最早明年推出完全由内部团队打造的Apple Intelligence大模型,其参数达到了1万亿。
此前苹果签下的谷歌 Gemini 模型参数达到 1.2 万亿,而目前基于云的 Apple Intelligence 模型大约只有1500亿的参数水平。
这次推出的大模型,能否改变苹果在AI大模型上落后的局面呢?
从Siri时代领先到AI时代落后
十多年前,Siri首次亮相时,苹果定义了语音助手的雏形。但十年后的今天,Siri已被时代抛离。相比ChatGPT、Gemini、Claude这类持续进化的模型,Siri显得相形见绌。
苹果内部对此心知肚明,也正因此,才有了苹果与谷歌合作,用Gemini增强Siri的想法。
而即将推出的参数规模高达1万亿级别的新模型,是苹果AI技术的最大突破,其参数规模已经堪比OpenAI GPT-4 Turbo或Google Gemini 1.5 Pro的量级。
在过去的三年里,生成式AI彻底改变了科技产业的竞争格局。OpenAI与微软牢牢占据上风,谷歌奋力追赶,亚马逊、Meta也在投入巨额预算。苹果虽然几乎是最后一个入局的巨头,却也有着自己的优势。
首先就是用户生态的巨大基数。苹果现有全球活跃设备约23亿台,用户数量庞大。任何AI能力,只要嵌入系统级更新,都能在短时间内触达上亿用户。这种分发能力,是任何云端AI公司都无法比拟的。
其次是硬件算力的积累已到临界点。过去三年,苹果持续迭代自研芯片——从M1到M4、从A14到A18 Pro。尤其A18 Pro搭载的神经网络引擎(NPU)较上一代显著增强,足以运行部分大型模型的本地推理。这意味着苹果不必完全依赖云端GPU集群,可以在终端侧实现低延迟的AI体验。
技术架构:从端到云的整合实验
Apple Intelligence并非孤立模型,而是一个分层体系。苹果内部人士称之为“端-云融合AI架构”(Edge + Cloud Hybrid AI)。
在这个体系中,轻量模型负责本地推理,如语音识别、命令理解、文本摘要;而大型模型则部署在Apple Data Cloud,用于复杂推理与内容生成。两者通过加密通道实时联动,用户请求根据敏感度与算力需求自动分流。
苹果在全球的数据中心为这一模型提供算力支撑。媒体报道显示,苹果正在扩展云端基础设施,为Private Cloud Compute(PCC)架构提供更多算力资源。
Apple Intelligence最大的优势,不在算法,而在生态。
在苹果体系里,每一个设备都是数据节点。手表收集健康数据,手机记录行为习惯,Mac承载生产力场景,Vision Pro拓展空间计算。苹果正试图让AI成为这些设备的“共通语言”。
举个例子:用户在Mac上编辑文档,AI能自动联想iPhone中的照片或邮件附件,并生成封面图;用户在Apple Watch上检测到心率异常,AI会结合Health App数据生成健康报告;而在Vision Pro中,Apple Intelligence可实时理解空间内容,进行多模态分析与语义检索。
竞争格局:苹果的挑战与优势
分析机构认为,随着Apple Intelligence落地,苹果的AI功能将推动服务与硬件协同增长,带动高端iPhone与Mac的出货回升。
未来,苹果可能进一步推出多模态统一模型,融合视觉、语音、文本、空间感知能力,形成完整的数字助理体系。Vision Pro有望成为AI交互的前沿试验场,而iPhone仍是最大规模的分发入口。
从性能角度看,1万亿参数的模型在理论上与GPT-4级别相当,但训练成本巨大,至少需大量高端GPU或自研加速芯片支撑。苹果尚未公布具体训练时间与能耗数据,外界推测其AI团队仍在进行分布式优化。
从策略上看,苹果坚持“隐私优先”,拒绝大规模收集用户数据。相比依赖云端日志的OpenAI和谷歌,这是一种更克制但成本更高的路线。不过,苹果拥有强大的离线语料来源——Siri日志、系统交互记录、App Store行为数据——这些足以支持模型在自有生态内持续学习。