OpenAI自研芯片!GPT参与设计,开启地表最强工业梦
一、18个月的秘密任务:AI开始设计芯片
OpenAI,终于造芯了。
不是噱头,而是一场实打实的工业级实验——AI自己,参与了芯片设计。
经过长达18个月的秘密研发,OpenAI宣布与博通(Broadcom)合作,推出自研AI芯片系统。首批部署计划定在2026年下半年,目标算力——10GW。
这是一个堪比国家级电力系统的数字:
10GW,相当于纽约夏季用电高峰的两倍,也是英伟达当前最大GPU集群的数倍。换句话说,OpenAI正准备建立一座“智能发电厂”。
而真正让业界震惊的,是芯片的“共同设计师”——GPT模型。
OpenAI联合创始人格雷格·布罗克曼(Greg Brockman)透露,他们让模型参与电路布局与面积优化。AI提出的设计方案,有时连人类设计师都要花数周才能想明白。面对交付期限,他们选择了一个看似疯狂的决定:
“将我们自己的模型应用于设计这款芯片”
最终结果让团队满意:芯片面积显著缩减、性能更高、进度提前完成。
这一尝试让OpenAI意识到——AI设计AI的闭环,已经开始形成。
当模型既能训练自己,又能优化硬件,人类的研发体系将进入一个全新的循环。
二、“吃光算力”的野心:垂直整合,从原子到token
Sam Altman对OpenAI的期望是,让OpenAI掌握一切环境:
“我们能够从蚀刻晶体管,一直思考和设计到你向ChatGPT提问时输出的token。”
这句话标志着OpenAI想要进入一个新的阶段——从算法公司,变成算力帝国。
Altman的逻辑很简单:
每当你把模型效率提升10倍,用户需求就会增加20倍。
算力不是够不够的问题,而是永远不够。
因此,这次新增的10GW部署,是在英伟达和AMD合作体系上的再次叠加。
据业内估算,OpenAI的总算力储备将突破26GW,几乎相当于一个中型国家的电力系统规模。
从最初的2兆瓦训练集群,到今年底的2000兆瓦,再到未来逼近3万兆瓦——OpenAI的扩张速度,已经超越摩尔定律的节奏。
而背后的驱动力,是OpenAI想让每个人都拥有一个“24小时工作的AI代理”。
布罗克曼解释:“理想情况下,每个人都应该有一个代理在后台24/7为他们运行,但现实是,我们目前只能向Pro用户推出这类功能,因为算力是有限的。”
他们的终极目标,是让算力不再稀缺,让创造力像空气一样普及。
三、GPT6的想象:当智能再跃升30个IQ点
Altman打了个比喻:假设GPT6比GPT5再聪明30个IQ点,能连续工作几天、几周甚至几个月——那种能力带来的经济价值,将是指数级的。
这并非夸张。回顾历史,模型每一次跃迁,都会激发新的需求:
当ChatGPT学会写代码,人们开始把它当副手;
当Codex能写几小时的代码,它变成开发工具;
而未来能写几天、几周的系统,它可能就会成为整个公司的“工程师层”。
Altman的底层判断是:智能增长速度永远领先于硬件供给。
这也是OpenAI造芯的真正理由——算力瓶颈,不可能靠采购解决。
他们要彻底掌控从晶体管到思维输出的每一个环节。
四、博通的新武器:从二维到光学三维
OpenAI选择博通,不只是因为代工能力,而是因为它敢押注未来架构。
博通总裁Charlie Kawwas在发布会上提到,他们的下一件事是进入三维堆叠的Z维世界。
他透露,双方正在开发新一代“XPU”,在同一封装内堆叠多层计算模块,并将光学互联直接嵌入芯片。未来传输速率可达每秒100太字节,使集群性能与能效同步翻倍。
“我认为它将至少每六到十二个月持续翻倍。”
这意味着摩尔定律或许会以另一种方式重启。
光互联、三维封装、Chiplet堆叠——OpenAI和博通,正在合力重写芯片定义。
五、文明级赌局:10万亿美元的超级项目
布罗克曼坦言:“设计全新的芯片并在规模上交付,让整个系统端到端运行,这是天文数字级的工程。”
OpenAI今年的收入预计约为130亿美元,但要支撑这样一个体系,资金需求可能是数十倍。
据内部规划,Altman的终极目标是——到2033年建成250GW算力网络,对应的投入可能超过10万亿美元。
这不再是一家科技公司的研发计划,而是一场“智能基础设施重构工程”。
算力、电力、晶圆厂、数据中心、冷却技术……OpenAI正在建立一个以智能为核心的新型工业生态。
六、结语:AI的终极边界,不再是算法,而是能源
OpenAI造芯的意义,不在于芯片本身,而在于它象征着AI的新边界:
智能从比特,回到了原子。
从算法层,延伸到了能源与制造层。
当AI开始帮人类造计算机,当算力以GW为单位计量,人类的创新逻辑已经改变。
OpenAI的野心,已不再是“训练更大的模型”,而是——让智能成为文明的底层能源。
这是一次豪赌,也是一次必然。
因为在AI时代,真正的稀缺,不是灵感,而是电。