AIGC宇宙 AIGC宇宙

OpenAI要抛弃英伟达?紧急辟谣:转向谷歌TPU是乌龙,根本无部署计划!满血版芯片谷歌自留,OpenAI被迫搞自研今年就流片!

编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto)“OpenAI转向谷歌芯片”? 这事恐怕真被大家误会了。 几天前,路透社爆出猛料——知情人士称,OpenAI 已经开始租用谷歌的 AI 芯片 TPU,用来支撑 ChatGPT 和其他产品的运行。

编辑 | 伊风

出品 | 51CTO技术栈(微信号:blog51cto)

“OpenAI转向谷歌芯片”?这事恐怕真被大家误会了。

几天前,路透社爆出猛料——知情人士称,OpenAI 已经开始租用谷歌的 AI 芯片 TPU,用来支撑 ChatGPT 和其他产品的运行。这意味着 OpenAI 将首次在大规模业务中启用非英伟达的 AI 芯片。

这消息一出,立刻引发轰动——

OpenAI 不是英伟达 GPU 最大买家之一吗?现在突然“投奔”谷歌?

是不是意味着,AI 战争的芯片格局要变了?

图片图片

但事情很快来了个急转弯——

仅仅过了三天,OpenAI 就跳出来澄清了:

目前没有任何计划部署谷歌芯片!

图片图片

为什么会有这样的反转呢?

1.OpenAI回应:无计划,租用只是测试

先说结论:OpenAI 的确租了谷歌的 TPU 芯片,但并非“转向”。

OpenAI 发言人周日向媒体表示,当前确实在测试谷歌的张量处理单元(TPU),但强调“这只是早期尝试”,目前没有在大规模部署这些芯片的计划。

这一说法,等于直接否定了“全面转向谷歌芯片”的传闻。

事实上,在 AI 实验室中测试不同芯片是一种常规操作。但从测试到真正落地,距离可不小:这不仅涉及硬件本身的适配,还包括软件框架、编译链乃至整个部署架构的重建,动辄耗时数月甚至一年以上。

因此,OpenAI的算力主力,在很长一段时间仍然是英伟达的GPU。

2.OpenAI 的真实刚需:不是“转向”,而是“压价”

虽然这场“芯片风波”看起来像是一场乌龙,但仔细看就会发现:OpenAI 并不是在转向谷歌,而是在施压英伟达。

Sam Altman 领导的公司,当前最核心的需求其实很现实——降低推理成本、掌握算力议价权。

据《The Information》报道,OpenAI 正通过谷歌云租用 TPU,用于测试模型推理任务。这并非临时起意,而是为了寻找一个更具性价比的选项,作为 GPU 的潜在补充甚至是谈判筹码。

同样的,OpenAI 还在逐步减少对微软 Azure 数据中心的依赖。作为投资方,微软为 OpenAI 提供了训练基础设施,但在实际推理阶段,OpenAI 近年来已大量采购 CoreWeave 等第三方 GPU 云服务商的资源,显示出其“云平台去中心化”的趋势。

OpenAI用一场乌龙透露自己的底牌:英伟达和微软都不是自己的唯一选择。

3.谷歌“留一手”——最强满血版TPU并未租给 OpenAI 

有趣的是,作为提供算力的一方,谷歌的生态位并不像英伟达那么单纯。

作为AI巨头之一,他们和OpenAI展开正面竞争——而且近来的势头非常凶猛:

旗舰模型 Gemini 2.5 Pro 表现出色,性价比拉满;刚刚推出的 Gemini CLI 更是直接和 OpenAI 家的编程工具 Codex打擂台。

正因为复杂的竞争局面,谷歌根本不敢拿最顶的算力租给OpenAI。

据《The Information》援引谷歌云内部员工的说法,谷歌虽然向 OpenAI 提供了部分 TPU 资源,但明确没有开放其最强性能的“满血版”TPU。

这一细节很关键:哪怕 OpenAI 真想转向谷歌,也无法获得最优解。而 Altman 也绝不会看不穿这点——

对 OpenAI 来说,真正的最优策略,永远是左右横跳、压价博弈,而不是彻底投向另一家巨头的怀抱。

当然了,还有一个最优解还有另一个答案,就是走向自研。

4.还有后招,OpenAI自研AI芯片将于年底前流片

除了测试谷歌的 TPU,OpenAI 也没停下自研芯片的脚步。

预计今年内,该公司将完成首款 AI 芯片的“流片(tape-out)”——即芯片设计定稿并送往台积电生产,目标是在 2026 年实现大规模制造。

这颗芯片将采用脉动阵列(systolic array)架构,适合处理大规模矩阵计算任务,并配备高带宽内存(HBM),但暂不确定是 HBM3E 还是更新一代的 HBM4。制程方面,OpenAI 将使用台积电成熟的 N3 系列(3nm)工艺。

该架构的技术原理,是由大量相同的处理单元(用于矩阵或向量运算)构成网格,它们以管道式传输方式进行高速数据处理。脉动阵列的优势在于定制化、低延迟、高吞吐、能效比高,非常适合 推理(inference) 阶段。

综上所述,OpenAI的这款芯片在结构思路上就是向 TPU 学习,而非模仿英伟达 GPU。

整个项目由前谷歌 TPU 核心工程师 Richard Ho 负责,目前团队规模大约为 40 人,虽然相比 AWS、谷歌那几百人的自研芯片团队还远远不够。

图片图片

当然,造一颗高性能 AI 芯片远不止“画出图纸”这么简单。行业普遍估算,一个完整的芯片项目成本高达数亿美元,如果再加上配套的软件栈、编译器、测试平台,整体投入可能翻倍。

但一旦架构搭好,边际成本会随每一代产品迅速下降。

OpenAI 若能在今年内成功流片,最快将在 2026 年中小批量量产,并于明年年底前投入部署。

今天刚好是 2025 年下半年的第一天。

 Altman 的芯片 KPI 能如期完成吗?

OpenAI 自研芯片,有可能撼动英伟达的霸主地位吗?

相关资讯

OpenAI:正对谷歌 TPU 进行早期测试,暂无大规模部署计划

AI 硬件从实验室测试到大规模商用部署间仍有一段路要走。OpenAI 也在开发自研 AI ASIC。
7/1/2025 10:27:05 AM
溯波(实习)

奥特曼筹数十亿美元建全球晶圆厂网络,自造AI芯片

可以低成本代替英伟达?据彭博社消息,OpenAI CEO 萨姆・奥特曼(Sam Altman)近日再次为一家人工智能芯片企业筹集了数十亿美元的资金,希望建立一个范围覆盖全球的晶圆厂「企业网络(network of factories)」,并计划与未具名的顶级芯片制造商合作。报道称,奥特曼已与几家大型潜在投资者进行了谈判,希望能筹集到晶圆厂所需的巨额资金。在生成式 AI 快速爆发的时代,运行 AI 模型面临的主要困难是算力限制。在 ChatGPT 、 DALL-E 等生成式 AI 模型的背后,研究者们投入了大量的算力
1/22/2024 11:15:00 AM
机器之心

英伟达官宣AI聊天机器人,本地RTX显卡运行,这是要挑战OpenAI?

OpenAI 进军芯片领域,英伟达自己造聊天机器人,这是 Sam vs Jensen 的时代?下载地址: AI 淘金热里,英伟达经常被称为那个「卖铲子的人」,而且卖的是难以替代的铲子。依靠这个角色,英伟达市值已经超越亚马逊,成美股第四大公司,离谷歌市值仅一步之遥。但值得注意的是,英伟达本身也在这波 AI 浪潮里淘金。刚刚,他们发布了一个对话机器人 ——「Chat with RTX」,面向 GeForce RTX 30 系列和 40 系列显卡用户(至少有 8GB VRAM)。有人开玩笑说,Sam Altman 进军芯
2/15/2024 5:40:00 PM
机器之心
  • 1