从与英伟达深化算力绑定,到与AMD构建“股权+算力”共生体系,再到联合博通推进定制芯片研发。OpenAI在短时间内,就已搭建起覆盖通用算力采购、定制硬件开发、全链路基础设施建设的庞大合作网络。
我们看到,OpenAI每一步动作看似独立,实则围绕“掌控算力自主权”这一核心目标层层递进,既是对当下算力短缺危机的破局之举,更是对通用人工智能(AGI)时代产业规则的抢占先机。
一直以来,英伟达都是OpenAI的核心硬件供应商,其 GPU 的强大并行计算能力,是OpenAI 开展先进 AI 模型训练的核心支撑。
2025年,这一合作升级为“开放模型+算力集群”的双重联动:双方共同开发出gpt-oss-120b与gpt-oss-20b两款开放权重逻辑推理模型,不仅在英伟达Hopper架构GPU上完成训练,更针对新一代Blackwell平台做了深度优化,在GB200 NVL72系统上,模型可实现每秒150万个Token的推理性能。
与此同时,OpenAI还与英伟达锁定了至少10GW的GPU算力供应,确保现有模型的大规模训练与推理需求。英伟达的全栈技术支持,既为OpenAI提供了算力保障,也借助其650万开发者社区,让OpenAI的开放模型快速渗透至医疗、制造等行业场景。
在与英伟达巩固合作的基础上,OpenAI于2025年10月抛出与AMD的“颠覆性合作”,以“算力部署+股权绑定”的创新模式,打破传统供应商与客户的浅层关系。根据协议,OpenAI计划在未来数年内部署总计6GW的AMD Instinct系列GPU算力,首批1GW将于2026年下半年启动,按当前AI芯片单价测算,仅硬件采购就将为AMD带来数百亿美元收入。
更具行业冲击力的是双方的股权绑定设计:AMD向OpenAI授予一份特殊认股权证,OpenAI可在5年内以每股0.01美元的象征性价格,购买AMD至多1.6亿股普通股。若完全行权,OpenAI将持有AMD约10%的股份,成为重要股东。对OpenAI而言,这不仅缓解了算力采购的资金压力,更在供应链中新增了核心供应商,降低了对单一企业的依赖风险。
完成通用算力的“双备份”后,OpenAI于2025年10月进一步与博通达成战略合作,正式切入“定制芯片”赛道,开启算力自主权的核心攻坚。根据协议,OpenAI将主导AI加速器及系统架构的设计,把前沿模型研发中积累的算法经验,如缓存优化、推理效率提升方案直接嵌入硬件;博通则负责芯片开发与部署,提供以太网、PCIe及光学连接的全链路网络解决方案,确保加速器机架可通过纵向与横向扩展满足大规模算力需求。
据悉,双方计划于2026年下半年启动首批机架部署,2029年底前完成全部10吉瓦定制加速器的落地,这些设备将覆盖OpenAI自有数据中心及合作伙伴设施。此次合作的关键突破,在于OpenAI从“算力采购者”向“硬件设计者”转型,更通过与博通的协同,为AGI时代的大算力需求探索新路径。
写在最后:
从英伟达的“生态依托”,到AMD的“利益绑定”,再到博通的“定制突破”,OpenAI的合作布局呈现出清晰的战略逻辑:短期以通用GPU算力保障模型迭代,中期通过股权绑定构建稳定供应链,长期以定制芯片掌握核心技术自主权。再叠加与甲骨文等云服务商合作的“星际之门”数据中心,已形成“芯片-网络-数据中心”的全链路覆盖。
可以说,OpenAI的合作路径已为AI行业提供了新范式,从单一供应商依赖到多元协同,从硬件采购到技术共创,其每一步选择都在重塑算力基建的规则。