AIGC宇宙 AIGC宇宙

OpenAI重磅发布gpt-oss系列开源大模型:媲美 GPT-4o

不论你是独立开发者、企业还是研究机构,现在都可以免费拥有一款与 GPT-4o 接近实力的语言模型。 开源但不“阉割”:媲美 GPT-4o,运行成本极低OpenAI 在这次发布中非常有诚意:gpt-oss-120b:在核心推理任务上已接近 GPT-4o-mini,支持 128k 上下文,单卡 80GB GPU 可跑。 gpt-oss-20b:性能对标 GPT-3.5(o3-mini),仅需 16GB 显存,可部署于消费级设备、本地推理、离线使用等场景。

OpenAI重磅发布gpt-oss系列开源大模型:媲美 GPT-4o

不论你是独立开发者、企业还是研究机构,现在都可以免费拥有一款与 GPT-4o 接近实力的语言模型。

开源但不“阉割”:媲美 GPT-4o,运行成本极低

OpenAI 在这次发布中非常有诚意:

  • gpt-oss-120b:在核心推理任务上已接近 GPT-4o-mini,支持 128k 上下文,单卡 80GB GPU 可跑
  • gpt-oss-20b:性能对标 GPT-3.5(o3-mini),仅需 16GB 显存,可部署于消费级设备、本地推理、离线使用等场景。

它们在以下任务中表现优异:

  • Chain-of-Thought(CoT)推理
  • 工具使用(如 Web 搜索、代码执行)
  • 医疗问答(在 HealthBench 上甚至超过 GPT-4o)
  • 数学与编码任务(胜过 o3-mini)

适用于本地部署与个性化定制

相比闭源模型,gpt-oss 的一大亮点是:

  • 权重完全开放(支持 Hugging Face 下载)
  • 支持推理量化(MXFP4),大幅降低运行门槛
  • 提供 Harmony 格式工具链,支持 Python / Rust 渲染器
  • 官方支持 Apple Metal、PyTorch、ONNX、VS Code 工具包

安全性不打折:对抗性微调也扛得住

OpenAI 对安全的投入一如既往:

  • 预训练阶段剔除了危险内容(CBRN 等)
  • 微调阶段采用了 deliberative alignment 技术
  • 评估阶段进行了“恶意微调攻击模拟”,测试模型是否容易被改造成高危能力体

结论是:即使在攻击者“最大努力”的前提下,这些模型仍未展现出高风险能力。

此外,OpenAI 启动了 50 万美元的 红队挑战赛(Red Teaming Challenge),鼓励全球开发者参与模型安全性测试,推动整个开源生态的安全进步。

技术细节亮点:MoE 架构 + 大上下文 + 灵活推理

gpt-oss 系列采用了先进的 Transformer 架构,并引入以下关键技术:

模型

层数

总参数

每 Token 激活参数

上下文长度

gpt-oss-120b

36

117B

5.1B

128k

gpt-oss-20b

24

21B

3.6B

128k

技术要点:

  • MoE(Mixture-of-Experts)架构:降低推理时活跃参数,提高效率
  • 支持 Grouped Multi-Query Attention,RoPE 位置编码
  • 使用全新 o200k_harmony 分词器(今日也一同开源)
  • 推理可设置不同“努力等级”:低延迟 vs 高准确灵活切换

为什么这次发布意义重大?

OpenAI 这次发布的 gpt-oss 系列,具有以下历史性意义:

  1. 打破壁垒:为中小型开发者、教育机构、非营利组织提供强大工具。
  2. 推动安全研究:开放非监督 CoT,支持更多“可解释性”、“思维链监控”等研究方向。
  3. 补齐生态拼图:API 模型 + 本地开源模型并行发展,满足不同场景选择。
  4. 降低 AI 不平等:开源模型的普及有助于民主化 AI 发展,尤其是在资源受限地区。

怎么用?

gpt-oss 模型现已开放:

  • 下载地址:https://huggingface.co/openai/gpt-oss-120b
  • 官方支持平台:Azure、AWS、vLLM、Ollama、LM Studio、Cloudflare 等
  • 本地运行参考项目:PyTorch、Metal、Harmony Renderer、量化模型等

写在最后

gpt-oss 不仅是一套开源大模型,更是 OpenAI 向整个 AI 开源社区发出的诚意之作。它代表了高性能、安全、易用三者的结合,也让“每个人都能拥有自己的 GPT”成为现实。

我们正站在 AI 开源生态的重要转折点上。现在,是时候将这项技术真正握在自己手中。

参考资料

  • https://openai.com/index/introducing-gpt-oss/
  • https://huggingface.co/openai/gpt-oss-120b

相关资讯

月之暗面开源 Kimi-K2:万亿参数,超强Agent,全线 SOTA

2023年成立的中国AI初创公司月之暗面,刚刚发布了其最新重量级产品Kimi-K2。 这是一款参数规模高达一万亿的开源大模型,以挑战GPT-4.1和Claude Sonnet 4为目标。 Kimi-K2没有配备专门的“推理模块”,却依然在多个关键领域打破性能壁垒,这一策略让人想起早前Deepseek的发布。
7/17/2025 7:12:45 AM
大数据文摘

AlphaFold3级性能、开源、可商用,MIT团队推出生物分子预测模型Boltz-1

图示:来自测试集的靶标上的 Boltz-1 的示例预测。 (来源:论文)编辑 | 萝卜皮2024 年 11 月 18 日,麻省理工学院(MIT)的研究人员宣布推出 Boltz-1,这是一个开源模型,旨在准确模拟复杂的生物分子相互作用。 Boltz-1 是第一个完全商业化的开源模型,在预测生物分子复合物的 3D 结构方面达到 AlphaFold3 级精度。
11/19/2024 11:59:00 AM
ScienceAI

智谱AI宣布完成新一笔金额超10亿元战略融资

近日,国内领先的人工智能企业智谱宣布完成了一笔金额超过10亿元人民币的战略融资。 此次融资由杭州城投产业基金、上城资本等多家投资机构共同参与,为智谱的进一步发展和技术创新注入了强劲动力。 据悉,这笔融资将主要用于推动国产基座GLM大模型的技术创新和生态发展。
3/3/2025 9:09:00 AM
AI在线
  • 1