开源项目 1 months ago 206 Views 0 Comments

时隔六年,OpenAI再开源!

CSDN
CSDN

Published 124 Articles

编译 | 苏宓

出品 | CSDN(ID:CSDNnews)

预热了很久,OpenAI 终于在今天罕见地放出重磅“开源大礼”——两款全新开源模型 gpt-oss-120bgpt-oss-20b,不仅免费开放下载,还支持在 PC 和笔记本本地运行。这是 OpenAI 自 2019 年发布 GPT-2 以来首次再次开源大模型,距离上一次已经过去了整整六年。

Hugging Face 地址:

  • https://huggingface.co/openai/gpt-oss-120b

  • https://huggingface.co/openai/gpt-oss-20b

GitHub 地址:
https://github.com/openai/gpt-oss

大小两个版本,分别面向高配和主流用户

具体来看,每个模型都是一个 Transformer,它利用专家混合 (MoE) 来减少处理输入所需的活跃参数数量。gpt-oss-120b 是一个包含 1170 亿个参数的模型,需要 80GB VRAM 才能运行,显然是为多卡、云平台或高端本地部署准备的“大力选手”,每个令牌激活 51 亿个参数。

相对轻量的 gpt-oss-20b 则只有 210 亿参数,16GB 显存的单张显卡就能跑,适合开发者在主流工作站或笔记本上使用,其激活 36 亿个参数。这些模型采用交替的密集和局部带状稀疏注意力模式,与 GPT‑3 类似。

这两个模型两者均采用 Apache 2.0 许可证,用户可以自由下载、部署和修改,几乎没有使用限制。

OpenAI 表示,“此次发布是其对开源生态系统承诺的重要一步,符合其让人工智能的益处广泛普及的使命。” 该公司希望这些工具能够成为开发人员、研究人员和公司高效运行和定制的低成本工具。

表现如何?比肩 o3、o4-mini,性能不俗

虽然是开源模型,但性能并不“打折”,根据 OpenAI 披露的官方数据显示:

  • gpt-oss-120b 在 Codeforces 编程测试中使用工具获得 2622 分,与 OpenAI 自家商用模型 o3 和 o4-mini 相当,甚至击败了 o3-mini

  • gpt-oss-20b 在使用工具时拿下 2516 分,不使用工具也有 2230 分,整体表现略优于 o3-mini。

此外,120b 在医疗和数学类问题上超过 o4-mini,而 20b 则也在多个测试维度上胜过 o3-mini。

在通用评测 “Humanity’s Last Exam” 中,两款模型也展现了与 o3、o4-mini 相当的准确率,说明其推理和基础能力具备实用价值。

时下,这两款模型已经在 Hugging Face 上线,并默认使用高效的 MXFP4 量化格式。支持部署的平台包括 Hugging Face、Microsoft Azure、AWS、Ollama、llama.cpp、LM Studio、Fireworks、Together AI、vLLM 等主流本地或云端环境。

为何六年后再开源?

当提及“为什么突然又开源”的问题,OpenAI 给出的解释:“通过将这些开放模型整合到我们现有的 API 服务中,我们旨在加速前沿研究,促进创新,并推动在广泛应用场景下实现更安全、更透明的 AI 开发。这些开放模型还降低了新兴市场、资源受限行业及小型组织采用专有模型的门槛,这些群体可能缺乏预算或灵活性来采用专有模型。凭借强大的、易于获取的工具,世界各地的人们可以构建、创新并为自己和他人创造新的机遇。”。

作为一家因“闭源战略”饱受争议的公司,OpenAI 这次的举动引发了不少关注。虽然目前仍是相对独立于 GPT-4 的开源产品线,但在高性能本地模型稀缺的当下,gpt-oss 系列的发布无疑为开源社区注入了新的活力。

来源:
https://openai.com/zh-Hans-CN/index/introducing-gpt-oss/

2025 全球产品经理大会

8月15–16日·北京威斯汀酒店

互联网大厂&AI创业公司产品人齐聚

12 大专题,趋势洞察 × 实战拆解

扫码领取大会 PPT,抢占 AI 产品新红利

CSDN

CSDN

124 Articles 17337 Views 0 Fans

Comment (0)

睡觉动画