即梦AI
当前位置:首页>AI训练模型>GPT-OSS:OpenAI开源的大语言模型,支持本地部署与高效推理

GPT-OSS:OpenAI开源的大语言模型,支持本地部署与高效推理

GPT-oss 是什么?

GPT-OSS 是 OpenAI 发布的开源权重大语言模型系列,包含 20B 与 120B 两个版本,支持原生 128K tokens 长上下文、MoE 架构高效推理、微调与智能体功能,适合本地部署与企业级生成式应用,采用 Apache 2.0 许可协议。

模型版本GPT-OSS-20BGPT-OSS-120B
架构类型Transformer + MoETransformer + MoE
总参数量21B1170B
每 token 激活参数3.6B5.1B
上下文长度128K tokens(原生)128K tokens(原生)
授权协议Apache 2.0Apache 2.0
是否本地部署✅ 是✅ 是(需高端GPU)
是否支持微调✅ 支持(LoRA / QLoRA)✅ 支持(推荐分布式)

GPT-oss 的模型亮点

  • 支持 Apache 2.0 许可协议:可自由使用、修改和商用,无需担心版权限制或专利风险,适合用于实验、定制与商业部署。
  • 可调节的推理强度:可根据不同应用场景或延迟需求,灵活设置推理策略(低、中、高),平衡性能与速度。
  • 完整的思维链支持:模型支持输出完整的推理过程,便于调试与结果解释(仅供开发使用,不建议面向终端用户展示)。
  • 支持微调:可通过参数微调,充分适配特定业务场景,实现模型个性化优化。
  • 原生智能体能力:模型具备函数调用、网页浏览、Python代码执行与结构化输出等原生智能体能力,便于集成进复杂工作流。
  • 原生 MXFP4 量化优化:模型在 MoE 层采用 MXFP4 精度训练,使得 GPT-OSS-120B 可在单张 H100 GPU 上运行,20B 版本可在 16GB 内存内运行,显著降低硬件门槛。

GPT-oss 的基准测试

GPT-OSS-120B 模型在核心推理基准测试中与 OpenAI o4-mini 模型几乎持平,同时能在单个 80GB GPU 上高效运行。GPT-OSS-20B 模型在常见基准测试中与 OpenAI o3‑mini 模型取得类似结果,且可在仅配备 16GB 内存的边缘设备上运行,使其成为设备端应用、本地推理或无需昂贵基础设施的快速迭代的理想选择。这两个模型在工具使用、少样本函数调用、CoT推理(如在 Tau-Bench 智能体评估套件中的结果所示)以及 HealthBench 测试中表现强劲(甚至超越了 OpenAI o1 和 GPT‑4o 等专有模型)。

GPT-oss 的适用人群

  • 开发者 / 工程师:可本地部署模型用于代码生成、接口问答、知识提取等
  • AI创业者 / 产品团队:适合用于构建无需联网的智能问答或客服系统
  • 科研机构 / 教育用户:用于AI模型教学、医疗问答研究等有安全审查需求的项目
  • 内容创作者 / AI爱好者:在低配设备上即可试用20B模型,体验本地AI推理

如何使用 GPT-oss?

Gpt-oss-120b 和 gpt-oss-20b 的权重均可在 Hugging Face 上免费下载。

©版权声明:如无特殊说明,本站所有内容均为AIHub.cn原创发布和所有。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。否则,我站将依法保留追究相关法律责任的权利。 Trae