深夜重磅!OpenAI 回歸開源:連發兩款推理模型,筆記本可運行 原創
時隔六年,OpenAI 終于重新踏入開源領域。
?
今天凌晨,OpenAI 做出了一個重大舉動:正式開源兩款新型推理模型 gpt-oss-120b 和 gpt-oss-20b,立即在 AI 社區引發軒然大波。
?

?
自 GPT-2 發布以來,OpenAI 已經有相當長一段時間未涉足開源領域。此次回歸開源,可謂來勢洶洶。
?
這兩款模型均采用寬松的 Apache 2.0 許可證,支持商業化和自由修改。據奧爾特曼透露,gpt-oss 性能逼近 OpenAI 當前閉源主力產品 o4-mini ,卻能在消費級硬件上高效運行,大幅降低了開發與應用門檻。
?
其中,gpt-oss-120b 總參數量達 1170 億,采用混合專家架構(MoE),推理時每 token 僅激活 51 億參數。它在多項核心基準測試中接近 o4-mini 的表現,包括編程(Codeforces)、通用問題求解(MMLU)和工具調用(TauBench),甚至在健康問答(HealthBench)和數學競賽(AIME)中部分反超。而該模型僅需單張 80GB GPU 即可運行,如 H100 或消費級 RTX 6000 Ada 。
?

?
尤其值得關注的是輕量版 gpt-oss-20b。它在 16GB 內存設備——如高端筆記本或邊緣計算終端上即可流暢推理,速度達每秒 24 token(M3 Max 實測)。其性能對標 o3-mini,尤其適合本地部署、快速原型開發或對延遲敏感的場景。
?
用戶現可通過LM Studio、Ollama 等工具直接體驗,無需復雜配置。
?
兩款模型均采用 Transformer 架構,并利用專家混合(MoE)來減少處理輸入所需的活躍參數數量。其中,gpt-oss-120b 每個 token 激活 5.1B 參數,而 gpt-oss-20b 則激活 3.6B 參數,兩款模型的總參數分別為 117B 和 21B。
?

?
此外,兩款模型采用交替密集和局部帶狀稀疏注意力模式,類似于 GPT-3。為了提高推理和內存效率,模型還使用了分組多查詢注意力,組大小為 8。同時利用旋轉位置編碼(RoPE)進行位置編碼,并原生支持最長 128k 的上下文長度。
?
在訓練集上,OpenAI 在一個主要是英文的文本數據集上訓練了兩款模型,重點關注 STEM、編程和常識類內容,并使用一個比 o4-mini 和 GPT-4o 所使用更為廣泛的分詞器(tokenizer)——o200k_harmony 對數據進行分詞,同樣也將其開源。
?
OpenAI 聲稱開源模型采用了與 o4-mini 相似的后訓練流程,包含監督微調和高計算強化學習階段。此外,OpenAI 還訓練模型在輸出答案前先進行思維鏈推理和工具調用。通過采用與 OpenAI 專有推理模型相同的技術,這些模型在后訓練后展現出卓越的能力。
?
同時,與 API 中的 OpenAI o 系列推理模型類似,這兩款開源模型支持 “低、中、高” 三檔推理強度調節,開發者只需在系統消息中添加一行指令即可輕松設置,實現延遲與性能的平衡。
?
此次開源或許也是 OpenAI 對行業趨勢的回應。2025年初,DeepSeek 等開源模型掀起浪潮,奧特曼曾公開反思“在開源上站錯歷史方向”。如今 gpt-oss 的推出,也是向開源生態遞出的橄欖枝 。
?
不過,模型仍有局限。據 OpenAI 披露,gpt-oss 在人物知識問答(PersonQA)中的幻覺率達 49%(120b)和 53%(20b),顯著高于閉源模型 。
?
盡管如此,新模型已經獲得產業快速支持。目前,Hugging Face、Azure 等多家平臺已經首發接入,開發者現可下載或在線測試。
?
OpenAI 強調,此次開源聚焦“安全可控”,模型經生物與網絡安全壓力測試后,性能對齊內部標準。
?
六年等待,OpenAI 以技術重回開源戰場。gpt-oss 能否推動 AI 民主化?

















