OpenAI推出開源安全推理模型gpt-oss-safeguard,支持政策驅動分類

GateNews

PANews 10月29日消息,OpenAI今日發布開源安全推理模型gpt-oss-safeguard(120b、20b),允許開發者在推理時提供自定義政策進行內容分類,模型輸出結論與推理鏈。該模型基於開放權重gpt-oss微調,採用Apache 2.0許可,可從Hugging Face下載。內部評測顯示其在多政策準確性上優於gpt-5-thinking與gpt-oss,外部數據集表現接近Safety Reasoner。局限包括:在大量高質量標注場景下傳統分類器仍更優、推理耗時與算力較高。ROOST將建立模型社區並發布技術報告。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言