NVIDIA has released OpenReasoning-Nemotron, a new family of powerful and efficient open-source AI models. Announced on July 19, 2025, and available globally via Hugging Face, the models set new performance records for reasoning in math, science, and code.
NVIDIA developed four models by distilling capabilities from DeepSeek’s massive 671B R1-0528 model, one of China’s top AI systems.該策略為開發人員提供了自由,商業允許的訪問最先進的推理。這避免了對邊境規模計算資源的需求,為較小的團隊和研究人員打開門。
從前沿模型中提取功率
在OpenReasoning-Nemotron的核心處是一種複雜的蒸餾策略。 NVIDIA利用了最近升級的DeepSeek-R1-0528型號,即6710億個參數Powerhouse,以教授較小的模型其先進的推理技能。
這是通過在DeepSeek型號生成的500萬個高質量的高質量推理示例的策劃數據集中訓練來實現的。該過程基於阿里巴巴的QWEN 2.5框架將廣義的推理能力轉移到更緊湊的體系結構中。
結果令人印象深刻。 According to NVIDIA’s benchmarks, the Nemotron models establish new state-of-the-art pass@1 scores for their size classes.例如,32B模型在livecodebench上的AIME24和70.2上得分89.2,而無需進行特殊調整。
對於更苛刻的任務,NVIDIA使用稱為生成選擇(Genselect)的技術引入了“重型”模式。該方法生成了多種潛在解決方案,並使用模型選擇最佳解決方案,在復雜問題上的準確性
HMMT 2025年2月的數學基準從73.8躍升至令人難以置信的96.7,表現出強大的緊急推理能力。
deepseek連接和地緣政治上下文和地緣政治上下文
源代碼源是中國公司的主要驗證。 DeepSeek在2025年5月進行了R1-0528更新,聲稱其性能是“接近Openai和Google等競爭對手的領先模型,例如O3和Gemini 2.5 Pro”。 In April 2025, a US House Committee labeled DeepSeek a national security risk.委員會主席John Moolenaar發布了有關該公司的明顯警告。 NVIDIA使用該模型的使用突出了全球AI開發的相互聯繫性質。
僅使用監督的微調(SFT)(SFT)並避免加強學習(RL),NVIDIA提供了強大的穩定基線。這使研究界能夠在這些模型的基礎上探索推理的新RL技術,並可能加速整個領域。
。