Nvidiaは、強力で効率的なオープンソースAIモデルの新しいファミリーであるOpenReasoning-Nemotronをリリースしました。 2025年7月19日に発表され、 hugging顔を介してグローバルに利用可能中国のトップAIシステムの1つであるDeepseekの大規模な671B R1-0528モデルから機能を蒸留することにより、モデル。この戦略により、開発者は最先端の推論AIへの無料の商業的に寛容なアクセスを提供します。

リリースは、高度な機能を民主化することを目的としており、1.5b、7b、14b、および32bパラメーターサイズで利用可能になります。これにより、フロンティアスケールのコンピューティングリソースの必要性が回避され、小規模なチームや研究者向けのドアを開きます。 src=”data:image/svg+xml; nitro-empty-id=mty0mdoxmty4-1; base64、phn2zyb2awv3qm94psiwidagmti4mca1ot giihdpzhropsixmjgwiibozwlnahq9iju5ocigeg1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>

フロンティアモデルからの蒸留力

OpenReasoning-Nemotronの中核は、洗練された蒸留戦略です。 Nvidiaは、最近アップグレードされたDeepSeek-R1-0528モデルである671億パラメーターパワーハウスを活用して、小規模なモデルに高度な推論スキルを教えることを教えました。このプロセスは、一般化された推論能力を、AlibabaのQwen 2.5フレームワークに基づいて、よりコンパクトなアーキテクチャに転送します。

結果は印象的です。 Nvidiaのベンチマークによると、Nemotronモデルは、サイズクラスの新しい最先端のパス@1スコアを確立します。たとえば、32Bモデルは、特別なチューニングなしでAIIME24で89.2、LiveCodebenchで70.2をスコアリングします。

さらに厳しいタスクについては、Nvidiaは生成選択(Genselect)と呼ばれる手法を使用して「重い」モードを導入しました。この方法は複数の潜在的なソリューションを生成し、モデルを使用して最良のソリューションを使用します。 HMMT 2025年2月には、数学ベンチマークが73.8から信じられないほどの96.7にジャンプし、大規模な強力な緊急推論能力を示しています。 Deepseekは、R1-0528の更新で2025年5月に波を起こし、そのパフォーマンスはOpenaiやGoogleなどの競合他社から「O3やGemini 2.5 Proなどの主要なモデルのパフォーマンスに近づいている」と主張しました。 2025年4月、米国下院委員会がDeepseekに国家安全保障リスクとラベル付けされました。委員会委員長のジョン・ムーレナールは、会社について厳しい警告を発しました。

彼は、「この報告書はそれを明確にしています。ディープセックは単なるAIアプリではありません。それは、アメリカ人をスパイし、技術を盗み、米国の法律を覆すように設計された中国共産党の武器の武器です。」 NVIDIAのモデルの使用は、グローバルAI開発の相互接続された性質を強調しています。 Nvidia Nemoフレームワーク、Tensort-llm、Face Transformersのハグなどのツールと簡単に統合するように設計されており、迅速な展開を促進します。これにより、研究コミュニティはこれらのモデルに基づいて、推論のための新しいRLテクニックを探索し、フィールド全体を潜在的に加速することができます。

Categories: IT Info