Nvidiaは、強力で効率的な90億パラメーターオープンソースモデルであるNemotron-Nano-9B-V2のリリースにより、競争力のある小さなAIモデルアリーナに入りました。現在入手可能なこのモデルは、単一のGPUでハイスループット用に設計された新しいハイブリッドマンバ変換器アーキテクチャを備えています。
その傑出した機能は、ユニークなトッジ可能な推論システムであり、開発者がパフォーマンスとレイテンシのバランスをとるモデルの「思考」プロセスを制御できるようにします。このリリースは、Nvidiaを、より小さく、商業的にやさしいAIの成長市場の重要なプレーヤーとして位置付け、最近のイノベーションに直接挑戦しています。業界がフロンティアモデルの高コストに取り組むにつれて、効率的でありながら有能な代替案の需要が急増しています。 Nvidiaのエントリは、AlibabaやDeepseekなどの競合他社からの最近のリリースに直接挑戦しています。提供は、アクセシビリティとパワー用に設計された細かく調整されたシステムです。 Nemotron-Nano-9B-V2は、より大きな 12-バイオリオン-parameterベースモデルから意図的に圧縮された90億パラメーターモデルです。この剪定は、エンタープライズセクターで人気のある広く展開されているハードウェアである単一のNVIDIA A10 GPUで効率的に実行できるようにするための戦略的な決定でした。このモデルは、A10チップに特に適合するように剪定されました。
リーダーボードトッピングを共有することに興奮しています。 href=”https://twitter.com/artificialanlys?ref_src=twsrc%5etfw”ターゲット=”_ blank”>@antertionanlys @href=”https://t.co/zs5gtdzjsk”””””””ターゲット=”_ blank”> pic.twitter.com/zs5gtdzjsk
– nvidia ai開発者(@nvidiaaidev) 8月18日2025年開発者にカスタム微調整のためのより多くのオプションを提供します。
その効率的なサイズを超えて、このモデルには128Kの大きなコンテキストウィンドウがあり、広範なドキュメントを処理して推論することができます。また、英語、ドイツ語、スペイン語、日本語を含む複数の言語を処理する非常に汎用性が高く、NVIDIAによると、複雑な指示とコード生成タスクの両方に熟達しています。その公式の技術レポート、nvidiaは強力な結果のスイートを詳述しています。複雑な推論では、AIEM25で72.1%、GPQAで64.0%を達成します。数学的な問題解決の場合、Math500で印象的な97.8%を獲得します。このモデルは、LiveCodebenchコーディング評価で71.1%のスコアを確保し、Ruler 128Kテストで78.9%で堅牢な長いコンテキストの理解を示します。次の指示では、ifevalで90.3%に達し、信頼性を示します。全面的に、ベンチマークは、AlibabaのQWEN3-8Bよりも高い精度を示しています。これは、SLMスペースでの比較ポイントです。これにより、Nemotron-Nanoは、コンパクトで効率的なパッケージでトップティアパフォーマンスを求める開発者にとって恐るべき新しいオプションとして確立されます。 href=”https://research.nvidia.com/labs/adlr/nvidia-nemotron-nano-2/”target=”_ blank”>洗練されたハイブリッドマンバ変換者アーキテクチャ。この設計は、従来の大規模な言語モデルの制限に対する直接的な対応です。最も人気のあるLLMは、純粋な「トランス」モデルであり、注意層に完全に依存しています。強力ですが、これらのレイヤーはメモリで非常にコストがかかり、テキストシーケンスの長さが増加するにつれて計算されます。これは二次的に拡大する問題です。 Mambaには、選択的状態空間モデル(SSM)が組み込まれています。これは、連続状態を維持することで非常に長い情報のシーケンスを処理し、シーケンス長で直線的にスケーリングできるようにすることができます。これらの線形時間状態空間層でコストのかかる注意メカニズムのほとんどを置き換えることにより、モデルは、精度が大幅に低下することなく、同様にサイズの変圧器モデルと比較して、長いコンテキストで最大6倍高いスループットを達成できます。これにより、長いドキュメントや広範なチャット履歴を含むタスクに最適です。
その効率的なアーキテクチャを超えて、Nemotron-Nanoは問題解決プロセスを管理するための新しいシステムを導入し、開発者にその動作をよく制御できるようにします。モデルは最終回答を提供する前に推論トレースを生成するデフォルトですが、開発者は「/Think」のような単純なコントロールトークンを使用して、このステップバイステッププロセスまたは「/no_think」を明示的に要求して、より速く直接的な応答を提供することができます。これにより、開発者は、応答を完了する前に、モデルが内部の推論に専念するトークンの数を制限することができます。このメカニズムは、レイテンシとのバランスをとるための重要なレバーを提供します。これは、応答速度が重要なカスタマーサポートや自律エージェントなどの生産アプリケーションの重要な関心事です。この機能は、トレーニング後に意図的に設計されており、データの約5%に切り捨てられた推論トレースが含まれており、推論時にこのきめ細かい予算制御を可能にします。 nemotron-nano-9b-v2は、独自の寛容なnvidiaオープンモデル協定。ライセンスは、モデルが箱から出して商業的に使用可能であると述べて、商業的に友好的であるように明示的に設計されています。これにより、組織は、使用、収益、またはユーザー数に関連する別のライセンスまたは支払い料を交渉することなく、モデルをすぐに自由にダウンロード、変更、展開することができます。このオープンアプローチは、他のプロバイダーからの階層化されたオープンライセンスとはまったく対照的です。また、開発者は派生モデルを自由に作成および配布して、共同エコシステムを促進します。
ライセンスには、責任ある使用に焦点を当てたいくつかの標準条件が含まれています。企業は、同等の交換を実装せずに、組み込みの安全ガードレールをバイパスしてはなりません。モデルまたはそのデリバティブの再配布には、ライセンステキストと適切な帰属を含める必要があります。さらに、使用法は貿易規制を順守し、NVIDIAの信頼できるAIガイドラインに沿っている必要があり、訴訟条項は、モデルによる侵害よりも他のユーザーを訴えるユーザーのライセンスを終了することにより、エコシステムを保護します。巨大な nemotron-pre-training-dataset-vv1前例のない透明性を提供する高品質のデータ。
このデータセットは、4つの重要なカテゴリに編成されています。これには、複雑な方程式を保存するための新しいパイプラインで作成された数学焦点を当てたデータセット、マルチステージフィルタリングを備えたGitHubからの大規模なキュレーションコードデータセット、およびSTEM、アカデミック、および推論ドメインをカバーする合成的に生成されたデータセットが含まれます。また、Nemotron-CC Webクロールの新しいバージョンを備えており、堅牢な多言語機能をサポートするために15の言語に翻訳された合成の質問と回答のペアで強化されています。
モデルとそのデータセットは
nvidiaのモデルカタログを通してダウンロードします。強力なモデルだけでなく、訓練された広大で高品質のデータを提供することにより、Nvidiaは包括的なツールキットを提供しています。この戦略は、開発者に力を与え、イノベーションを加速することを目的としています。