nvidia は、GTC 2025で人工知能(AI)ハードウェアの最新の進歩を導入し、Blackwell Ultra GB300およびVera Rubin Superchipsを発表しました。これらの開発は、さまざまなセクターのAI機能を強化することを目的としています。 Blackwell Ultra GB300 SuperChipは、AIアプリケーションの需要の増加に対処する、コンピューティングパワーとメモリ帯域幅の改善を提供します。

各GB300システムは、72 NVIDIA BLACKWELL ULTRA GPUSおよび36 ARMベースのNVIDIA GRACE CPUを統合し、1,400個のPETAFLOPSのFP4 AIパフォーマンスをまとめて提供しています。この構成は、前身であるBlackwell B200と比較して、密度の高いFP4計算の1.5×増加を表しています。 GB300の強化は、メモリ容量です。各GPUには、288GBのHBM3Eメモリが装備されており、システムごとに合計20TBを超えるGPUメモリが装備されています。この実質的なメモリブーストにより、より大きなAIモデルとデータセットの処理が可能になり、より複雑な計算と処理時間が速くなります。単一のウルトラチップは、ブラックウェルと同じAIコンピューティングの同じ20ペタフロップを維持しますが、192GBから288GBにジャンプする高帯域幅メモリ(HBM3E)の50%の増加の恩恵を受けます。

同様に、本格的なDGX GB300「SuperPod」はまだ288 CPUと576 GPUを収容しており、FP4コンピューティングの11.5 exaflops(元のブラックウェルベースのスーパーポッドと同一)を提供します。これらのメモリアップグレードは、NVIDIAがより大きなモデルの取り扱いを優先し、生の計算電力ではなくAI推論効率を改善していることを示しています。同社は、Blackwell UltraがH100のFP4推論パフォーマンスを1.5倍に提供していると主張していますが、最も印象的な利点は、AI推論をスピードアップする能力です。

たとえば、大規模な言語モデルであるDeepSeek-R1 671Bを実行するNVL72クラスターは、H100の90秒からわずか10秒で応答を生成できるようになりました。

nvidiaは、この改善がトークン処理速度の10倍の増加に起因しており、Blackwell UltraはH100の100トークンあたり100トークンに比べて1秒あたり1,000トークンを処理します。これらの数字は、ブラックウェルウルトラがその前任者よりも劇的に優れているわけではないが、以前の世代のアーキテクチャからまだ移行している企業に魅力的な効率の向上を提供することを示唆しています。有名な天文学者Vera Rubinのこのチップは、カスタム設計のCPU(Vera)とGPU(Rubin)を統合します。

NvidiaのOlympus Architectureに基づくVera CPUは、現在のGrace CPUの2倍のパフォーマンスを提供すると予想されます。ルービンGPUは、最大288GBの高帯域幅メモリをサポートし、複雑なAIタスクのデータ処理機能を大幅に強化します。

Vera Rubin Architectureは、単一のダイにデュアルGPUデザインを特徴としており、チップごとに50個のPetaFlopsのFP4推論パフォーマンスを提供します。この設計により、AIアプリケーションでのより効率的な処理とレイテンシが削減されます。

さらに、Vera CPUはGrace CPUを引き継ぎ、同時マルチスレッドを備えた88のカスタムアームコアで構成され、ソケットあたり176個のスレッドが生まれます。また、1.8TB/S NVLINKコアからコアへのインターフェイスを誇り、CPUとGPUコンポーネントの間のデータ転送速度を向上させます。

B200を介して密なFP4計算のGB300の1.5×増加は、AIワークロードのより効率的な処理につながり、トレーニングと推論時間をより高速化することを可能にします。

Nvidiaの積極的な開発タイムラインは、新しいAIチップ世代の年次リリースの計画を備えており、AIハードウェア市場でリーダーシップの地位を維持するというコミットメントを反映しています。