aiクラウドプロバイダーCoreweaveは、Nvidiaの最新かつ最も強力なAIチップを展開した最初のものになりました Dell Technologies によって構築され、SwitchとVertivが操作するデータセンターにインストールされているNVIDIAのフラッグシップGB300 NVL72プラットフォームを備えています。この最先端のハードウェアを最初に市販することにより、CoreWeaveはAI LabsおよびEnterprisesの重要なプレーヤーとしての地位を固めます。

これらの企業は、ますます複雑なモデルを訓練および実行するために必要な大規模なコンピューティングパワーに必死です。この発売は、AIインフラストラクチャアームレースの重要なマイルストーンです。最新のハードウェアへのアクセスは、どの企業がAI開発をリードするかを決定できる主要な競争上の優位性です。 AIパワー

NVIDIA GB300 NVL72は、パフォーマンスの記念碑的な飛躍を表しています。これは、Nvidiaの新しいBlackwell Ultra GPUの72を36 Grace CPUに統合する液化されたラックスケールシステムです。この密集したアーキテクチャは、前世代と比較してAI推論タスクの出力を最大50倍増やすことができます。同社はまた、H200およびGB200システムを最初に提供しました。 CoreweaveのCTOであるPeter Salankiは、このリードの戦略的重要性を強調し、「この変革的なプラットフォームを立ち上げ、イノベーターが次のAIの波に備えるのを支援するのを誇りに思っています。」これは、CoreWeaveのプラットフォーム上の開発者が現在利用できる生の速度を紹介し、モデルの反復時間を劇的に削減します。

新しいハードウェアは、CoreWeaveのCloud-Nativeソフトウェアと密接に統合されており、開発者がすぐに最大限に活用できるようにします。 Nvidia CEOのJensen Huangは、新しいプラットフォームについて次のように述べています。ライバル

Coreweaveの上昇は、AIの最大の名前の変化する戦略に直接結びついています。同社は、Openaiからの160億ドル近くのコミットメントに支えられており、その主要なパートナーであるMicrosoft Azureを超えてインフラストラクチャを積極的に多様化しています。この関係には、NVIDIA自体の重要な株式も含まれています。昨日のライバルは今日の重要なパートナーです。 MicrosoftのCEOであるSatya Nadellaでさえ、変化するダイナミクスを認めており、「現実には常に調整を行ってきました。最近、私たちが四半期ごとに行っていることにもっと注意を払っているということです」と述べています。 AI開発者の目標は、それが利用可能で最も強力な場所にコンピューティートを保護することです。

この激しい需要は、依存関係の複雑なウェブを作成しました。 2025年4月からの報告によると、Googleでさえ、CoreWeaveからBlackwell GPUをリースするために独自の能力を補完し、従来の競争境界を超越する最先端のハードウェアの普遍的なスクランブルを示しています。 2025年3月のIPOからその後の20億ドルの債務までのCoreWeaveの旅は、このインフラストラクチャを構築するために必要な計り知れない財源を強調しています。同社は、2025年だけで資本支出に20〜230億ドルを費やすことを計画しています。 Da DavidsonアナリストのGil Luria

ハードウェア自体が主要な課題を提示しました。 FoxconnやInventecを含むNvidiaとその製造パートナーは、GPUの過熱やソフトウェアバグなどの重要な技術的ハードルを克服して、Blackwell Racksの生産を強化しなければなりませんでした。非常に多くのプロセッサの同期の複雑さは計り知れませんでした。

展開の成功は、NvidiaとDellの両方にとって大きな勝利です。米国のシステムそれは、非常に複雑な技術を大規模に提供する能力を証明しています。このハイステークス環境では、CoreWeaveのCEOであるMichael Intratorが自信を持ち、「将来はCoreWeaveで実行されます。」

」と宣言しています。

Categories: IT Info