Nvidiaは、Computex ConferenceでTaipeでNVLink Fusionプログラムを開始しました。このイニシアチブは、Nvidia独自の相互接続テクノロジーを開き、パートナーが半顧客人工知能システムを作成できるようにします。これらのシステムは、既存のNVIDIAテクノロジーと統合されます。

この開発により、QualcommやFujitsuなどの企業は、カスタム中央処理ユニット(CPU)とNvidiaのグラフィックプロセシングユニット(GPU)を組み合わせることができます。 Nvidiaの戦略は、より適応性のあるAIハードウェアエコシステムを育成することを目的としています。最終的に、同社はAIセクターにおける重要な市場の影響を拡大しようとしています。

このイニシアチブは、Nvidiaが競合する努力に対して戦略的に位置づけています。このグループは、オープンな相互接続標準を確立することを目指しています。 nvidia CEO Jensen Huang a a基本的に検索された- AIはすべてのコンピューティングプラットフォームに融合されています。」イベントの軽い瞬間に、Huangは「Nvidiaからすべてを購入するときよりも多くの喜びを与えるものは何もない」と述べ、「Nvidiaから何かを購入するときに途方もない喜びを与える」と付け加えました。 > nvlink Fusion:次世代のAIシステムのアーキテクテクタリング

nvidiaのnvlink Fusionは、AIワークロードを要求するために不可欠な高速ファブリックを提供します。このテクノロジーは、PCIEGEN5の帯域幅の最大14倍を提供し、直接GPUからGPUとCPUからGPUへの通信のレイテンシが低いことを提供します。 このパフォーマンスは、大規模なAIモデルのスケーラビリティと効率にとって重要です。

同社は、 gb300 nvl72 は、GPUあたりの合計帯域幅の合計帯域幅あたり1.8テラバイトを提供します。 1つのセットアップは、カスタムCPUをNVIDIA GPUに接続します。他のベンダーからの加速器へのNvidia自身の恵み(および将来のVera)プロセッサをリンクしています。統合は、NVLink IPをカスタムチップ設計に組み込むか、すでにテープで留められている相互接続チップレットを使用することにより発生する可能性があります。

しかし、重要な規定は、NVLink Fusionのペアリングの主要なコンポーネントの1つがNVIDIAから発生しなければならないことです。これは、たとえば、Intel CPUがこの特定のNVIDIAフレームワークを使用してAMD GPUに直接接続できないことを意味します。 NvidiaのHPCおよびAI工場のシニアディレクターであるディオンハリス、

富士通は、今後の2ナノメートル、アームベース fujitsu-monaka cpus を統合することも計画しています。富士通のCTOであるVivek Mahajanは、このコラボレーションを、スケーラブルで持続可能なAIシステムを目指して、AI進化の「記念碑的な一歩」と説明しました。 MediaTekの副会長兼CEOであるRick Tsaiは、彼らのパートナーシップがMediaTekのASICデザインサービスと高速相互接続の専門知識を利用して次世代のAIインフラストラクチャを構築することを説明しています。必要な帯域幅と信頼性。

生態系は、チップ設計ソフトウェア企業Synopsys and Cadence、および相互接続性のシリコンスペシャリストAstera Labsのサポートからさらに利益を得ています。 Nvidiaはまた、Nvidia Newsroomによると、 nvidiaミッションコントロールソフトウェアを発表しました。

さらに、Nvidiaは、JabilやFoxconnを含むパートナーとともに、AMD GPUを使用してサーバーボード用に設計されたGrace CPU(C1)の新しいシングルチップバージョンを発売しました。 Nvidiaはまた、 spectrum-x etherneret AMDやIntelのような競合他社が前進します。 Nvidiaの戦略に対する業界の反応はさまざまです。一部のアナリストは注意を表明しています。たとえば、 ainvest公開されたコメント AIインフラストラクチャを独占します。

Categories: IT Info