CEO のジェンスン ファン氏が率いる Nvidia は、AI チップ開発サイクルの戦略的変更を発表し、年次リリース スケジュールに移行しました。この新しいアプローチは、同社の2025年第1四半期決算発表で明らかにされました。

年次リリースへの移行

Blackwell アーキテクチャに従って、Nvidia は新しいチップを導入します。毎年建築。この動きは、2020 年に Ampere、2022 年に Hopper、2024 年に Blackwell という最近のリリース パターンに倣ったものです。アナリスト Ming-Chi Kuo 氏の 2025 年に登場する次期アーキテクチャ Rubin に関する以前のレポートは、Huang の発表と一致しており、R100 AI GPU が来年利用可能になる可能性があることを示唆しています。

Huang 氏は、新しい AI GPU は電気的および機械的な下位互換性を維持し、前任者と同じソフトウェアを確実に実行できることを強調しました。この互換性により、お客様は既存のデータセンター内で大きな中断を伴うことなく、H100 から H200 へ、そして B100 GPU に移行することができます。 Huang 氏はまた、Nvidia の AI GPU の需要を促進する経済的メリットを強調し、企業はインフラストラクチャを迅速にアップグレードすることで節約して収益を生み出すことに熱心であると指摘しました。

製品ラインの拡大

Nvidia は、AI GPU に加えて、 CPU、ネットワーキング NIC、スイッチなどの他のチップも、新しい年間ペースに合わせて調整されます。 Huang 氏は、「我々はこれらすべてを非常に迅速に推進するつもりです」と述べ、NVIDIA のチップ ポートフォリオの広範な拡大を示唆しました。

NVIDIA の CFO は、自動車セクターが社内最大の企業垂直分野になるだろうと述べました。テスラが自社の完全自動運転システム用に 35,000 個の H100 GPU を購入したことを挙げ、今年のデータセンター部門については、Meta のような消費者向けインターネット企業が今後も強力な成長を牽引すると予想されており、Meta は年末までに 350,000 個を超える H100 GPU を稼働させる予定です。.

財務実績と市場の需要

Nvidia は、主に AI チップ H100 によって推進され、単一四半期で 140 億ドルの利益を報告しました。 Hopper として知られる 、Blackwell として知られる B200 もゲームおよびクリエイター向け GPU で使用されていると Huang 氏は、企業がインフラストラクチャをオンライン化することに熱心であるため、Nvidia の AI GPU の需要がしばらくは供給を上回ることが予想されると述べました。 AI の主要なマイルストーンに到達した次の企業は画期的な AI を発表できるが、2 番目の企業はわずかな改善しか発表しないことを強調しました。一部のお客様は、100,000 個を超える H100 GPU を購入したか、購入を計画しています。

Categories: IT Info