オラクルは本日、戦略的パートナーである NVIDIA と共同で、大規模な OCI Zettascale10 スーパーコンピューティング クラスターと深く統合された Oracle AI Database 26ai を目玉とする次世代の AI ネイティブ インフラストラクチャを発表しました。
AI World カンファレンスで発表された新しいプラットフォームは、基礎モデルのトレーニングから複雑なデータの実行まで、最も要求の厳しい AI ワークロードを強化するように設計されています。
この大規模な製品の発売により、AI コンピューティング競争における重要な武器商人としての Oracle の地位が確固たるものとなります。 NVIDIA との関係を深め、AI 業界全体に基礎的な「ピックとシャベル」を提供する戦略を推進しています。
Oracle の AI アーセナル: Zettascale10 と データベース 26ai
今回の発表の目玉は、2024 年 9 月に導入された Oracle の最初の zettascale クラスタの進化版である OCI Zettascale10 です。これは、極端なスケール向けに設計されたクラウド スーパーコンピュータです。数十万の NVIDIA GPU をマルチギガワット クラスターに接続し、前例のない最大 16 ギガワットのパフォーマンスを実現します。
これらの大規模なクラスターはギガワット規模のデータセンター キャンパスに収容されており、可能な限り最高の GPU 間のレイテンシを保証するために半径 2 キロメートル以内の密度に向けて超最適化されています。これは、テキサス州アビリーンにある旗艦の Stargate スーパーコンピューター サイトで OpenAI を使用して導入されているアーキテクチャとまったく同じです。
システムの核となるイノベーションは、Oracle の新しい Acceleron RoCE ネットワーキング アーキテクチャです。この設計は、最新の GPU ネットワーク インターフェイス カード (NIC) に組み込まれたスイッチング機能を巧みに使用し、物理的に分離された複数のネットワーク プレーンに同時に接続できるようにします。これにより、オラクルが「広く、浅く、回復力のあるファブリック」と呼ぶものが構築されます。
このアプローチは、トラフィックを混雑した飛行機や不安定な飛行機から自動的に移動させ、コストのかかる停止や再起動を回避することで、大規模な AI ジョブの信頼性を劇的に向上させます。また、電力効率の高い光学系を使用して、スループットを犠牲にすることなくネットワークと冷却のコストを削減し、より多くの電力予算をコンピューティングに割り当てます。
OpenAI のインフラストラクチャ担当バイスプレジデントである Peter Hoeschele 氏は、この設計を賞賛し、「拡張性の高いカスタム RoCE 設計により、電力のほとんどをコンピューティングに集中させながら、ギガワット規模でファブリック全体のパフォーマンスを最大化します。」
ハードウェアは Oracle AI Database 26ai です。これは、AI を会社の主力製品に直接構築するマイルストーンの長期サポート リリースです。 データベース。
これは単なるアドオンではありません。これは、AI ワークロードをネイティブかつ安全に処理するための根本的な再設計を表しています。新機能の鍵となるのは、統合ハイブリッド ベクトル検索です。
Database 26ai を使用すると、開発者は AI ベクトル検索と従来のリレーショナル、テキスト、JSON、ナレッジ グラフ、空間検索を 1 つのクエリで組み合わせることができ、複雑なマルチモーダルなエンタープライズ データからより高度な洞察を得ることができます。
[埋め込みコンテンツ]
このデータベースには、エージェント機能の組み込みサポートも導入されています。 Model Context Protocol (MCP) とプライベート AI サービス コンテナーを介した AI ワークフロー。このコンテナは、AI モデルのプライベート インスタンスを安全に実行するための構築済み環境を提供し、パブリック クラウドからオンプレミスのデータ センターまで、どこにでも展開できます。
NVIDIA との深い提携
新製品は、シリコンをはるかに超えた NVIDIA との深く多層的なパートナーシップを示しています。 Oracle の AI Database 26ai は、NVIDIA のソフトウェア スタックと緊密に統合されており、NVIDIA NIM マイクロサービスのネイティブ サポートを提供します。
これにより、開発者は複雑な検索拡張生成 (RAG) パイプラインを簡単に実装できます。このデータベースは、多くの AI アプリケーションの重大なボトルネックである GPU アクセラレーションによるベクトル インデックス作成に NVIDIA の cuVS ライブラリを活用するようにも設計されています。さらに、NVIDIA AI Enterprise が OCI コンソールでネイティブに利用できるようになり、ツールの完全なスイートへのアクセスが効率化されました。
コラボレーションはイベントの中心テーマでした。 Oracle のクラウド インフラストラクチャ担当副社長である Mahesh Thiagarajan 氏は、「AI 市場は、Oracle と NVIDIA の間のような重要なパートナーシップによって定義されてきたと信じています。」
NVIDIA の Ian Buck 氏もこれに同調し、「この最新のコラボレーションを通じて、Oracle と NVIDIA は最先端のアクセラレーション コンピューティングの新たなフロンティアを開拓しています…」と述べ、
大規模な AI コンピューティング軍拡競争の促進
これらの発表は、進行中の AI コンピューティング軍拡競争における Oracle の最新の一斉射撃です。テクノロジー大手間のこの資本集約型戦争は現在、経済を再構築しつつある。ハーバード大学の経済学者による分析によると、AI インフラへの支出が 2025 年上半期の米国の GDP 成長率の 92% を押し上げたことがわかりました。
取り残されるという実存的な恐怖によって引き起こされる緊急性は明白です。 OpenAI 社長のグレッグ ブロックマン氏が率直に述べたように、「コンピューティングが多すぎることよりも、コンピューティングが少なすぎるために失敗することの方がはるかに心配です。」
この考え方が、今年初めに失速した後、オラクルが再起動に貢献した Project Stargate のような数兆ドル規模の取り組みを促進します。
投資の規模があまりにも大きいため、産業バブルの懸念が生じており、一部の批評家は、 パートナーがプロジェクトに投資し、ハードウェアの販売を通じてのみ返済される「循環融資」モデル。しかし、業界リーダーらは、この増強は大規模なコンピューティング不足への必要な対応だと主張している。
「AI スーパーマーケット」戦略: AMD との賭けをヘッジする
オラクルの戦略は、基盤モデルの構築で競争するのではなく、業界全体にとって中立的な「AI スーパーマーケット」になることである。このアプローチは成果を上げているようで、ベンダーロックインのない信頼性の高い高性能インフラストラクチャを必要とする主要企業を惹きつけています。
その代表的な例は、Stargate プロジェクトに 4.5 ギガワットという巨大な容量を確保するために、OpenAI が Oracle と結んだ歴史的な 3,000 億ドルの 5 年間クラウド契約です。この契約だけでも、Oracle の AI クラウド ビジネスに強力なアンカーを提供します。
この戦略を強力に検証する動きとして、Oracle は AMD との大規模な提携も発表しました。同社は、AMD の新しい Instinct MI450 AI チップをクラウド全体に 50,000 個導入し、NVIDIA ハードウェアに代わる重要な代替手段を顧客に提供する予定です。
この多様化は、サプライ チェーンの回復力に関する業界全体の懸念に直接対処します。また、Oracle 自身の AI クラウドのマージンがチップの高コストによって圧迫されており、第 2 のソースが戦略的に必要になっているという最近の報道を受けてのことです。
Oracle Cloud の上級副社長であるカラン・バッタ氏は、記者団に対し、「特に推論分野では、顧客が AMD を非常によく採用すると感じています。」
顧客にとって、この競争の激化により、より多くの選択肢が約束され、 より良い価格設定。アナリストのホルガー・ミュラー氏は、「優れたAIには優れたデータが必要です。Oracle AI Database 26aiを使用すると、顧客はその両方を得ることができます。」と述べて、より広範な重要性を指摘しました。