Oracle hat heute zusammen mit dem strategischen Partner NVIDIA seine nächste Generation KI-nativer Infrastruktur vorgestellt, angeführt vom riesigen Supercomputing-Cluster OCI Zettascale10 und der tief integrierten Oracle AI Database 26ai.

Die auf der AI World-Konferenz angekündigten neuen Plattformen sind für die Bewältigung der anspruchsvollsten KI-Workloads konzipiert, vom Training grundlegender Modelle bis hin zur Ausführung komplexer Daten Analytics.

Diese große Produkteinführung festigt Oracles Position als wichtiger Waffenhändler im Wettlauf um KI-Rechner. Es vertieft seine Beziehungen zu NVIDIA und treibt seine Strategie voran, die grundlegenden „Spitzen und Schaufeln“ für die gesamte KI-Branche bereitzustellen.

Oracles KI-Arsenal: Zettascale10 und Datenbank 26ai

Das Herzstück der Ankündigung ist der OCI Zettascale10, eine Weiterentwicklung des ersten Zettascale-Clusters von Oracle, der im September 2024 eingeführt wurde. Es handelt sich um einen Cloud-Supercomputer, der für extreme Skalierung entwickelt wurde, Verbinden Hunderttausender NVIDIA-GPUs zu Multi-Gigawatt-Clustern, die bis zu 16 beispiellose Leistung liefern Zettaflops der Spitzenleistung.

Diese riesigen Cluster sind in Rechenzentrumscampussen im Gigawatt-Maßstab untergebracht und für die Dichte innerhalb eines Zwei-Kilometer-Radius hyperoptimiert, um die bestmögliche GPU-zu-GPU-Latenz zu gewährleisten. Dies ist genau die Architektur, die mit OpenAI am Flaggschiff-Supercomputerstandort Stargate in Abilene, Texas, eingesetzt wird.

Die Kerninnovation des Systems ist die neue Acceleron RoCE-Netzwerkarchitektur von Oracle. Dieses Design nutzt geschickt die in moderne GPU-Netzwerkschnittstellenkarten (NICs) integrierte Switching-Fähigkeit und ermöglicht so die gleichzeitige Verbindung mit mehreren, physisch isolierten Netzwerkebenen. Dadurch entsteht das, was Oracle als „breite, flache, belastbare Struktur“ bezeichnet.

Dieser Ansatz erhöht die Zuverlässigkeit für groß angelegte KI-Jobs erheblich, indem der Verkehr automatisch von überlasteten oder instabilen Flugzeugen weggeleitet wird, wodurch kostspielige Verzögerungen und Neustarts vermieden werden. Es verwendet außerdem energieeffiziente Optiken, um die Netzwerk-und Kühlkosten zu senken, ohne den Durchsatz zu beeinträchtigen, wodurch ein größerer Teil des Energiebudgets für die Rechenleistung aufgewendet wird.

Peter Hoeschele, Vizepräsident für Infrastruktur bei OpenAI, lobte das Design und bemerkte: „Das hoch skalierbare, benutzerdefinierte RoCE-Design maximiert die strukturweite Leistung im Gigawatt-Bereich, während der Großteil der Leistung auf die Rechenleistung konzentriert bleibt.“

Ergänzt das Hardware ist Oracle AI Database 26ai, eine bahnbrechende Langzeit-Support-Version, die KI direkt in das Flaggschiff des Unternehmens integriert Datenbank.

Dies ist nicht nur ein Add-on; Es stellt eine grundlegende Neugestaltung dar, um KI-Workloads nativ und sicher zu bewältigen. Zu den wichtigsten neuen Funktionen gehört die Unified Hybrid Vector Search.

Database 26ai ermöglicht es Entwicklern, die KI-Vektorsuche mit herkömmlichen relationalen, Text-, JSON-, Knowledge Graph-und räumlichen Suchen in einer einzigen Abfrage zu kombinieren und so weitaus ausgefeiltere Erkenntnisse aus komplexen, multimodalen Unternehmensdaten zu ermöglichen.

[eingebetteter Inhalt]

Die Datenbank führt außerdem integrierte Unterstützung für agentische KI ein Workflows über das Model Context Protocol (MCP) und einen Private AI Services Container. Dieser Container bietet eine vorgefertigte Umgebung für den sicheren Betrieb privater Instanzen von KI-Modellen, die überall eingesetzt werden können, von der öffentlichen Cloud bis hin zu lokalen Rechenzentren.

Eine tiefe Allianz mit NVIDIA

Die neuen Produkte stellen eine tiefe, vielschichtige Partnerschaft mit NVIDIA dar, die weit über Silizium hinausgeht. Die AI Database 26ai von Oracle ist eng in den Software-Stack von NVIDIA integriert und bietet native Unterstützung für NVIDIA NIM-Microservices.

Dies ermöglicht Entwicklern die einfache Implementierung komplexer RAG-Pipelines (Retrieval-Augmented Generation). Die Datenbank ist außerdem darauf ausgelegt, die cuVS-Bibliothek von NVIDIA für die GPU-beschleunigte Vektorindizierung zu nutzen, ein kritischer Engpass in vielen KI-Anwendungen. Darüber hinaus ist NVIDIA AI Enterprise jetzt nativ in der OCI-Konsole verfügbar, wodurch der Zugriff auf eine vollständige Suite von Tools optimiert wird.

Die Zusammenarbeit war ein zentrales Thema der Veranstaltung. Mahesh Thiagarajan, Oracles EVP of Cloud Infrastructure, erklärte: „Ich glaube, dass der KI-Markt durch entscheidende Partnerschaften wie die zwischen Oracle und NVIDIA definiert wurde.“

Ian Buck von NVIDIA wiederholte dies und sagte: „Durch diese jüngste Zusammenarbeit markieren Oracle und NVIDIA neue Grenzen im hochmodernen beschleunigten Computing…“ und begründete die Partnerschaft als Kraftmultiplikator für die KI-Einführung in Unternehmen.

Das große KI-Rechner-Wettrüsten vorantreiben

Diese Ankündigungen sind Oracles neueste Salve im laufenden KI-Rechner-Wettrüsten. Dieser kapitalintensive Krieg zwischen Technologiegiganten verändert derzeit die Wirtschaft. Eine Analyse eines Harvard-Ökonomen ergab, dass die Ausgaben für KI-Infrastruktur im ersten Halbjahr 2025 92 % des US-BIP-Wachstums ausmachten.

Die Dringlichkeit ist spürbar, angetrieben von der existenziellen Angst, zurückgelassen zu werden. Wie OpenAI-Präsident Greg Brockman unverblümt sagte: „Ich mache mir viel mehr Sorgen darüber, dass wir an zu wenig Rechenleistung scheitern, als an zu viel.“

Diese Denkweise treibt Billionen-Dollar-Initiativen wie das Projekt Stargate voran, an dessen Neustart Oracle maßgeblich beteiligt war, nachdem es Anfang des Jahres ins Stocken geraten war.

Das schiere Ausmaß der Investitionen hat Bedenken hinsichtlich einer Industrieblase aufkommen lassen, wobei einige Kritiker darauf verweisen „zirkuläres Finanzierungsmodell“, bei dem Partner in Projekte investieren, die dann durch Hardwareverkäufe zurückgezahlt werden. Dennoch bestehen Branchenführer darauf, dass der Ausbau eine notwendige Reaktion auf einen massiven Rechenengpass ist.

Die Strategie des „KI-Supermarkts“: Absicherung von Wetten mit AMD

Oracles Strategie besteht nicht darin, beim Aufbau von Grundmodellen zu konkurrieren, sondern zum neutralen „KI-Supermarkt“ für die gesamte Branche zu werden. Dieser Ansatz scheint sich auszuzahlen und wichtige Akteure anzuziehen, die eine zuverlässige, leistungsstarke Infrastruktur ohne Anbieterbindung benötigen.

Ein Paradebeispiel ist OpenAIs historischer Cloud-Vertrag über 300 Milliarden US-Dollar und eine Laufzeit von fünf Jahren mit Oracle, um sich eine gewaltige Kapazität von 4,5 Gigawatt für sein Stargate-Projekt zu sichern. Allein dieser Deal stellt einen starken Anker für das KI-Cloud-Geschäft von Oracle dar.

In einem Schritt, der diese Strategie deutlich bestätigt, kündigte Oracle auch eine wichtige Partnerschaft mit AMD an. Das Unternehmen plant, 50.000 der neuen Instinct MI450 AI-Chips von AMD in seiner Cloud einzusetzen und damit Kunden eine wichtige Alternative zur NVIDIA-Hardware zu bieten.

Diese Diversifizierung geht direkt auf branchenweite Bedenken hinsichtlich der Ausfallsicherheit der Lieferkette ein. Es folgt auch jüngsten Berichten, dass Oracles eigene KI-Cloud-Margen durch die hohen Chipkosten unter Druck geraten, was eine zweite Quelle zu einer strategischen Notwendigkeit macht.

SVP von Oracle Cloud, Karan Batta, zeigte sich zuversichtlich in das neue Angebot und sagte Reportern: „Wir haben das Gefühl, dass die Kunden AMD sehr, sehr gut annehmen werden – insbesondere im Inferenzbereich.“

Für die Kunden verspricht dieser verstärkte Wettbewerb mehr Auswahl und bessere Preise. Analyst Holger Müller wies auf die umfassendere Bedeutung hin und erklärte: „Großartige KI braucht großartige Daten. Mit Oracle AI Database 26ai erhalten Kunden beides.“

Categories: IT Info