Oracle, aux côtés de son partenaire stratégique NVIDIA, a dévoilé aujourd’hui sa nouvelle génération d’infrastructure native pour l’IA, avec en tête d’affiche l’énorme cluster de supercalcul OCI Zettascale10 et la base de données Oracle AI 26ai profondément intégrée.

Annoncées lors de la conférence AI World, les nouvelles plates-formes sont conçues pour alimenter les charges de travail d’IA les plus exigeantes, de la formation de modèles fondamentaux à l’exécution de données complexes. Analytics.

Ce lancement de produit majeur consolide la position d’Oracle en tant que fournisseur d’armes essentiel dans la course au calcul de l’IA. Elle approfondit ses liens avec NVIDIA et fait progresser sa stratégie visant à fournir les « pioches et pelles » fondamentales pour l’ensemble du secteur de l’IA.

L’arsenal d’IA d’Oracle : Zettascale10 et la base de données 26ai

La pièce maîtresse de l’annonce est l’OCI Zettascale10, une évolution du premier cluster zettascale d’Oracle introduit en septembre 2024. Il s’agit d’un supercalculateur cloud conçu pour une échelle extrême, connectant des centaines de milliers de GPU NVIDIA dans des clusters de plusieurs gigawatts qui fournissent jusqu’à 16 GPU sans précédent des zettaflops de performances maximales.

Ces clusters massifs sont hébergés dans des campus de centres de données à l’échelle du gigawatt, hyper-optimisés pour la densité dans un rayon de deux kilomètres afin de garantir la meilleure latence GPU à GPU possible. Il s’agit exactement de l’architecture déployée avec OpenAI sur le site phare du supercalculateur Stargate à Abilene, au Texas.

L’innovation principale du système est la nouvelle architecture réseau Acceleron RoCE d’Oracle. Cette conception utilise intelligemment la capacité de commutation intégrée aux cartes d’interface réseau (NIC) GPU modernes, leur permettant de se connecter simultanément à plusieurs plans réseau physiquement isolés. Cela crée ce qu’Oracle appelle un « tissu large, peu profond et résilient ».

Cette approche augmente considérablement la fiabilité des tâches d’IA à grande échelle en éloignant automatiquement le trafic des avions encombrés ou instables, évitant ainsi les blocages et redémarrages coûteux. Il utilise également des optiques économes en énergie pour réduire les coûts de réseau et de refroidissement sans sacrifier le débit, en consacrant une plus grande partie du budget d’énergie au calcul.

Le vice-président de l’infrastructure d’OpenAI, Peter Hoeschele, a fait l’éloge de la conception, notant: « La conception RoCE personnalisée hautement évolutive maximise les performances à l’échelle de la structure à l’échelle du gigawatt tout en gardant la majeure partie de la puissance concentrée sur le calcul. »

En complément du matériel. est Oracle AI Database 26ai, une version de support à long terme qui architecte l’IA directement dans la base de données phare de l’entreprise.

Ce n’est pas seulement un module complémentaire ; il représente une refonte fondamentale pour gérer les charges de travail d’IA de manière native et sécurisée. L’une de ses nouvelles fonctionnalités est la recherche de vecteurs hybrides unifiée.

La base de données 26ai permet aux développeurs de combiner la recherche de vecteurs IA avec des recherches relationnelles, textuelles, JSON, Knowledge Graph et spatiales traditionnelles dans une seule requête, permettant ainsi des informations beaucoup plus sophistiquées à partir de données d’entreprise complexes et multimodales.

[contenu intégré]

La base de données introduit également une prise en charge intégrée de l’agentic. Workflows d’IA via le Model Context Protocol (MCP) et un conteneur de services d’IA privé. Ce conteneur fournit un environnement prédéfini pour exécuter en toute sécurité des instances privées de modèles d’IA, qui peuvent être déployées n’importe où, du cloud public aux centres de données sur site.

Une alliance profonde avec NVIDIA

Les nouveaux produits présentent un partenariat profond et multicouche avec NVIDIA qui s’étend bien au-delà du silicium. L’IA Database 26ai d’Oracle est étroitement intégrée à la pile logicielle de NVIDIA, offrant une prise en charge native des microservices NVIDIA NIM.

Cela permet aux développeurs de mettre en œuvre facilement des pipelines complexes de génération augmentée par récupération (RAG). La base de données est également conçue pour exploiter la bibliothèque cuVS de NVIDIA pour l’indexation vectorielle accélérée par GPU, un goulot d’étranglement critique dans de nombreuses applications d’IA. De plus, NVIDIA AI Enterprise est désormais disponible nativement dans la console OCI, rationalisant ainsi l’accès à une suite complète d’outils.

La collaboration était un thème central de l’événement. Mahesh Thiagarajan, vice-président exécutif de l’infrastructure cloud d’Oracle, a déclaré: « Je crois que le marché de l’IA a été défini par des partenariats critiques tels que celui entre Oracle et NVIDIA. »

Ian Buck de NVIDIA a fait écho à cela, déclarant: « Grâce à cette dernière collaboration, Oracle et NVIDIA marquent de nouvelles frontières en matière de calcul accéléré de pointe… », encadrant le partenariat. comme multiplicateur de force pour l’adoption de l’IA en entreprise.

Alimenter la grande course aux armements informatiques en matière d’IA

Ces annonces sont la dernière salve d’Oracle dans la course aux armements informatiques en cours en matière d’IA. Cette guerre à forte intensité de capital entre géants de la technologie remodèle actuellement l’économie. Une analyse réalisée par un économiste de Harvard a révélé que les dépenses en infrastructures d’IA ont contribué à 92 % de la croissance du PIB américain au premier semestre 2025.

L’urgence est palpable, motivée par la peur existentielle d’être laissé pour compte. Comme l’a déclaré sans ambages Greg Brockman, président d’OpenAI : « Je suis bien plus inquiet de notre échec à cause d’un manque de calcul que d’un excès de calcul. » modèle de financement » dans lequel les partenaires investissent dans des projets uniquement pour être remboursés par la vente de matériel. Pourtant, les leaders du secteur insistent sur le fait que ce développement est une réponse nécessaire à une crise massive du calcul.

La stratégie du « supermarché de l’IA » : couvrir les paris avec AMD

La stratégie d’Oracle n’est pas de rivaliser sur la construction de modèles de base, mais de devenir le « supermarché de l’IA » neutre pour l’ensemble du secteur. Cette approche semble porter ses fruits, attirant des acteurs clés qui ont besoin d’une infrastructure fiable et performante sans dépendance vis-à-vis d’un fournisseur.

Un excellent exemple est l’accord cloud historique de 300 milliards de dollars sur cinq ans entre OpenAI et Oracle pour garantir une capacité massive de 4,5 gigawatts pour son projet Stargate. Cet accord constitue à lui seul un point d’ancrage puissant pour l’activité cloud d’IA d’Oracle.

Dans une démarche qui valide puissamment cette stratégie, Oracle a également annoncé un partenariat majeur avec AMD. La société prévoit de déployer 50 000 nouvelles puces d’IA Instinct MI450 d’AMD sur son cloud, offrant ainsi aux clients une alternative vitale au matériel de NVIDIA.

Cette diversification répond directement aux préoccupations de l’ensemble du secteur concernant la résilience de la chaîne d’approvisionnement. Cela fait également suite à des rapports récents selon lesquels les marges du cloud IA d’Oracle étaient réduites par le coût élevé des puces, faisant d’une deuxième source une nécessité stratégique.

Le vice-président senior d’Oracle Cloud, Karan Batta, a exprimé sa confiance dans la nouvelle offre, déclarant aux journalistes:”Nous pensons que les clients vont très, très bien adopter AMD, en particulier dans le domaine de l’inférence.”

Pour les clients, cette concurrence accrue promet plus. choix et meilleurs prix. L’analyste Holger Mueller a souligné l’importance plus large, déclarant :”Une bonne IA a besoin de données de qualité. Avec Oracle AI Database 26ai, les clients obtiennent les deux.”

Categories: IT Info