Microsoft Azure heeft’s werelds eerste NVIDIA GB300 NVL72-cluster op supercomputerschaal geïmplementeerd, een enorm systeem dat speciaal is gebouwd voor zijn partner OpenAI.

Het productiecluster integreert meer dan 4.600 van NVIDIA’s nieuwste Blackwell Ultra GPU’s, wat de enorme kracht levert die nodig is om de volgende generatie AI-modellen te trainen en uit te voeren.

De De implementatie, gelegen in de AI-datacentra van Microsoft, vertegenwoordigt een belangrijke mijlpaal in een diepgaande strategische alliantie tussen de drie technologiegiganten. Het heeft tot doel de AI-ontwikkeling dramatisch te versnellen, waardoor OpenAI krachtigere en complexere modellen kan bouwen dan ooit tevoren, waardoor de collectieve voorsprong van de bedrijven in de fel concurrerende AI-infrastructuurrace wordt verstevigd.

Een nieuwe supercomputergigant voor OpenAI

De aankondiging is het resultaat van een meerjarige gezamenlijke inspanning om een infrastructuur te bouwen die in staat is om grensverleggende AI-workloads aan te kunnen.

Microsoft is van plan om dit eerste cluster de eerste van vele te laten zijn, met een ambitieus doel om opschalen naar honderdduizenden Blackwell Ultra GPU’s in zijn wereldwijde datacenters, een duidelijk signaal van zijn AI-strategie voor de lange termijn.

Lees ook: Waarom Microsoft de ultieme winnaar zou kunnen zijn zodra de AI-zeepbel barst

Deze enorme investering zal modeltraining in weken in plaats van maanden mogelijk maken en de ontwikkeling van modellen met honderden biljoenen parameters ondersteunen.

Volgens Nidhi Chappell, een Corporate Vice President bij Microsoft, is de “samenwerking” helpt ervoor te zorgen dat klanten als OpenAI de infrastructuur van de volgende generatie op ongekende schaal en snelheid kunnen inzetten.”

Microsoft en Nvidia zeggen dat het een nieuwe industriële benchmark zet voor AI-supercomputing op productieschaal.

Onder de motorkap: binnen het GB300 NVL72-cluster

De kern van de supercomputer is NVIDIA’s vloeistofgekoelde, rack-scale GB300 NVL72-systeem, een architectuur onthuld op GTC in maart 2025. Elke eenheid integreert 72 Blackwell Ultra GPU’s en 36 Grace CPU’s in één samenhangend systeem.

Dit dichte ontwerp levert 1,44 exaflops aan FP4-rekenkracht en biedt een uniforme pool van 37 TB snel geheugen per systeem. De ingebouwde vloeistofkoeling is essentieel om de immense thermische output van een dergelijke configuratie met hoge dichtheid te beheren, waardoor duurzame topprestaties mogelijk zijn.

Om meer dan 4.600 GPU’s in één samenhangende supercomputer aan te sluiten, maakt het cluster gebruik van een geavanceerde netwerkarchitectuur met twee niveaus. Binnen elk rack biedt NVIDIA’s NVLink-fabric van de vijfde generatie 130 TB/s aan totale bandbreedte. Hierdoor worden de 72 GPU’s effectief omgezet in een enkele, enorme accelerator met een gedeeld geheugen pool.

Voor communicatie binnen het hele cluster heeft Microsoft NVIDIA’s Quantum-X800 InfiniBand-platform geïmplementeerd. Deze niet-blokkerende, dikke boomstructuur zorgt voor naadloze, snelle communicatie met 800 Gb/s bandbreedte per GPU, een cruciaal onderdeel voor het minimaliseren van overhead bij het trainen van ultragrote modellen over duizenden processors.

De AI-wapenwedloop: een strategisch machtsspel

Hoewel de implementatie van Microsoft de grootste tot nu toe is, volgt deze op een eerdere stap van de gespecialiseerde cloudprovider CoreWeave. In juli 2025 werd CoreWeave het eerste bedrijf dat het GB300-platform commercieel beschikbaar maakte, waardoor een belangrijk pioniersvoordeel op de markt werd veiliggesteld.

 De aankondiging van Microsoft benadrukt echter zorgvuldig het “productie op schaal”-karakter van zijn cluster, wat een nieuw niveau van industrialisatie en capaciteit aangeeft dat het onderscheidt van eerdere, kleinere implementaties.

Deze stap bevestigt de strategische spil van Microsoft, voor het eerst gerapporteerd eind 2024, om prioriteit te geven aan de GB300 boven zijn vertraagde voorganger, de GB200. De succesvolle implementatie is een statement van dominantie in de wapenwedloop op de AI-infrastructuur, waardoor de positie van het bedrijf ten opzichte van cloud-rivalen wordt versterkt.

NVIDIA’s Ian Buck, vice-president van Hyperscale en High-performance Computing, benadrukte de betekenis van het systeem voor het hele veld en stelde:”Dit mede-ontworpen systeem levert’s werelds eerste GB300-productiecluster op grote schaal en levert de supercomputing-engine die nodig is voor OpenAI om modellen met meerdere biljoenen parameters te bedienen.”

Het toont de rol van het platform als leidende motor voor grensverleggend AI-onderzoek en-ontwikkeling.

Voorbij Blackwell: NVIDIA’s Accelerating Roadmap

De Blackwell-architectuur vertegenwoordigt de huidige state-of-the-art op het gebied van AI-versnelling. NVIDIA CEO Jensen Huang heeft de diepgaande impact op de AI-redeneerwerklasten benadrukt en merkte op: “De Blackwell Ultra NVL72 versnelt de AI-redeneerwerklasten dramatisch, waardoor bijna onmiddellijke reacties mogelijk zijn, zelfs op de grootste modellen.”

Maar zelfs nu het vlaggenschipplatform op grote schaal wordt ingezet, kijkt het bedrijf al vooruit naar zijn volgende grote architectonische sprong.

NVIDIA’s agressieve roadmap wijst nu naar het Vera Rubin-platform, dat naar verwachting eind 2026 beschikbaar zal komen. Deze toekomstige architectuur zal nog meer specialisatie introduceren, zoals de onlangs aangekondigde Rubin CPX-co-processor, een speciaal gebouwde chip die is ontworpen om de rekenintensieve”contextfase”van AI-inferentie te versnellen.

Deze strategie van”gedesaggregeerde inferentie”signaleert een markt die verder gaat dan monolithische, universele GPU’s. Door gespecialiseerde hardware te creëren voor specifieke delen van de AI-workflow bouwt NVIDIA aan een diepere concurrentiepositie. Dit meedogenloze tempo van innovatie benadrukt de volwassenheid van de AI-hardwaremarkt.

Voor nu heeft de alliantie Microsoft-NVIDIA-OpenAI een nieuwe standaard gezet voor de infrastructuur die het volgende tijdperk van kunstmatige intelligentie zal bepalen.

Categories: IT Info