Microsoft Azure har distribuert verdens første superdatamaskin-skala NVIDIA GB300 NVL72 Cluster, et massivt system bygget spesielt for sin partner, Openai.

Produksjonsklyngen. Integrer over 4600 av toget til å toget til å få en rulling til å toget til toget til å rulle.

Distribusjonen, som ligger i Microsofts AI-datasentre, representerer en viktig milepæl i en dyp strategisk allianse mellom de tre tech-gigantene. Den tar sikte på å dramatisk akselerere AI-utviklingen, slik at Openai kan bygge kraftigere og komplekse modeller enn noen gang før, og styrker selskapenes kollektive ledelse i det voldsomt konkurransedyktige AI-infrastrukturløpet.

En ny superdatamaskinforhold for Openai

Kunngjøringen er kulminasjonen på en flerårig, medkampanje for å bygge infrastruktur som er i stand til å håndtere Frontier AI-arbeidsmengde.

Microsofts for å være en cluster for å være en href=”https://azure.microsoft.com/en-us/blog/microsoft-azure-delivers-the-irst-large-cale-cluster-with-nvidia-gb300-nl72-for-for-weeni-workloads/”Target=”_ blank”> Scale to dundusswena-workloads/”Target=”_ Blank”> Scale tousSwena-grov-nVidia-nvidia-nvidia-gb300-en-nvidna-t-nvidia-nvidia-GB300-ne-tuster-with-nvidia-nvidia-GB300-en. Datasentre, et klart signal om den langsiktige AI-strategien.

Les også: Hvorfor Microsoft kan være den ultimate vinneren når AI-boblen sprenger

Denne massive investeringen vil mulig President hos Microsoft,”samarbeidet med å sikre at kunder som Openai kan distribuere neste generasjons infrastruktur i enestående skala og hastighet.”

Microsoft og NVIDIA sier at den setter en ny bransje-benchmark for AI SuperComputing på Production Scale.

under Hood: Inside the Gs.

Hjertet av superdatamaskinen er NVIDIAs flytende-kjølte, rack-skala GB300 NVL72-system, en arkitektur som ble avdekket ved GTC i mars 2025. Hver enhet integrerer 72 Blackwell Ultra GPUs og 36 Grace CPUer i et enkelt kohesivsystem. href=”https://blogs.nvidia.com/blog/microsoft-azure-worlds-first-gb300-nvl72-supercomputing-cluster-openi/”Target=”_ blank”> leverer 1.44 exaflops of fp4 Compute og gir A DIC-hukommelse av FP4. Den innebygde væskekjøling er viktig for å håndtere den enorme termiske utgangen av en slik høy tetthetskonfigurasjon, slik at vedvarende topp ytelse.

For å koble over 4600 GPUer til en sammenhengende superdatamaskin, bruker klyngen en sofistikert to-tiered nettverksarkitektur. Innenfor hvert rack gir NVIDIAs femte generasjons NVLink-stoff 130 TB/s av alle til alle båndbredde. This effectively turns the 72 GPUs into a single, massive accelerator with a shared memory Basseng

For kommunikasjon over hele klyngen har Microsoft distribuert

The AI ​​Arms Race: A Strategic Power. Spesialisert skyleverandør Coreweave. I juli 2025 ble Coreweave det første selskapet som gjorde GB300-plattformen kommersielt tilgjengelig, og sikret en viktig første-mover-fordel i markedet.

Imidlertid understreker Microsofts kunngjøring nøye med”denne prioriteten”. Pivot, først rapportert i slutten av 2024, for å prioritere GB300 over den forsinkede forgjengeren, GB200. Den vellykkede utplasseringen er en dominansserklæring i AI Infrastructure Arms Race, og forsterker selskapets posisjon mot Cloud Rivals.

Nvidias Ian Buck, visepresident for Hyperscale og High-Performance Computing, fremhevet systemets betydning for hele feltet, som uttalte, denne co-engenerede systemet som den verdenen, som uttalte den co-engasjerte systemets betydning for hele feltet. Superdatamaskiner som trengs for at Openai skal betjene multitillion-parametermodeller.”

Det viser plattformens rolle som ledende motor for Frontier AI-forskning og utvikling.

utover Blackwell: Nvidias akselererende veikart

Blackwell Architecture Representerer den nåværende. NVIDIA-administrerende direktør Jensen Huang har lagt vekt på sin dype innvirkning på AI-resonnementets arbeidsmengder, og bemerker:”Blackwell Ultra NVL72 akselererer dramatisk AI-resonnement på arbeidsmengden, noe som gjør det nærmeste, selv om det er et stort svar på den største modeller.”

NVIDIAs aggressive veikart peker nå på Vera Rubin-plattformen, som forventes å bli tilgjengelig i slutten av 2026. Denne fremtidige arkitekturen vil introdusere enda mer spesialisering, for eksempel den nylig annonserte Rubin CPX-co-prosessoren, et spesialbygget som er designet for å akselerere den beregningsintensive”konteksten”i en pinferates”-tegnet.

Monolitiske, generelle GPU-er. Ved å lage spesialisert maskinvare for spesifikke deler av AI-arbeidsflyten, bygger Nvidia en dypere konkurrerende vollgrav. Dette nådeløse tempoet for innovasjon belyser modningen av AI-maskinvaremarkedet.

For nå har Microsoft-Nvidia-Openai Alliance satt en ny standard for infrastrukturen som vil definere neste epoke med kunstig intelligens.