Microsoft Azure har distribuert verdens første superdatamaskin-skala NVIDIA GB300 NVL72 Cluster, et massivt system bygget spesielt for sin partner, Openai.
Produksjonsklyngen. Integrer over 4600 av toget til å toget til å få en rulling til å toget til toget til å rulle.
Distribusjonen, som ligger i Microsofts AI-datasentre, representerer en viktig milepæl i en dyp strategisk allianse mellom de tre tech-gigantene. Den tar sikte på å dramatisk akselerere AI-utviklingen, slik at Openai kan bygge kraftigere og komplekse modeller enn noen gang før, og styrker selskapenes kollektive ledelse i det voldsomt konkurransedyktige AI-infrastrukturløpet.
En ny superdatamaskinforhold for Openai
Kunngjøringen er kulminasjonen på en flerårig, medkampanje for å bygge infrastruktur som er i stand til å håndtere Frontier AI-arbeidsmengde.
Microsofts for å være en cluster for å være en href=”https://azure.microsoft.com/en-us/blog/microsoft-azure-delivers-the-irst-large-cale-cluster-with-nvidia-gb300-nl72-for-for-weeni-workloads/”Target=”_ blank”> Scale to dundusswena-workloads/”Target=”_ Blank”> Scale tousSwena-grov-nVidia-nvidia-nvidia-gb300-en-nvidna-t-nvidia-nvidia-GB300-ne-tuster-with-nvidia-nvidia-GB300-en. Datasentre, et klart signal om den langsiktige AI-strategien.
Les også: Hvorfor Microsoft kan være den ultimate vinneren når AI-boblen sprenger
Denne massive investeringen vil mulig President hos Microsoft,”samarbeidet med å sikre at kunder som Openai kan distribuere neste generasjons infrastruktur i enestående skala og hastighet.”
Microsoft og NVIDIA sier at den setter en ny bransje-benchmark for AI SuperComputing på Production Scale.
under Hood: Inside the Gs.
Hjertet av superdatamaskinen er NVIDIAs flytende-kjølte, rack-skala GB300 NVL72-system, en arkitektur som ble avdekket ved GTC i mars 2025. Hver enhet integrerer 72 Blackwell Ultra GPUs og 36 Grace CPUer i et enkelt kohesivsystem. href=”https://blogs.nvidia.com/blog/microsoft-azure-worlds-first-gb300-nvl72-supercomputing-cluster-openi/”Target=”_ blank”> leverer 1.44 exaflops of fp4 Compute og gir A DIC-hukommelse av FP4. Den innebygde væskekjøling er viktig for å håndtere den enorme termiske utgangen av en slik høy tetthetskonfigurasjon, slik at vedvarende topp ytelse.
For å koble over 4600 GPUer til en sammenhengende superdatamaskin, bruker klyngen en sofistikert to-tiered nettverksarkitektur. Innenfor hvert rack gir NVIDIAs femte generasjons NVLink-stoff 130 TB/s av alle til alle båndbredde. This effectively turns the 72 GPUs into a single, massive accelerator with a shared memory Basseng