Microsoft Azure a implementat primul cluster NVL72 la scară de supercomputer NVIDIA GB300 NVL72, un sistem masiv construit special pentru partenerul său, OpenAI.

Clusterul de producție se integrează peste 4.600 de cele mai recente Blackwell Ultra GPU, oferind puterea imensă necesară pentru a trezi și rulează următoarea generație a modelelor AI.

Desfășurarea, situată în AI Datacenters AI, reprezintă o etapă majoră într-o alianță strategică profundă între cei trei giganți tehnologici. Acesta își propune să accelereze dramatic dezvoltarea AI, permițând lui OpenAI să construiască modele mai puternice și mai complexe ca niciodată, solidificând plumbul colectiv al companiilor în cursa de infrastructură AI competitivă.

Un nou behemoth supercomputing pentru OpenAI

Anunțul este punctul culminant al unui efort de co-inginerie pe mai mulți ani pentru a construi infrastructura capabilă să gestioneze Frontier AI Work sarcinile. href=”https://azure.microsoft.com/en-us/blog/microsoft-azure-delivers-the-first-large-scale-cluster-with-nvidia-gb300-nvl72-for-openai-workloads/”Target=”_ Blank”> Scale la sute de mii de Blackwell Ultra gpus Semnalul strategiei sale AI pe termen lung.

citiți și: de ce Microsoft ar putea fi câștigătorul final odată ce AI Bubble Bursts

Această investiție masivă va permite formarea modelului în săptămâni în loc de luni și va susține dezvoltarea modelelor cu sute de trilioane de parametri. „Colaborarea ajută la asigurarea clienților precum OpenAI pot implementa infrastructură de generație viitoare la scară și viteză fără precedent. este sistemul NVL72, răcit cu lichid NVIDIA, SISTEM NVL72, o arhitectură dezvăluită la GTC în martie 2025. Fiecare unitate integrează 72 Blackwell Ultra GPUS și 36 CPU GRACE într-un singur sistem de coeziune.

acest design dens oferă 1,44 exaflops de FP4 Compute și oferă un 37TB Pool of Fast Memory Pery. Răcirea lichidă încorporată este esențială pentru a gestiona imensa producție termică a unei astfel de configurații de înaltă densitate, permițând performanțe de vârf susținute.

să conecteze peste 4.600 GPU-uri într-un singur supercomputer coeziv, clusterul folosește o arhitectură de rețea cu două tiere sofisticată. În cadrul fiecărui raft, țesătura NVLink din a cincea generație NVIDIA oferă 130 TB/s de lățime de bandă. Acest lucru transformă efectiv 72 GPU-uri într-un single, masive accelerator pool .

Pentru comunicare pe întregul cluster, Microsoft a implementat acest nvidia cuantum-x800 transpirația de infinire, din acest nvidia, cu nvidia, cu nvidia, s-a platforma de nvidia, de nvidia, de platforma infinliband. Fat-arbore Fabric asigură o comunicare perfectă, de mare viteză, cu 800 GB/s de lățime de bandă pe GPU, o componentă critică pentru minimizarea cheltuielilor generale atunci când antrenează modele ultra-mari în mii de procesoare.

Cursa AI Arms: Un joc de putere strategică

în timp ce mutarea anterioară prin deplarea de cloud a microsoft este pe mare parte, în timp ce se urmărește o mutări a microsoft-ului, care urmărește o mutări anterioare de nor, care urmărește o mutări de nor, care urmărește un microsoft, care urmărește o mutări ale Microsoft. Coreweave. În iulie 2025, Coreweave a devenit prima companie care a pus la dispoziție în comerț platforma GB300, asigurând un avantaj cheie pentru primul loc pe piață.

Cu toate acestea, anunțul Microsoft subliniază cu atenție „producția la scară la scară„ natura clusterului său, semnalând un nou nivel de industrializare și capacitate care o distinge de la deplinările anterioare. raportat pentru prima dată la sfârșitul anului 2024, pentru a acorda prioritate GB300 față de predecesorul său întârziat, GB200. The successful deployment is a statement of dominance in the AI ​​infrastructure arms race, reinforcing the company’s position against cloud rivals.

NVIDIA’s Ian Buck, Vice President of Hyperscale and High-performance Computing, highlighted the system’s significance for the entire field, stating, “this co-engineered system delivers the world’s first at-scale GB300 production cluster, providing the supercomputing engine necesar pentru OpenAI pentru a servi modele multitrillion-parametru.”

arată rolul platformei ca motor principal pentru cercetarea și dezvoltarea AI de frontieră.

dincolo de Blackwell: accelerarea Roadmap-ului accelerat de Nvidia

Arhitectura Blackwell reprezintă actualul stat-al-parte în AI Acceleration. NVIDIA CEO Jensen Huang has emphasized its profound impact on AI reasoning workloads, noting, “the Blackwell Ultra NVL72 dramatically accelerates AI reasoning workloads, enabling near-instantaneous responses even on the largest models.”

Yet, even as its flagship platform is deployed at scale, the company is already looking ahead to its next major architectural LEAP.

Foaia de parcurs agresivă a lui Nvidia indică acum platforma Vera Rubin, care este de așteptat să devină disponibilă la sfârșitul anului 2026. Această arhitectură viitoare va introduce și mai multă specializare, cum ar fi recent anunțat Rubin CPX co-procesor, un cip construit de scopuri conceput pentru a accelera această strategie de „fază de context” de la Inference AI. Semnalizează o piață care se deplasează dincolo de GPU-uri monolitice, cu scop general. Prin crearea de hardware specializat pentru anumite părți ale fluxului de lucru AI, NVIDIA construiește o groapă competitivă mai profundă. Acest ritm neobosit de inovație evidențiază maturizarea pieței hardware AI.

Deocamdată, Alianța Microsoft-Nvidia-Openai a stabilit un nou standard pentru infrastructura care va defini următoarea eră a inteligenței artificiale.

Categories: IT Info