Microsoft Azure ha implementato il primo cluster NVIDIA GB300 NVL72 su scala supercomputer al mondo, un enorme sistema creato appositamente per il suo partner OpenAI.
Il cluster di produzione integra oltre 4.600 delle più recenti GPU Blackwell Ultra di NVIDIA, fornendo l’immensa potenza necessaria per addestrare ed eseguire la prossima generazione di modelli IA.
Il La distribuzione, situata nei data center AI di Microsoft, rappresenta una pietra miliare importante in una profonda alleanza strategica tra i tre giganti della tecnologia. Mira ad accelerare notevolmente lo sviluppo dell’IA, consentendo a OpenAI di costruire modelli più potenti e complessi che mai, consolidando la leadership collettiva delle aziende nella corsa fortemente competitiva alle infrastrutture IA.
Un nuovo colosso di supercalcolo per OpenAI
L’annuncio è il culmine di un impegno pluriennale di co-ingegneria per costruire un’infrastruttura in grado di gestire carichi di lavoro di intelligenza artificiale di frontiera.
Microsoft prevede che questo cluster iniziale sia il primo di molti, con l’obiettivo ambizioso di raggiunge centinaia di migliaia di GPU Blackwell Ultra nei suoi data center globali, un chiaro segnale della sua strategia IA a lungo termine.
Leggi anche: Perché Microsoft potrebbe essere il vincitore finale una volta scoppiata la bolla dell’intelligenza artificiale
Questo massiccio investimento consentirà l’addestramento dei modelli in settimane anziché in mesi e supporterà lo sviluppo di modelli con centinaia di trilioni di parametri.
Secondo Nidhi Chappell, vicepresidente aziendale di Microsoft, il”la collaborazione aiuta a garantire che clienti come OpenAI possano implementare infrastrutture di prossima generazione con una scalabilità e una velocità senza precedenti.”
Microsoft e Nvidia affermano che stabilisce un nuovo punto di riferimento del settore per il supercalcolo AI su scala di produzione.
Sotto il cofano: all’interno del cluster GB300 NVL72
Nel cuore del Il supercomputer è il sistema GB300 NVL72 su scala rack di NVIDIA, un’architettura presentata al GTC nel marzo 2025. Ogni unità integra 72 GPU Blackwell Ultra e 36 CPU Grace in un unico sistema coeso.
Questo design denso fornisce 1,44 exaflop di elaborazione FP4 e fornisce un pool unificato da 37 TB di memoria veloce per sistema. Il raffreddamento a liquido integrato è essenziale per gestire l’immensa potenza termica di una configurazione ad alta densità, consentendo prestazioni di picco sostenute.
Per connettere oltre 4.600 GPU in un supercomputer coeso, il cluster utilizza una sofisticata architettura di rete a due livelli. All’interno di ogni rack, la struttura NVLink di quinta generazione di NVIDIA fornisce 130 TB/s di larghezza di banda all-to-all. Ciò trasforma effettivamente le 72 GPU in un singolo, enorme acceleratore con una memoria condivisa pool.
Per la comunicazione nell’intero cluster, Microsoft ha implementato la piattaforma InfiniBand Quantum-X800 di NVIDIA. Questa struttura ad albero grasso non bloccante garantisce una comunicazione continua e ad alta velocità con 800 Gb/s di larghezza di banda per GPU, un componente fondamentale per ridurre al minimo i costi generali durante l’addestramento di modelli ultra-grandi su migliaia di processori.
La corsa agli armamenti dell’intelligenza artificiale: un gioco di potere strategico
Sebbene l’implementazione di Microsoft sia la più grande fino ad oggi, segue una mossa precedente da parte di un provider cloud specializzato CoreWeave. Nel luglio 2025, CoreWeave è diventata la prima azienda a rendere disponibile in commercio la piattaforma GB300, assicurandosi un vantaggio chiave come first mover sul mercato.
Tuttavia, l’annuncio di Microsoft sottolinea attentamente la natura di”produzione su scala”del suo cluster, segnalando un nuovo livello di industrializzazione e capacità che lo distingue dalle precedenti implementazioni più piccole.
Questa mossa conferma il perno strategico di Microsoft, segnalato per la prima volta alla fine del 2024, per dare priorità al GB300 rispetto al suo predecessore ritardato, il GB200. L’implementazione di successo è una dichiarazione di posizione dominante nella corsa agli armamenti per le infrastrutture IA, rafforzando la posizione dell’azienda contro i rivali del cloud.
Ian Buck di NVIDIA, Vice Presidente di Hyperscale and High-performance Computing, ha evidenziato l’importanza del sistema per l’intero settore, affermando:”questo sistema co-ingegnerizzato fornisce il primo cluster di produzione GB300 su larga scala al mondo, fornendo il motore di supercalcolo necessario affinché OpenAI possa servire modelli multimiliardari.”
Dimostra il ruolo della piattaforma come motore leader per la ricerca e lo sviluppo di frontiera dell’IA.
Oltre Blackwell: la roadmap di accelerazione di NVIDIA
L’architettura Blackwell rappresenta l’attuale stato dell’arte nell’accelerazione dell’IA. Il CEO di NVIDIA, Jensen Huang, ha sottolineato il suo profondo impatto sui carichi di lavoro di ragionamento AI, sottolineando:”Blackwell Ultra NVL72 accelera notevolmente i carichi di lavoro di ragionamento AI, consentendo risposte quasi istantanee anche sui modelli più grandi.”
Tuttavia, anche se la sua piattaforma di punta è implementata su larga scala, l’azienda sta già guardando avanti alla sua prossima importante architettura balzo.
La roadmap aggressiva di NVIDIA punta ora alla piattaforma Vera Rubin, che dovrebbe essere disponibile alla fine del 2026. Questa futura architettura introdurrà una specializzazione ancora maggiore, come il coprocessore Rubin CPX recentemente annunciato, un chip appositamente progettato per accelerare la”fase di contesto”ad alta intensità di calcolo dell’inferenza dell’intelligenza artificiale.
Questa strategia di”inferenza disaggregata”segnala un mercato che va oltre le GPU monolitiche e generiche. Creando hardware specializzato per parti specifiche del flusso di lavoro dell’intelligenza artificiale, NVIDIA sta costruendo un fossato competitivo più profondo. Questo ritmo incessante di innovazione evidenzia la maturazione del mercato dell’hardware AI.
Per ora, l’alleanza Microsoft-NVIDIA-OpenAI ha stabilito un nuovo standard per l’infrastruttura che definirà la prossima era dell’intelligenza artificiale.