Microsoft Azure ha implementado el primer clúster NVIDIA GB300 NVL72 a escala de supercomputadora del mundo, un sistema masivo creado específicamente para su socio, OpenAI.
El clúster de producción integra más de 4600 de las últimas GPU Blackwell Ultra de NVIDIA, lo que proporciona la inmensa potencia necesaria para entrenar y ejecutar la próxima generación de modelos de IA.
El La implementación, ubicada en los centros de datos de inteligencia artificial de Microsoft, representa un hito importante en una profunda alianza estratégica entre los tres gigantes tecnológicos. Su objetivo es acelerar drásticamente el desarrollo de la IA, permitiendo a OpenAI construir modelos más potentes y complejos que nunca, solidificando el liderazgo colectivo de las empresas en la ferozmente competitiva carrera de infraestructura de IA.
Un nuevo gigante de la supercomputación para OpenAI
El anuncio es la culminación de un esfuerzo de co-ingeniería de varios años para construir una infraestructura capaz de manejar cargas de trabajo de IA de vanguardia.
Microsoft planea que este clúster inicial sea el primero de muchos, con el ambicioso objetivo de escalar a cientos de miles de GPU Blackwell Ultra en sus centros de datos globales, una clara señal de su estrategia de IA a largo plazo.
Lea también: Por qué Microsoft podría ser el ganador definitivo una vez que estalle la burbuja de la IA
Esta inversión masiva permitirá la capacitación de modelos en semanas en lugar de meses y respaldará el desarrollo de modelos con cientos de billones de parámetros.
Según Nidhi Chappell, vicepresidente corporativo de Microsoft, el”La colaboración ayuda a garantizar que clientes como OpenAI puedan implementar infraestructura de próxima generación a una escala y velocidad sin precedentes”.
Microsoft y Nvidia dicen que establece un nuevo punto de referencia en la industria para la supercomputación de IA a escala de producción.
Bajo el capó: dentro del clúster GB300 NVL72
En el corazón de la supercomputadora se encuentra El sistema GB300 NVL72 a escala de rack y refrigeración líquida de NVIDIA, una arquitectura presentada en GTC en marzo de 2025. Cada unidad integra 72 GPU Blackwell Ultra y 36 CPU Grace en un único sistema cohesivo.
Este diseño denso ofrece 1,44 exaflops de computación FP4 y proporciona un grupo unificado de 37 TB de memoria rápida por sistema. La refrigeración líquida incorporada es esencial para gestionar la inmensa producción térmica de una configuración de tan alta densidad, lo que permite un rendimiento máximo sostenido.
Para conectar más de 4600 GPU en una supercomputadora cohesiva, el clúster utiliza una sofisticada arquitectura de red de dos niveles. Dentro de cada bastidor, la estructura NVLink de quinta generación de NVIDIA proporciona 130 TB/s de ancho de banda total. Esto convierte efectivamente las 72 GPU en un un acelerador único y masivo con memoria compartida. pool.
Para la comunicación en todo el clúster, Microsoft ha implementado la plataforma Quantum-X800 InfiniBand de NVIDIA. Esta estructura de árbol grueso y sin bloqueo garantiza una comunicación fluida y de alta velocidad con 800 Gb/s de ancho de banda por GPU, un componente crítico para minimizar los gastos generales al entrenar modelos ultragrandes en miles de procesadores.
La carrera armamentista de la IA: un juego de poder estratégico
Si bien la implementación de Microsoft es la más grande hasta la fecha, sigue un movimiento anterior del proveedor especializado en la nube CoreWeave. En julio de 2025, CoreWeave se convirtió en la primera empresa en comercializar la plataforma GB300, lo que garantiza una ventaja clave como pionero en el mercado.
Sin embargo, el anuncio de Microsoft enfatiza cuidadosamente la naturaleza de”producción a escala”de su clúster, lo que indica un nuevo nivel de industrialización y capacidad que lo distingue de implementaciones anteriores y más pequeñas.
Esta medida valida el giro estratégico de Microsoft, primero informó a finales de 2024, para priorizar el GB300 sobre su predecesor retrasado, el GB200. La implementación exitosa es una declaración de dominio en la carrera armamentista de infraestructura de IA, lo que refuerza la posición de la compañía frente a sus rivales en la nube.
Ian Buck, vicepresidente de Computación de Hiperescala y Alto Rendimiento de NVIDIA, destacó la importancia del sistema para todo el campo y afirmó: “este sistema diseñado conjuntamente ofrece el primer clúster de producción GB300 a escala del mundo, proporcionando la supercomputación motor necesario para que OpenAI sirva modelos de parámetros multimillonarios”.
Muestra el papel de la plataforma como motor líder para la investigación y el desarrollo de IA de vanguardia.
Más allá de Blackwell: la hoja de ruta de aceleración de NVIDIA
La arquitectura Blackwell representa el estado actual del arte en aceleración de IA. El director ejecutivo de NVIDIA, Jensen Huang, ha enfatizado su profundo impacto en las cargas de trabajo de razonamiento de IA y señaló que”el Blackwell Ultra NVL72 acelera drásticamente las cargas de trabajo de razonamiento de IA, permitiendo respuestas casi instantáneas incluso en los modelos más grandes”.
Sin embargo, incluso cuando su plataforma insignia se implementa a escala, la compañía ya está mirando hacia su próximo gran salto arquitectónico.
La agresiva hoja de ruta de NVIDIA ahora apunta a la plataforma Vera Rubin, que se espera que esté disponible a finales de 2026. Esta arquitectura futura introducirá aún más especialización, como el recientemente anunciado coprocesador Rubin CPX, un chip especialmente diseñado para acelerar la “fase de contexto” de computación intensiva de la inferencia de IA.
Esta estrategia de “inferencia desagregada” señala un mercado que se mueve más allá de lo monolítico, GPU de uso general. Al crear hardware especializado para partes específicas del flujo de trabajo de la IA, NVIDIA está construyendo un foso competitivo más profundo. Este ritmo implacable de innovación pone de relieve la maduración del mercado de hardware de IA.
Por ahora, la alianza Microsoft-NVIDIA-OpenAI ha establecido un nuevo estándar para la infraestructura que definirá la próxima era de la inteligencia artificial.