Microsoft está acelerando el desarrollo interno de chips de IA al otorgar licencias de diseños de sistemas y hardware patentados a su socio OpenAI, confirmó esta semana el director ejecutivo Satya Nadella. El movimiento estratégico, revelado en entrevistas el 13 de noviembre, le da a Microsoft acceso a la IP de silicio personalizada de OpenAI, que se está desarrollando conjuntamente con Broadcom.
Esto permite al gigante de Redmond acelerar sus propios aceleradores de IA y construir una pila de hardware y software más integrada verticalmente.
El acuerdo profundiza la asociación de las dos compañías hasta 2032 y posiciona a Microsoft para controlar mejor sus costos de infraestructura de IA y su hoja de ruta a largo plazo, lo que marca un paso significativo en la escalada de la IA. carrera armamentista de hardware.
Una asociación más profunda forjada en silicio
En un cambio estratégico significativo, Microsoft está yendo más allá de simplemente proporcionar infraestructura de nube para OpenAI y ahora está integrando las principales innovaciones de hardware de su socio directamente en su propia hoja de ruta de silicio.
El acuerdo de licencia otorga a Microsoft derechos sobre toda la propiedad intelectual a nivel de sistema de su colaboración con OpenAI, incluidos diseños de chips personalizados desarrollados conjuntamente con el gigante de los semiconductores Broadcom.
Este acuerdo, que otorga a Microsoft acceso a la investigación de chips de OpenAI hasta 2030, está diseñado para permitir a la empresa industrializar y evolucionar la tecnología bajo su propia propiedad intelectual.
Esta integración vertical es un componente central de la estrategia de IA de doble vía de Microsoft. Mientras continúa aprovechando los modelos de vanguardia de OpenAI, la compañía también está invirtiendo fuertemente en sus propias capacidades, incluida la familia de modelos MAI y aceleradores personalizados como Maia.
Al obtener la licencia de los diseños probados de OpenAI, Microsoft puede eliminar riesgos y acelerar el desarrollo de su propio chip, una ventaja crucial en un mercado dominado por NVIDIA.
Como explicó Satya Nadella en una entrevista reciente en el poscast de Dwarkesh Patel, esto garantiza que Microsoft tenga una camino a seguir a largo plazo y flexible.
“Tendremos acceso a los modelos OpenAI durante siete años más, y además innovaremos. Esencialmente, creo que tenemos un modelo de vanguardia que podemos usar e innovar con total flexibilidad”, dijo Nadella.
[contenido incorporado]
El nuevo acuerdo también solidifica los vínculos financieros y estratégicos entre las dos empresas.
Incluía que Microsoft adquiriera un 27% participación en la corporación de beneficio público de OpenAI, con una valoración de aproximadamente 135 mil millones de dólares, y aclara que Microsoft conservará el acceso a los modelos de OpenAI incluso después de que se alcancen posibles hitos de AGI.
Nadella ha sido clara acerca de las ambiciones de la compañía y afirmó:”La buena noticia aquí con el nuevo acuerdo es que podemos tener muy, muy claro que vamos a construir un equipo de superinteligencia de clase mundial y lo perseguiremos con una gran ambición”.
De una”Gran Pausa”a un futuro verticalmente integrado
Los comentarios de Nadella también brindan un contexto crucial para la reciente estrategia de infraestructura de la compañía.
A finales de 2024 y principios de 2025, los analistas de la industria notaron una desaceleración significativa en la construcción del centro de datos de Microsoft, una medida que denominaron la”Gran Pausa”.
En este período, competidores como Oracle aseguraron computación masiva de miles de millones de dólares. contratos con OpenAI, lo que generó especulaciones de que Microsoft había perdido su liderazgo.
Sin embargo, Nadella reformula este período como un movimiento deliberado para evitar el bloqueo generacional y construir una flota más resiliente y “fungible”.
Sostiene que la principal limitación para la expansión de la IA no es la disponibilidad de chips, sino el espacio del centro de datos con energía y refrigeración, o “cáscaras calientes”.
Construir demasiada capacidad optimizada para una generación de hardware sería una enorme pérdida de capital.”No se puede construir una infraestructura optimizada para un modelo”, dijo Nadella.”Si haces eso, ¿qué pasa si te quedas atrás? De hecho, toda la infraestructura que construyeste será un desperdicio”.
Esta filosofía resalta los inmensos riesgos financieros del desarrollo de la IA, donde el gasto de capital del hiperescalador se acerca a los 400 mil millones de dólares al año y genera comparaciones con la burbuja de las puntocom.
La decisión de licenciar el chip IP de OpenAI encaja perfectamente en esta narrativa. Permite a Microsoft crear hardware personalizado y altamente optimizado que se diseña conjuntamente con los modelos que ejecutará, lo que mejora la eficiencia y reduce los costos operativos a largo plazo.
El movimiento hacia la integración vertical es una respuesta directa al inmenso costo y la presión competitiva de la carrera armamentista de la IA.
Navegando por una carrera armamentista de múltiples modelos y múltiples proveedores
Mientras profundiza su asociación de silicio con OpenAI, Microsoft está cubriendo sus apuestas simultáneamente. en todo el ecosistema de IA.
La empresa está trabajando activamente para reducir su dependencia de un único proveedor de hardware o modelo. Una transcripción no confirmada que circula en línea de un presunto empleado de Microsoft sugiere que la compañía está abordando el dominio del software de NVIDIA de frente.
“Creamos algunos kits de herramientas para ayudar a convertir modelos CUDA similares a ROCm para que puedas usarlos en un AMD, como un 300X”, afirmó la fuente.
Una herramienta de este tipo permitiría a Azure ejecutar cargas de trabajo críticas de IA en hardware AMD más rentable, rompiendo el poderoso foso CUDA.
Esta estrategia de hardware de múltiples proveedores refleja el enfoque de Microsoft en la capa de aplicación y modelo. La compañía enfrenta una competencia cada vez mayor también de socios como Anthropic, que recientemente lanzó”Claude for Excel”para competir directamente con las funciones Copilot de Microsoft dentro de su producto estrella.
En lugar de bloquear tales movimientos, Microsoft ha adoptado una estrategia multimodelo, integrando los modelos de Anthropic en sus propias ofertas.
En septiembre, integró oficialmente los modelos Claude de Anthropic como una alternativa seleccionable por el usuario a OpenAI dentro de Microsoft. 365 Copilot, que ofrece a los clientes empresariales más opciones.
Esto posiciona a Azure no solo como un proveedor de OpenAI, sino también como una plataforma fundamental para un ecosistema diverso de modelos y herramientas de IA competitivos. Al controlar la infraestructura subyacente desde la plataforma en la nube hasta el silicio personalizado, Microsoft pretende seguir siendo la base indispensable para toda la industria de la IA, independientemente de qué modelo o aplicación gane una batalla en particular.