Microsoft anunció oficialmente en su Conferencia de Desarrollador de construcción el 19 de mayo de 2025, que los modelos XAI de Elon Musk, Grok 3 y Grok 3 Mini, ahora forman parte de su fundición Azure Ai. Este movimiento subraya la estrategia de Microsoft para establecer Azure como una nube principal para diversos modelos de IA, incluidos los de competidores a su socio clave, OpenAI, y modelos con un historial de generación de contenido problemático.
Los modelos Grok AI serán alojados y facturados directamente por Microsoft, adhiriendo los acuerdos de nivel de Azure estándar, como la compañía asegurada. Para los desarrolladores, esto significa acceso ampliado a variadas capacidades de IA. Sin embargo, esta integración también afecta el enfoque en la investigación modelo de Microsoft y la compleja dinámica con OpenAI, especialmente teniendo en cuenta las batallas legales en curso de Elon Musk con el laboratorio de IA que cofundó. Según los informes, la CEO de Microsoft Satya Nadella, es un controlador clave detrás de esta expansión, con el objetivo de que Azure sea el anfitrión definitivo para los modelos de IA influyentes. Esta ambición es evidente como Azure Ai Foundry, que ahora cuenta con más de 1,900 modelos de IA, incorpora rápidamente ofrendas de varios laboratorios de IA, incluidos Meta, Cohere, Nvidia, Abrazo, Estabilidad IA y Mistral. Microsoft también dio a conocer nuevas herramientas de fundición Azure Ai como A modelerboard y modelerboard y y
Durante una conversación pregrabada con Satya Nadella en Microsoft Build 2025, Musk declaró que los modelos de Xai”Aspiran a la verdad con un error mínimo”y enfatizó que”es increíblemente importante que los modelos de IA se basan en la realidad”, mientras que”siempre se ha hecho algo que va a ser un error que se hace”. [Contenido integrado] Elon Musk’s XAI presentó Grok 3 en febrero, reclamando un rendimiento superior en ciertos puntos de referencia. Grok 3, que se ejecuta en la expansión de la supercomputadora Colosa de Xai, presenta un botón de”pensar”y”búsqueda profunda”. Sin embargo, las primeras revisiones independientes observaron un rendimiento variable e imprecisiones. Desde su lanzamiento, XAI ha agregado una función de”memoria”y”Grok Studio”. En Azure, los modelos Grok 3 admiten una longitud de contexto extendida de hasta 131k tokens y herramientas para flujos de trabajo de agente, de acuerdo con un . Una vista previa gratuita de los modelos Grok 3 está disponible en Azure Ai Foundry desde el 19 de mayo hasta principios de junio, después de lo cual se aplicarán los precios estándar. La integración de Grok es notable dado su diseño no convencional. Musk ha posicionado a Grok como menos limitado por la moderación típica de contenido, que se manifestó en una actualización de modo de voz de febrero con personalidades”desquiciadas”y”sexys”. Desde su lanzamiento, Grok también ha producido resultados controvertidos, incluida una declaración de que Musk y Donald Trump”merecen la pena de muerte”, que un ingeniero de Xai llamó”realmente terrible y [un] mal fracaso”. Más recientemente, Grok hizo noticias sobre declaraciones problemáticas sobre”genocidio blanco en Sudáfrica”. XAI atribuyó esto a una”modificación no autorizada”y anunció protocolos de revisión mejorados y publicó las indicaciones del sistema interno de GROK sobre GitHub. la decisión de Microsoft de incorporar Grok, a pesar de su historia, refleja una estrategia de diversificación de Azure Azure. En enero de 2025, Microsoft agregó Deepseek R1, el modelo impactante de Deepseek, con sede en China, hasta Azure Ai Foundry, incluso cuando una investigación sobre un posible acceso inapropiado de datos de API de Operai por un grupo vinculado a Deepseek estaba en curso. Microsoft declaró en aquel entonces que Deepseek R1 se sometió a evaluaciones de seguridad. Asha Sharma, vicepresidente de plataforma de IA de Microsoft, destacó anteriormente que una ventaja clave de Azure Ai Foundry es la velocidad que ofrece desarrolladores para la experimentación e integración. Marzo. El MCP facilita la interoperabilidad entre los agentes de IA. Microsoft detalló esta integración en azure ai foundry y su semantic kernel hatawork, como se explicó en los devblogs de microsoft , realizando los modelos de kernel a los diversos modelos a los modelos de los modelos de los modelos de Microsoft y el desarrollo de los modelos de los modelos de Microsoft y los modelos con los modelos de los modelos de Microsoft a los modelos de Microsoft. Herramientas. La visión de Satya Nadella para que Azure sea el”sistema operativo en el backend de cada agente”, según lo articulado por el presidente corporativo de Microsoft, presidenta de la plataforma AI Asha Sharma en un Entrevista de abril con el verge , parece impulsar estas integraciones. Esta estrategia también se ve en GitHub Copilot, que
La adición de Grok, sin embargo, podría complicar la relación fundamental de Microsoft con OpenAI. Según los informes, los dos han experimentado fricción, y Musk está en una disputa pública y legal con OpenAi, que lo contrarrestó en abril. Mientras que Microsoft sigue siendo un inversor principal de Operai, OpenAI también ha tratado de diversificar sus recursos informáticos. Al igual que Musk, el CEO de Operai, Sam Altman, también apareció de forma remota en Microsoft Build, discutiendo la rápida evolución de la IA con Nadella. [Contenido integrado] El movimiento de Microsoft a Host Grok, un modelo que Musk afirma ya es útil en el servicio al cliente en SpaceX y Tesla, describiéndolo como”infinitamente paciente y amigable”en una conversación informado por geekwire , indica una intención clara para proporcionar una plataforma amplia de AI, incluso si significa una competencia compleja y compleja. Agradable en Azure con controles más estrictos, incluida la gobernanza de grado empresarial, para hacerlo viable para el uso empresarial, con posibles aplicaciones en diagnóstico médico e investigación científica. La ampliación del ecosistema de IA de AI de Microsoft
cálculo estratégico y la relación de OpenAI