Microsoft ha annunciato ufficialmente alla sua conferenza Build Developer il 19 maggio 2025 che i modelli XAI di Elon Musk, Grok 3 e Grok 3 Mini, fanno ora parte della sua fonderia di Ai. Questa mossa sottolinea la strategia di Microsoft di stabilire Azure come un cloud principale per diversi modelli di intelligenza artificiale, compresi quelli dei concorrenti al suo partner chiave, Openi e modelli con una storia di generazione di contenuti problematici.

I modelli Grok AI saranno ospitati direttamente e fatturati da Microsoft, che aderiscono al livello standard di servizi Azure, come la società assicurata. Per gli sviluppatori, ciò significa un’ampliamento dell’accesso alle varie funzionalità di intelligenza artificiale. Tuttavia, questa integrazione affila anche la concentrazione sul controllo del modello di Microsoft e sulla complessa dinamica con Openi, in particolare considerando le battaglie legali in corso di Elon Musk con l’IA Lab che ha co-fondato. 

Il CEO di Microsoft Satya Nadella è un pilota chiave dietro questa espansione, con l’obiettivo che Azure sia l’host definitivo per influenti modelli di AI. Questa ambizione è evidente come Azure AI Foundry, che ora vanta oltre 1.900 modelli di intelligenza artificiale, incorpora rapidamente le offerte di vari laboratori di AI, tra cui meta, cohere, nvidia, volto abbracciato, stabilità AI e maestral. Microsoft ha anche presentato nuovi strumenti di fonderia Ai Ai come un manelle del modello e . Nadella, durante la build 2025 Keynote, ha descritto Grok come”una famiglia di modelli che sono sia reattivi che in grado di ragionamento.”

Durante una conversazione preregistrata con Satya Nadella a Microsoft Build 2025, Musk ha dichiarato che i modelli di Xai”sono sempre a causa di un errore minimo”e ha enfatizzato che”sono sempre emessi che sono fatti che sono sempre stati fatti che sono fatti che sono sempre stati fatti che sono fatti che sono sempre stati fatti che sono fatti che sono sempre stati resi. 

[contenuto incorporato]

Xai di Elon Musk ha introdotto Grok 3 a febbraio, rivendicando prestazioni superiori in alcuni parametri di riferimento. Grok 3, in esecuzione sull’espansione del supercomputer Colossus di Xai, presenta un pulsante”Think”e”Deep Search”. Tuttavia, le prime recensioni indipendenti hanno notato prestazioni variabili e inesattezze. Dal suo lancio, Xai ha aggiunto una funzione”Memory”e”Grok Studio”. Su Azure, i modelli Grok 3 supportano una lunghezza di contesto estesa fino a 131k token e strumenti per flussi di lavoro agenti, secondo un . Un’anteprima gratuita dei modelli Grok 3 è disponibile su Azure AI Foundry dal 19 maggio a inizio giugno, dopo di che si applicheranno i prezzi standard.

L’integrazione di Grok è notevole dato il suo design non convenzionale. Musk ha posizionato Grok come meno vincolato dalla tipica moderazione dei contenuti, che si è manifestato in un aggiornamento della modalità vocale di febbraio con personalità”non stadanti”e”sexy”. Dal suo lancio Grok ha anche prodotto risultati controversi, tra cui un’affermazione secondo cui Musk e Donald Trump”meritano la pena di morte”, che un ingegnere XAI chiamato”davvero terribile e [un] cattivo fallimento”.

Più recentemente, Grok ha fatto notizie sulle dichiarazioni problematiche sul”genocidio bianco in sud africa”. Xai lo ha attribuito a una”modifica non autorizzata”e ha annunciato protocolli di revisione migliorati e ha pubblicato i prompt del sistema interno di Grok su GitHub.

Microsoft L’ampliamento di AI ecosistemia

la decisione di Microsoft di incorporare Grok, nonostante la sua storia, la storia di una storia di diversificazioni di Azure Aiure di Aiure di Aiure. Nel gennaio 2025, Microsoft ha aggiunto Deepseek R1, il modello di impatto di Deepseek con sede in Cina, a Azure AI Foundry, anche se era in corso un’indagine sul potenziale accesso ai dati API OpenAI improprio da parte di un gruppo referente. Microsoft ha dichiarato allora che DeepSeek R1 è stato sottoposto a valutazioni di sicurezza.

Asha Sharma, vicepresidente di Microsoft della piattaforma AI, in precedenza ha evidenziato che un vantaggio chiave della fonderia AI di Azure è la velocità che offre agli sviluppatori per la sperimentazione e l’integrazione.

Furcostizione dei suoi obiettivi ecosistemici aperti, anche MicroSoft di MCUL di MCP) Marzo. L’MCP facilita l’interoperabilità tra agenti AI. Microsoft ha dettagliato questa integrazione in azure ai fonderry e è framework semantico del kernel, come ha spiegato su MicroSoft’s Devblogs

Calcolo strategico e la relazione Openai

La visione di Satya Nadella per Azure è il”sistema operativo sul backend di ogni singolo agente”, come articolato dal vicepresidente aziendale di Microsoft della piattaforma AI Asha Sharma in un Intervista di aprile con il Verge , sembra guidare queste integrazioni. Questa strategia è anche vista in Github Copilot, che

L’aggiunta di Grok, tuttavia, potrebbe complicare la relazione chiave di Microsoft con OpenAI. Secondo quanto riferito, i due hanno sperimentato attrito e Musk è in una faida pubblica e legale con Openi, che lo ha contrastato ad aprile. Mentre Microsoft rimane un investitore primario Openi, Openi ha anche cercato di diversificare le sue risorse di elaborazione. Come Musk, Sam Altman, CEO di Openai, è apparso anche in remoto a Microsoft Build, discutendo della rapida evoluzione di AI con Nadella.

[contenuto incorporato]

La mossa di Microsoft ad ospitare Grok, un modello Musk è già utile nel servizio clienti su SpaceX e Tesla, descrivendolo come”paziente infinito e amichevole”in una conversazione riportato da geekwire , segna un chiaro intenzione di fornire una piattaforma ampia AI, anche se significa che naviga nel complesso e ethical terreni. Posizionamento Grok su azzurro con controlli più rigorosi, compresa la governance di livello aziendale, per renderlo praticabile per l’uso aziendale, con potenziali applicazioni nella diagnosi medica e nella ricerca scientifica.

Categories: IT Info