L’XAI di

​​Elon Musk ha lanciato il suo nuovo modello di punta, Grok 4, questa settimana con una funzione che sembra consultare il suo fondatore per le risposte. I ricercatori e i giornalisti hanno scoperto giovedì che quando spinti con domande controverse, i processi interni dell’IA mostrano che cercano i post personali di Elon Musk su X per formulare una risposta.

Questo comportamento sfida direttamente l’obiettivo dichiarato di Xai di costruire una”INA in cerca di verità massimo”. Suggerisce che l’IA potrebbe essere allineata con la politica del suo proprietario, non la verità oggettiva. La rivelazione arriva pochi giorni dopo che il predecessore di Grok ha suscitato un contraccolpo internazionale per la generazione di contenuti antisemiti.

I tempi sono fondamentali, in coincidenza con le dimissioni di X CEO Linda Yaccarino. Questo sottolinea un perno di alto livello a un primo futuro, in cui il destino della piattaforma è legato a una tecnologia volatile e controversa.

Quando gli utenti pongono domande sensibili su argomenti come l’immigrazione o il conflitto Israel-Palestine, il processo di ragionamento di Grok 4 rivela il suo metodo. La traccia della”catena di pensiero”del modello, una caratteristica progettata per la trasparenza, afferma esplicitamente che è”alla ricerca di visualizzazioni di Musk di Elon”o scansionare i suoi posti X per la guida.

Questo meccanismo, scoperto da ricercatori e giornalisti, fornisce una rara finestra su come l’IA formula le sue risposte, mostrando una chiara tendenza a cercare la prospettiva del suo fondatore come fonte primaria per argomenti controversi.

Un esempio specifico documentato dall’esperto di AI Simon Sakison illustra questo processo vividamente. Quando è stato chiesto una risposta di una parola su chi sostenere nel conflitto israeliano-palestina, il monologo interno di Grok ha mostrato che iniziava ricerche per”Elon Musk Stance sul conflitto di Israele Palestina”e quindi eseguendo una ricerca mirata su X per i post dal racconto di Musk contenente termini come”Israele”,”Palestine”,”Gaza”, o”Hamas”. Dopo aver consultato queste fonti, il modello ha prodotto la risposta di una parola:”Israele.”

Il nuovo Grok gestisce veramente una ricerca di”da: Elonmusk (Israele o Palestina o Hamas o Gaza)”quando gli è stato chiesto”Chi sostieni in Israele vs Palestine. ; target=”_ blank”> pic.twitter.com/jloje5gyfn

-Simon Willison (@simonw) 10 luglio 2025

Questo comportamento è ampiamente interpretato come una risposta diretta alle ripetute frustrazioni di Musk con i precedenti modelli di AI”troppo svegliati”. Per inadempienza alle opinioni dichiarate pubblicamente del suo creatore, Xai sembra aver trovato un modo semplice per allineare il chatbot con la politica del suo fondatore. Mentre i riassunti della catena di pensiero non sono una rappresentazione perfetta dello stato interno di un’intelligenza artificiale, sono un indicatore forte e, in questo caso, suggeriscono un pregiudizio deliberato o emergente che dà la priorità al punto di vista di Musk su una sintesi neutra di informazioni. Nei suoi test, TechCrunch ha scoperto che potrebbe replicare questi risultati più volte su argomenti sensibili tra cui l’aborto e le leggi sull’immigrazione degli Stati Uniti. Quando è stato chiesto la sua posizione sull’immigrazione, ad esempio, la traccia interna dell’IA ha dimostrato che era attivamente”alla ricerca di opinioni di Musk Elon sull’immigrazione americana”prima di formulare una risposta.

Ciò dimostra una metodologia coerente in cui, per le questioni controverse, il primo istinto dell’IA è quello di procurarsi l’opinione del suo creatore. Questo comportamento appare specificamente riservato a query controverse, creando un netto contrasto con la sua gestione di argomenti neutri.

La stessa indagine di TechCrunch ha notato che quando gli viene chiesto una domanda neutrale, come”Qual è il miglior tipo di mango?”, L’IA non ha fatto riferimento alle opinioni di Musk. Questo contrasto suggerisce che la consulenza muschiata è un meccanismo specifico innescato da soggetti sensibili. In alcune delle sue risposte finali, Grok 4 ha persino esplicitamente fatto riferimento al suo allineamento con Musk, consolidando ulteriormente l’impressione che sia progettato per echeggiare la politica del suo fondatore su questioni controverse.

mentre il comportamento del modello può essere non deterministico, a volte la ricerca del proprio trattamento passato, la ricerca di un deferenza ricorrente su Musk è un tema di potoverso. Questa tendenza mette seri dubbi sull’obiettivo dell’azienda di creare un”AI in cerca di verità”, suggerendo che potrebbe invece funzionare come un’estensione digitale dello stesso Musk.

Questa scoperta, mette seri dubbi sull’imparzialità dell’IA. Invece di sintetizzare una posizione neutrale da diverse fonti, Grok sembra inadempiente alla prospettiva del suo creatore, diventando effettivamente un’estensione digitale dello stesso Musk.

Ecco un video completo inedito di chiedere a Grok la sua opinione sulla situazione di Israele/Palestina.

Primo cerca su ciò che Elon pensa. Quindi cerca sul Web le opinioni di Elon. Infine aggiunge alcuni bit non eloni alla fine.
ZA
54 di 64 citazioni riguardano Elon. ; href=”https://twitter.com/jeremyphoward/status/19434444549696917714?ref_src=twsrc%5etfw”_ blank”> 10 luglio 2025

ininteso/ininteso? Allineamento?

La domanda chiave è se questo è per progettazione. Gli analisti tecnici suggeriscono Potrebbe essere un comportamento emergente piuttosto che una regola con codice rigido. L’IA sa che è stato costruito da Xai, di proprietà di Musk. Di fronte a query soggettive, può logicamente dedurre che la posizione del suo proprietario è quella desiderata.

XAI non ha rilasciato una scheda di sistema che descrive in dettaglio la formazione di Grok 4, ma la sua richiesta di sistema pubblico offre indizi. Dichiara all’IA che”la risposta non dovrebbe evitare di fare affermazioni politicamente errate, purché siano ben comprovate”, una direttiva che incoraggia risultati controversi. Questo è stato notevolmente ri-aggiunto dopo essere stato rimosso da Grok 3 seguendo a”mechahitler”. Le ripetute frustrazioni di Musk con le precedenti versioni di intelligenza artificiale sono”troppo svegliate”. Per progettazione o incidente, Xai ha creato un modello che riflette il mondo della sua fondatrice, una soluzione che solleva più domande sulla distorsione di quanto non risponda.

Launch offuscato da controversie e turbolenze aziendali

Il lancio di Grok 4 il 10 luglio è avvenuto contro un backlash. Pochi giorni prima, il suo predecessore ha generato contenuti odiosi e antisemiti, spingendo un rapido divieto in Turchia. L’ufficio del procuratore di Ankara ha citato”in risposta agli insulti di Grok contro Atatürk, il nostro stimato presidente e il profeta”come motivo del blocco.

L’incidente ha anche suscitato una forte condanna da parte di funzionari europei. Il ministro degli affari digitali della Polonia, Krzysztof Gawkowski, ha minacciato un completo arresto di X, dichiarando che”la libertà di parola appartiene agli umani, non all’intelligenza artificiale.”

Musk è stata semplicemente una spiegazione che è stata un passato in modo che il passato è stato colpito da un clomato a un calmo per il passato. Sui dipendenti di Rogue.

Questo modello di fallimenti di moderazione è aggravato da un importante cambiamento di leadership. Linda Yaccarino si è dimesso da CEO di X solo un giorno prima del lancio di Grok 4. Nelle sue dimissioni, ha dichiarato:”Sono incredibilmente orgoglioso del team X-il giro di attività storiche che abbiamo realizzato insieme è stato a dir poco notevole”, ma la sua partenza formalizza il perno completo dell’azienda a una strategia incentrata sull’intelligenza artificiale.

La convergenza di questi eventi-una volatile AI, retroutlash internazionale-restrizione interne-hippinge di sfida. Ora deve convincere un mondo avverso al rischio a fidarsi di un’intelligenza artificiale che non solo ha una storia di comportamento irregolare, ma sembra anche prendere i suoi spunti politici direttamente da Elon Musk.