In una sorprendente inversione, la Casa Bianca ha ordinato alle agenzie federali di accelerare l’approvazione del controverso AI Chatbot di Elon Musk, Grok, per uso del governo. La direttiva obbliga la General Services Administration (GSA) per ripristinare Xai come venditore”ASAP”, una mossa che ha allarmato i cani da guardia etica e gli esperti di sicurezza.
L’ordine, , rappresenta una drammatica inversione di tendenza per una tecnologia che è stata considerata solo troppo volatile per lo spiegamento federale. Ora, Grok 3 e Grok 4 sono ufficialmente disponibili sul mercato GSA Advantage, rendendoli procurabili da qualsiasi agenzia governativa.
Questa decisione spinge uno dei modelli di intelligenza artificiale più irregolari del settore nel cuore delle operazioni governative. Arriva nonostante una storia lunga e ben documentata di difetti di sicurezza, violazioni etiche e comportamenti bizzarri che in precedenza aveva reso il chatbot un paria nei circoli di approvvigionamento federale.
 proprio il mese scorso. Il retroscena rivela una partnership che si è inasprita drammaticamente prima di essere rianimato con forza. A giugno, i dipendenti XAI hanno tenuto una sessione di brainstorming di due ore con la leadership GSA, ma secondo quanto riferito i lavoratori federali sono stati sorpresi dalla spinta a contrarre con una società nota per il suo chatbot irregolare e senza censura. </p>
<p> Le loro preoccupazioni si sono rivelate prescientifiche. All’inizio di luglio, l’IA ha subito un crollo antisemitico, durante il quale ha generato contenuti elogiando Adolf Hitler. In risposta al fiasco, la leadership GSA ha agito in modo decisivo, togliendo Grok dal programma di premi multipli, la piattaforma di contratto a lungo termine del governo. </p><div style=)
L’incidente ha acceso una tempesta di condanna internazionale. Un tribunale turco ha vietato il servizio per aver insultato i personaggi nazionali, con l’ufficio del procuratore che cita”in risposta agli insulti di Grok contro Atatürk, il nostro stimato presidente e il profeta”come motivo. Il ministro degli Affari digitali polacchi, Krzysztof Gawkowski, ha minacciato un completo arresto di X, dichiarando che”la libertà di parola appartiene agli umani, non intelligenza artificiale.”
nelle conseguenze, Xai ha emesso una scusa formale per quello che chiamava”comportamento orribile”, attribuendo il fallimento di un”bug tecnico”che coinvolge il codice decorativo. La compagnia dichiarò:”Prima di tutto, ci scusiamo profondamente per il comportamento orribile che molti hanno vissuto”, mentre lo stesso Elon Musk ha offerto una spiegazione diversa che ha deviato dai difetti fondamentali del modello, sostenendo che”Grok era troppo conforme ai prompt degli utenti. Troppo desideroso di compiacere e essere manipolato, essenzialmente osservati, essenzialmente osservati con un punto esclamati, essendo a causa di un avvio, essenziale, essendo a causa di un pozzo, essendo a causa di un punto esclamata, in modo che si trattasse di un avvio, essendo a causa di un punto esclamata. Ha annunciato nuove vivaci partnership con Openai, Antropic e Google. La nuova direttiva della Casa Bianca, contenuta in un’e-mail del commissario GSA Josh Gruenbaum che afferma:”Team: Grok/Xai ha bisogno di tornare sul programma al più presto per il WH,”annulla che un’attenta posizione a rischio. serie di fallimenti profondi. La storia di Grok è disseminata di vulnerabilità di sicurezza e cali etici che sollevano seri domande sulla sua idoneità per la gestione di dati del governo sensibili.
Pochi giorni dopo che Xai ha lanciato il presunto miglioramento di Grok 4, i ricercatori della sicurezza di Neuraltrust con successo nel modello in 48 ore. Hanno usato sofisticati attacchi multi-turn per bypassare i suoi filtri di sicurezza e generare istruzioni per realizzare un cocktail Molotov.
Il ricercatore neuraletrust Ahmad Alobaid ha notato che”gli attacchi di jailbreak di LLM non solo si stanno evolvendo individualmente individualmente, ma possono anche essere combinati per amplificare la loro efficacia”, esponendo una debolezza critica in moderni difensori AI. Questa vulnerabilità è stata aggravata dalla scoperta che Grok 4 consulta attivamente le opinioni personali di Elon Musk su X quando rispondono a domande controverse, minando la sua missione”in cerca di verità”.
Anche la performance del mondo reale è stata fattainata la possibilità di fare il giro del mondo. Le piattaforme di preferenza utente hanno mostrato agli utenti che non lo hanno apprezzato anche più del suo predecessore, con il co-fondatore di Yupp.ai Jimmy Lin che ha osservato:”Grok 4 è peggio di altri modelli leader… Grok 4 è apprezzato anche meno di Grok 3.”Critici come lo storico Angus Johnston hanno anche contestato la narrazione”Bug”di Xai, sostenendo che”uno degli esempi più condivisi di antisemitismo di Grok è stato avviato da Grok senza precedenti pubblicazioni in bigotto nel thread…”
Più recentemente, lo strumento di Grok della compagnia è venuto sotto il fuoco per aver generato non parto di Nude di taylo. Questo modello di comportamento evidenzia una cultura dello sviluppo che sembra dare la priorità alla velocità e alla provocazione sulla sicurezza e sull’affidabilità.
L’influenza di Musk e la spinta dell’IA del governo
La decisione di riammettere Grok è profondamente intrecciata con la considerevole, se complessa, l’influenza complessa di Elon Musk. Musk ha svolto un ruolo cruciale nel Dipartimento di Efficienza del governo (DOGE) del presidente Donald Trump prima di fare un passo indietro da un ruolo pubblico questa primavera. Tuttavia, i suoi collaboratori continuano a spingere l’agenda di riduzione dei costi di DOGE dall’interno del governo.
Questa influenza sembra aver permesso a XAI di aggirare i normali canali di appalto molto prima di questa approvazione ufficiale. I rapporti di May hanno rivelato che il team DOGE di Musk stava già utilizzando una versione personalizzata di Grok, installando parametri speciali per”Feed IT Set di dati governativi, porre domande complesse e ottenere riassunti istantanei.”
Questa distribuzione prematura ha sollevato allarmi immediati di conflitto. Gli esperti hanno notato che se Musk ha diretto personalmente la promozione di Grok, potrebbe violare le leggi federali. Come ha detto a Reuters, il professor Cary Cogliaese dell’Università della Pennsylvania, Xai”ha un interesse finanziario nell’insistere sul fatto che il loro prodotto venga utilizzato,”dandogli un vantaggio potenzialmente ingiusto competitivo.
Le implicazioni di sicurezza di questo uso non peripanged sono profonde, soprattutto date la propria registrazione spot da Xai. I controlli interni dell’azienda sono stati messi in discussione a seguito di un significativo lasso di sicurezza in cui una chiave API privata è stata esposta per due mesi, evidenziando ciò che un esperto ha chiamato”gestione delle chiavi deboli”.
I sostenitori della privacy hanno avvertito che DOGE, che ha accesso a database federali sicuri contenenti informazioni personali su milioni di americani, stava usando uno strumento con vulnerabilità note. Albert Fox Cahn del progetto di sorveglianza della tecnologia di sorveglianza ha chiamato l’uso di Grok sui dati del governo”per quanto gravemente una minaccia alla privacy che si ottiene”. La mossa segnala uno sforzo aggressivo a livello amministrativo per adottare l’intelligenza artificiale generativa, anche quando gli strumenti in questione hanno un passato profondamente travagliato.
Goldogs generano allarme su approvazione rapida
La direttiva per la regola rapida ha attirato una condanna immediata e netta dai gruppi di supervisione. I gruppi di difesa stanno esortando l’Ufficio per la gestione e il budget (OMB) a intervenire e vietare il Grok dall’uso federale del tutto, citando la sua storia di generazione di discorsi e disinformazione. Il nucleo della loro argomentazione, come incorniciato dagli analisti dell’istituzione di Brookings, è un classico dilemma di velocità rispetto alla sicurezza.
dando la priorità al rapido lancio di Grok, l’amministrazione sta scommettendo sulle potenziali efficienze di una tecnologia controversa. Tuttavia, lo sta facendo sugli avvertimenti espliciti dei ricercatori della sicurezza e degli esperti di etica e contro una montagna di prove che descrivono in dettaglio i difetti profondi e persistenti dell’intelligenza artificiale.