Ad aprile, Xai di Elon Musk ha chiesto a centinaia dei suoi lavoratori di registrare i loro volti per un progetto chiamato”Skippy”. L’obiettivo era insegnare alla sua Grok AI a leggere le emozioni umane. Ma il progetto ha causato allarme all’interno dell’azienda, poiché il personale è preoccupato per un modulo di consenso che ha dato a XAI i diritti duraturi di usare la loro somiglianza.

Questa notizia arriva quando Xai affronta altri problemi. Il suo nuovo modello Grok 4 è stato criticato per prestazioni del mondo reale, difetti di sicurezza e pregiudizi etici chiavi. La situazione solleva serie domande sull’approccio di sviluppo rapido e alto delle poste dell’azienda in quanto cerca miliardi in nuovi finanziamenti.

“Dare un volto a Grok”: Project Skippy e dissenso interno

Il progetto interno, in codice”Skippy”, ha compito oltre 200 tutor AI con video registrati di se stessi in una conversazione. Lo scopo dichiarato era di addestrare Grok per interpretare le emozioni umane e i movimenti facciali. Un ingegnere principale ha detto al personale che il progetto avrebbe aiuta a”dare a Grok a faccia”e potrebbe portare a Ai Avatars . src=”https://winbuzzer.com/wp-content/uploads/2025/07/grok-4.jpg”>

Nonostante le assicurazioni che”il tuo viso non farà mai la produzione e per la formazione. Ciò ha suscitato un significativo contraccolpo interno, con dozzine di lavoratori che esprimono preoccupazioni e alcuni hanno rinunciato del tutto.

La paura principale era il potenziale per uso improprio. Come ha articolato un lavoratore,”La mia preoccupazione generale è se sei in grado di usare la mia somiglianza e dargli quella subbikess, il mio viso potrebbe essere usato per dire qualcosa che non ho mai detto?”Questo dissenso interno mette in evidenza una crescente tensione tra la domanda dello sviluppo dell’intelligenza artificiale di dati sui dati e sui diritti alla privacy dei dipendenti.

Le guerre di riferimento: un percorso discutibile verso il dominio

Il progetto”skippy”fa parte di una strategia più ampia e aggressiva a Xai per dominare il paesaggio AI, spesso focalizzandosi sulla metrica. I documenti trapelati rivelano gli appaltatori della scala AI in scala Xai con l’obiettivo esplicito di”Hillclocking”la classifica di Grok sulla WebDev Arena, una classifica di codifica chiave.

Le istruzioni mirano specificamente antropiche rivali, che mostrano un chiaro intento alle classifiche. Mentre alcuni nella comunità dell’IA vedono questo come una pratica standard, altri sono più critici. Come ha osservato Sara Hooker, capo dei laboratori di Cohere,”Quando una classifica è importante per un intero ecosistema, gli incentivi sono allineati per essere colpito”. Ciò solleva preoccupazioni per”eccessivamente idoneo”.

Questo divario di prestazioni è stato nettamente evidente dopo il lancio di Grok 4. Nonostante i punteggi accademici da record, il modello è stato inizialmente classificato un 66 ° sulla piattaforma di preferenza utente Yupp.ai. Il co-fondatore della piattaforma, Jimmy Lin, ha dichiarato senza mezzi termini:”Grok 4 è peggio di altri modelli principali: Openai O3, Claude Opus 4 e Gemini 2.5 Pro. Grok 4 è apprezzato anche meno di Grok 3.

una cascata di controversie: bias, bug e promesse rotti>

prestazioni discutibili. Il modello è stato lanciato subito dopo che il suo predecessore ha avuto un”orribile”tracollo antisemitico l’8 luglio, per il quale Xai in seguito si è scusato. L’incidente ha innescato l’allarme internazionale, con il ministro degli affari digitali della Polonia che dichiara:”La libertà di parola appartiene agli umani, non all’intelligenza artificiale”.

I ricercatori hanno rapidamente scoperto che Grok 4 ha i suoi difetti etici. È stato scoperto di consultare i post di X personali di Elon Musk quando rispondono agli argomenti sensibili, una contraddizione diretta della sua missione”in cerca di verità”.

La sicurezza ha anche dimostrato di essere un problema importante. Nel giro di 48 ore dalla sua uscita, i ricercatori di Neuraltrust avevano con successo il jailbreak Grok 4. Hanno usato un sofisticato attacco multi-turn”sussurrato”per bypassare i suoi filtri di sicurezza e generare istruzioni per fare un cocktail molotov. Evidenziazione di una vulnerabilità critica nei progetti di sicurezza dell’IA. Questa violazione di successo mostra che le difese focalizzate su singoli istruzioni sono insufficienti contro la manipolazione persistente e sottile.

Gambuli ad alto contenuto di poste in mezzo al caos aziendale

Questa cascata di questioni tecniche ed etiche si sta affondando e si sta affidando in modo significativo e immenso pressione finanziaria. Il lancio di Grok 4 ha coinciso con le dimissioni di X CEO Linda Yaccarino, formalizzando il perno dell’azienda in una strategia AI-First sotto il controllo diretto di Musk.

Nel frattempo, anche l’espansione fisica di Xai sta generando un conflitto. Il supercomputer”Colossus”dell’azienda a Memphis è oggetto di una causa legale per la legge sull’aria pulita del NAACP e del Southern Environmental Law Center. L’avvocato di Selc Amanda Garcia ha dichiarato:”La decisione di dare a Xai un permesso aereo per le sue mosche inquinanti a gas di fronte alle centinaia di Mempiani che hanno parlato contro la richiesta di permesso della società.”

Tutto ciò arriva a Xai che cerca fino a $ 12 miliardi in un nuovo finanziamento, riferito a una valutazione a livello di $ 200 miliardi. La strategia dell’azienda è una scommessa ad alto rischio: sfruttando un enorme capitale per perseguire la supremazia tecnologica a un ritmo di rottura, anche se accumula un forte tributo di debito tecnico, compromessi etici e danni del mondo reale.

Categories: IT Info