Xai di Elon Musk sta affrontando critiche dopo che il suo chatbot, Grok AI, ha generato una risposta suggerendo che sia Musk che il presidente degli Stati Uniti Donald Trump”meritano la pena di morte”.
La risposta del chatbot, originariamente riportata da il Verge , ha rinnovato le preoccupazioni per gli utenti che hanno chiesto alla moderazione dei contenuti di AI e l’affidabilità della morte non restritta. Penalità. src=”https://winbuzzer.com/wp-content/uploads/2024/05/xai-grok-pendial.jpg”>
xai riconosce il problema terribile e cattivo””Un fallimento davvero terribile e cattivo.”Ha confermato che Xai aveva applicato una patch per prevenire output simili, ma non ha fornito ulteriori dettagli su come è stato modificato il chatbot.
davvero terribile e cattivo fallimento da Grok. Per ora abbiamo patchato in questo momento fino a quando non finiremo le nostre indagini su ciò che è andato storto qui. ; href=”https://twitter.com/ibab/status/1893035679464169971?ref_src=twsrc%5etfw”> 21 febbraio 2025
Il fallimento di Grok Ai evidenzia il dibattito in corso sulla moderazione AI. A differenza di Openai’s Chatgpt o Google Gemini, che utilizzano framework di moderazione più severi, Xai ha commercializzato Grok come chatbot con restrizioni minime di contenuto. La mancanza di garanzie sembra aver avuto un ruolo nella risposta non filtrata del chatbot.
Grok non è l’unico modello AI ad affrontare le critiche pubbliche. Il generatore di immagini di Google Gemini è stato tirato poco dopo la sua prima versione quando sono emerse immagini storicamente inaccurate generate da Gemini, una mossa che ha messo in evidenza le difficoltà che le aziende di intelligenza artificiale devono affrontare nel bilanciare l’inclusività e la rappresentazione fattuale. Nel frattempo, Openai e Antropic sono stati criticati per le risposte eccessivamente censuranti nel tentativo di evitare le controversie.
La politica di moderazione di Grok: un compromesso deliberato?
Musk ha posizionato il chatbot di Xai come alternativa ai modelli di mainstream AI, sostenendo che il limite di moderazione eccezionale. Tuttavia, questo incidente solleva preoccupazioni per il fatto che le restrizioni più libere di Grok potrebbero portare a risposte imprevedibili e inappropriate. Mentre alcuni utenti apprezzano la mancanza di filtraggio dei contenuti da parte di Chatbot, questo ultimo fallimento suggerisce che l’approccio di Xai potrebbe richiedere una maggiore supervisione.
Grok è stato precedentemente criticato per risposte imprecise o inaspettate, ma questo caso è il più estremo finora. Il fallimento ha intensificato discussioni sul fatto che i modelli di intelligenza artificiale debbano dare la priorità alla conversazione senza restrizioni o alla moderazione dei contenuti responsabili.
La controversia arriva pochi giorni dopo che Xai ha introdotto Grok 3, l’ultima versione del suo chatbot, che Musk ha sostenuto ha superato GPT-4 Turbo di Openai in benchmark chiave. Secondo Xai, Grok 3 supera GPT-4O in matematica (AIME’24), Science (GPQA) e Coding (LCB OCT-FEB).
Grok 3 è alimentato da Colossus, il supercomputer di Xai progettato per supportare il supercomputer di Xai progettato per supportare il supercomputer di Xai. Mentre i progressi tecnici del chatbot sono stati enfatizzati, il recente fallimento della moderazione mette in discussione se Xai ha bilanciato prestazioni con garanzie etiche.
Musk Openai di Musk e la strategia competitiva di Xai
I tempi del fallimento di Grok Ai si sono complicati della battaglia di Musk. Il miliardario, che ha co-fondato Openi prima prima di prendere le distanze dalla compagnia, ha recentemente intensificato le sue critiche, accusandolo di dare la priorità agli interessi aziendali sulla sua missione senza scopo di lucro originale. La sua frustrazione è culminata in una causa contro Openai e il CEO Sam Altman, in cui Musk afferma che la partnership di Openi con Microsoft ha portato a una monopolizzazione delle tecnologie AI avanzate.
Mentre Musk ha posizionato XAI come contraffitto per l’approccio di Openi, il fallimento di Grok ha sottolineato il suo argomento che i modelli AI dovrebbero essere meno limitati. Il passo falso del chatbot suggerisce che il filtraggio di contenuto minimo comporta rischi, rafforzando la posizione delle società di intelligenza artificiale che danno la priorità ai quadri di moderazione.
La strada da percorrere per Grok e Xai
Nonostante questa battuta d’arresto, Xai sta premendo avanti. Presumibilmente la società sta lavorando a Supergrok, una versione migliorata del suo chatbot che dovrebbe introdurre capacità di ragionamento più avanzate. Il progetto segnala che Xai rimane impegnata nello sviluppo di modelli di intelligenza artificiale che sfidano il dominio di Openi.
Per Xai, la sfida ora è bilanciare le prestazioni e la fiducia. La rapida evoluzione delle capacità di intelligenza artificiale sta spingendo gli sviluppatori a perfezionare il ragionamento dei chatbot, ma come mostra il fallimento di Grok, i progressi tecnici significano poco se gli utenti non possono fare affidamento per fornire risposte responsabili e contestualmente appropriate. Tuttavia, questo incidente ha chiarito una cosa: in gara per costruire il chatbot più avanzato, la sicurezza rimane altrettanto importante quanto le prestazioni.
davvero terribile e cattivo fallimento da Grok. Per ora abbiamo patchato in questo momento fino a quando non finiremo le nostre indagini su ciò che è andato storto qui. ; href=”https://twitter.com/ibab/status/1893035679464169971?ref_src=twsrc%5etfw”> 21 febbraio 2025