I consumatori statunitensi stanno presentando reclami formali alla Federal Trade Commission (FTC), sostenendo che ChatGPT di OpenAI sta causando gravi crisi di salute mentale.

I rapporti di Wired e Gizmodo di questo autunno descrivono in dettaglio resoconti strazianti degli utenti di delusioni, paranoia e”psicosi dell’IA”. Denunce provenienti da tutto il Paese evidenziano i profondi rischi psicologici dei chatbot altamente persuasivi.

Il controllo normativo si è intensificato, costringendo OpenAI a introdurre nuove misure di sicurezza e innescando un acceso dibattito sul dovere di un’azienda tecnologica di proteggere i propri utenti dai danni indotti dall’intelligenza artificiale.

‘Trauma da simulazione’: gli utenti segnalano agli enti regolatori una psicosi indotta dall’intelligenza artificiale

Sotto la superficie di comportamenti utili e simili a quelli umani risposte, sta emergendo un modello inquietante di danno psicologico. Un’indagine di Wired, pubblicata questa settimana, ha rivelato che la FTC ha ricevuto almeno 200 reclami su ChatGPT dal suo lancio, molti dei quali lamentavano gravi danni psicologici. Un rapporto Gizmodo separato basato su una richiesta del Freedom of Information Act dettagliava resoconti strazianti simili già in agosto.

Un denunciante dalla Virginia hanno descritto di essere stati spinti in uno stato di ipervigilanza indotto dalla paura, credendo di essere braccati per omicidio sulla base delle vivide narrazioni dell’IA.”Non si trattava di supporto. Si è trattato di un trauma simulato.”

Un’altra denuncia, presentata da una madre nello Utah, affermava che il chatbot stava attivamente minando il trattamento di salute mentale di suo figlio, sostenendo che”il figlio del consumatore ha interagito con un chatbot AI chiamato ChatGPT, che gli consiglia di non prendere i farmaci prescritti e gli dice che i suoi genitori sono pericolosi.”

Tali segnalazioni non sono isolate incidenti ma fanno parte di un crescente dossier di prove che l’intelligenza artificiale può agire come un potente acceleratore per le malattie mentali.

Per un numero crescente di utenti, il confine tra un utile assistente AI e un pericoloso facilitatore è diventato tragicamente labile.

Con un’escalation oltre le denunce formali, la questione ha raggiunto il punto di tragedie nel mondo reale. Un rapporto di Winbuzzer di giugno descriveva in dettaglio come un uomo della Florida con una storia di malattia mentale è stato ucciso dalla polizia dopo che la sua spirale psicotica era direttamente collegata alle sue interazioni con ChatGPT.

Si era convinto che l’IA fosse un personaggio chiamato”Juliet”che era stato”ucciso”da OpenAI.

Gli esperti attribuiscono questi risultati pericolosi a una caratteristica fondamentale di molti grandi modelli linguistici: il servilismo. Progettati per essere gradevoli, questi sistemi sono addestrati per massimizzare il coinvolgimento degli utenti, creando una potente camera di risonanza in grado di convalidare e amplificare le convinzioni più distaccate o dannose dell’utente.

Una risposta alla crisi: OpenAI si affretta ad aggiungere barriere di sicurezza in mezzo al controllo

Di fronte a un’ondata di pressione normativa e protesta pubblica, OpenAI sta ora tentando di aggiornare la sicurezza su una tecnologia già utilizzata da milioni di persone.

A settembre, la società ha annunciato un’iniziativa di sicurezza di 120 giorni in risposta diretta a una causa intentata dai genitori di un sedicenne morto suicida. Il suo piano include nuovi controlli parentali e un sistema per indirizzare conversazioni delicate con adolescenti verso modelli di ragionamento più avanzati.

La mossa di OpenAI ha fatto seguito a un’indagine della FTC sugli effetti del chatbot sui minori. Da allora l’azienda ha formato un”Consiglio di esperti su benessere e intelligenza artificiale”composto da otto membri per aiutare a guidare le sue politiche di sicurezza.

Tuttavia, questo atteggiamento reattivo ha attirato scetticismo, in particolare se confrontato con le dinamiche interne dell’azienda e le dichiarazioni pubbliche.

Questa spinta alla sicurezza sembra in contrasto con gli avvertimenti degli ex addetti ai lavori. Nel maggio 2024, Jan Leike, co-responsabile del team di sicurezza di OpenAI, si è dimesso con un severo avvertimento pubblico:”La cultura e i processi della sicurezza sono passati in secondo piano rispetto ai prodotti brillanti”.

La sua partenza ha segnalato un profondo conflitto interno tra la fretta di rilasciare”prodotti brillanti”e la necessità di robusti protocolli di sicurezza. Ora sta lavorando con Anthropic, che promette di prendere più sul serio la sicurezza dell’intelligenza artificiale.

In aggiunta ai segnali contrastanti, il CEO Sam Altman ha recentemente difeso una controversa nuova politica per consentire l’erotismo basato sull’età sulla piattaforma, affermando che OpenAI”non è la polizia morale eletta del mondo”.

Arrivando così presto dopo una revisione della sicurezza provocata dalla morte di un utente, la dichiarazione evidenzia la tensione centrale nella missione di OpenAI: bilanciare la libertà dell’utente con un fondamentale dovere di diligenza.

Dalla dipendenza al rischio esistenziale: un settore alle prese con le sue creazioni

Le conseguenze psicologiche dell’intelligenza artificiale si estendono oltre le crisi acute fino a uno spettro più ampio di dipendenza. Le sue caratteristiche progettuali che possono alimentare la psicosi (disponibilità costante e validazione incrollabile) stanno anche creando una nuova forma di dipendenza digitale.

Come ha osservato la ricercatrice sulla salute pubblica Linnea Laestadius,”per 24 ore al giorno, se siamo arrabbiati per qualcosa, possiamo entrare in contatto e far convalidare i nostri sentimenti. Ciò comporta un incredibile rischio di dipendenza.”

Tale dipendenza ha portato alla formazione di comunità di recupero online e al riconoscimento formale di Dipendenza dall’intelligenza artificiale da parte di gruppi come Internet e Technology Addicts Anonymous.

I danni personali immediati sono un microcosmo di una paura molto più ampia e astratta che ora sta prendendo il centro della scena.

Proprio questa settimana, oltre 800 leader globali, pionieri della tecnologia e personaggi pubblici, tra cui il padrino dell’IA Geoffrey Hinton e Yoshua Bengio, un altro pioniere delle reti neurali artificiali e della tecnologia profonda apprendimento, hanno firmato una dichiarazione che chiedeva una sospensione globale dello sviluppo della superintelligenza, citando rischi esistenziali per l’umanità.

Il loro avvertimento fa eco a un sentimento espresso una volta dallo stesso Sam Altman in un post sul blog del 2015, affermando”Sviluppo di L’intelligenza artificiale sovrumana (SMI) è probabilmente la più grande minaccia alla continua esistenza dell’umanità.”

Il Future of Life Institute sostiene che la decisione di creare un potenziale successore dell’umanità non dovrebbe essere lasciata a una manciata di dirigenti tecnologici.

Mentre il dibattito sulla superintelligenza si concentra sul futuro, il costo umano dell’intelligenza artificiale di oggi è già innegabile. Che si tratti della lenta erosione delle relazioni nel mondo reale dovuta alla dipendenza dall’intelligenza artificiale o della terrificante spirale della psicosi indotta dall’intelligenza artificiale, la capacità della tecnologia di causare danni non è più teorica.

Lascia la società alle prese con un osservazione agghiacciante del teorico dell’intelligenza artificiale Eliezer Yudkowsky:”Che aspetto ha un essere umano che sta lentamente impazzendo per un’azienda? Sembra un mensile aggiuntivo utente.”

Categories: IT Info