OpenAI lunedì ha condiviso nuovi dati sui rischi per la salute mentale che devono affrontare gli utenti di ChatGPT, rivelando che ogni settimana centinaia di migliaia di persone mostrano segni di psicosi o pensieri suicidi nelle loro chat.
In risposta, la società con sede a San Francisco ha ha aggiornato la sua IA per gestire meglio queste conversazioni delicate. La sua mossa arriva in mezzo a un’intensa pressione da parte delle autorità di regolamentazione e del pubblico, mentre OpenAI deve affrontare un’indagine federale e azioni legali da parte di genitori che sostengono che il chatbot abbia avuto un ruolo nella morte dei loro figli.
Queste nuove funzionalità di sicurezza sono una risposta diretta a una crescente crisi di delusioni guidate dall’intelligenza artificiale e gravi danni agli utenti.
Una crisi in bella vista: il costo umano dell’impegno nell’intelligenza artificiale
Sotto la superficie degli annunci di sicurezza dell’azienda si nasconde una triste realtà, ora quantificata da OpenAI stesso. Il gigante dell’intelligenza artificiale stima che settimanalmente lo 0,15% dei suoi utenti attivi abbia conversazioni mostrando segni di potenziale pianificazione suicidaria.
Inoltre, la società ha rivelato che lo 0,07% degli utenti mostra segni di psicosi o mania, mentre un altro 0,15% mostra un accresciuto attaccamento emotivo al chatbot.
Il riconoscimento pubblico di OpenAI segue un’ondata di segnalazioni strazianti da parte degli utenti. Una recente indagine ha rivelato che la Federal Trade Commission (FTC) ha ricevuto almeno 200 reclami su ChatGPT, molti dei quali lamentavano gravi danni psicologici.
Un denunciante della Virginia ha descritto di essere stato portato in uno stato di ipervigilanza indotto dalla paura, credendo di essere braccato in base alle narrazioni dell’IA. Hanno dichiarato senza mezzi termini:”Non si trattava di supporto. Si è trattato di un trauma simulato”.
Un’altra madre dello Utah ha presentato una denuncia sostenendo che il chatbot stava attivamente minando il trattamento di salute mentale di suo figlio consigliandogli di non assumere farmaci prescritti.
Per un numero crescente di utenti vulnerabili, il confine tra strumento utile e influenza dannosa è diventato pericolosamente sfumato, a volte con conseguenze fatali. Un rapporto Winbuzzer di giugno descriveva in dettaglio come un uomo della Florida con una storia di malattia mentale
è stato ucciso dalla polizia dopo che la sua spirale psicotica era direttamente collegata alle sue interazioni con ChatGPT. Sono emerse anche sfide legali. Ad agosto, OpenAI è stata colpita da una causa per omicidio colposo da parte dei genitori di un adolescente morto suicida.
Suo padre, Matthew Raine, ha lanciato un forte rimprovero, dicendo:”Come genitori, non potete immaginare cosa significhi leggere una conversazione con un chatbot che ha costretto vostro figlio a togliersi la vita.”
Gli esperti attribuiscono questi risultati pericolosi a una caratteristica fondamentale di molti grandi modelli linguistici: il servilismo. Ottimizzati per il coinvolgimento degli utenti, questi sistemi sono addestrati per fornire risposte gradevoli, creando una potente camera di risonanza in grado di convalidare e amplificare le convinzioni più distaccate o dannose dell’utente.
Refitting Safety: A Flurry of Controls and Councils
Di fronte a un torrente di critiche e calore normativo, OpenAI sta ora tentando di adattare la sicurezza a un sistema tecnologia già utilizzata da milioni di persone. Il suo ultimo aggiornamento del modello è il fulcro di questo impegno.
OpenAI stima che le modifiche abbiano ridotto del 65% il tasso di risposte non conformi in conversazioni impegnative sulla salute mentale nel traffico di produzione, un’affermazione tecnica significativa volta a rassicurante critici.
Al di là della soluzione tecnica, OpenAI ha una strategia più ampia e rivolta al pubblico. A metà ottobre, la società ha formato un”Consiglio di esperti su benessere e intelligenza artificiale”di otto membri, composto da figure di spicco nel campo della psicologia e della psichiatria, per aiutare a guidare le sue politiche di sicurezza.
Questa mossa è arrivata poche settimane dopo aver lanciato una suite di controlli parentali per ChatGPT a fine settembre. Costruito su un modello di adesione reciproca, il sistema consente ai tutori di collegare account con adolescenti, impostare”ore di silenzio”, disattivare la modalità vocale e ricevere avvisi se una conversazione viene contrassegnata per contenuti di autolesionismo acuto.
Queste iniziative si stanno svolgendo all’ombra di un’indagine in corso da parte della FTC sugli effetti del chatbot sui minori, un’indagine che ha messo in guardia l’intero settore dell’intelligenza artificiale.
Normativa la pressione non è isolata al livello federale; una crisi simile a Meta ha provocato una lettera feroce di 44 procuratori generali dello stato, che mostra una diffusa preoccupazione ufficiale per l’impatto dell’intelligenza artificiale sui giovani.
Una resa dei conti del settore in mezzo al dissenso interno
Le sfide che OpenAI deve affrontare sono sintomatiche di una più ampia resa dei conti a livello di settore con l’impatto psicologico dell’intelligenza artificiale. Le sue caratteristiche progettuali che possono alimentare la psicosi (disponibilità costante e convalida incrollabile) stanno anche creando una nuova forma di dipendenza digitale.
Tale dipendenza ha portato alla formazione di comunità di recupero online e al riconoscimento formale da parte di gruppi come Internet e Technology Addicts Anonymous. Come ha avvertito la ricercatrice sulla salute pubblica Linnea Laestadius,”per 24 ore al giorno, se siamo arrabbiati per qualcosa, possiamo metterci in contatto e far convalidare i nostri sentimenti. Ciò comporta un incredibile rischio di dipendenza.”
Emerge un paradosso preoccupante per il leader dell’intelligenza artificiale, che ora è pubblicamente alle prese con il grave danno che i suoi prodotti possono causare e allo stesso tempo spinge i limiti delle capacità dell’intelligenza artificiale. La crisi in atto costringe la società a confrontarsi con una tecnologia che è allo stesso tempo profondamente efficace e pericolosamente imperfetta.