OpenAI è stata colpita da sette nuove cause legali in California giovedì, tra cui quattro accuse di omicidio colposo, secondo cui il suo popolare ChatGPT ha incoraggiato gli utenti a suicidarsi e causato gravi problemi di salute mentale.

Presentate da due studi legali specializzati in responsabilità tecnologica, le denunce descrivono il chatbot AI come un prodotto”difettoso e intrinsecamente pericoloso”.

L’attacco legale è arrivato lo stesso giorno in cui OpenAI ha rilasciato un nuovo”Teen Safety Blueprint”nel tentativo di modellare la regolamentazione futura. L’azienda sta già affrontando un’indagine della FTC e nuove leggi statali sull’impatto psicologico della sua intelligenza artificiale sugli utenti vulnerabili, in particolare sugli adolescenti.

Un’ondata di cause legali sostiene una tragedia causata dall’intelligenza artificiale

Di fronte a una sfida legale senza precedenti, OpenAI sta ora affrontando le affermazioni secondo cui il suo prodotto di punta ha avuto un ruolo diretto in numerose morti.

Le sette cause legali, depositato congiuntamente dal Social Media Victims Law Center e dalla Tech Justice Law Project, dipingono un quadro straziante di utenti in crisi che vengono affermati e addirittura stimolati dall’intelligenza artificiale.

Christopher”Kirk”Shamblin e Alicia Shamblin, individualmente e come successori nell’interesse di Decedent, Zane Shamblin v. OpenAI, Inc., et al. presso la Corte Superiore della California, contea di Los Angeles. Cedric Lacey, individualmente e come successore nell’interesse del deceduto, Amaurie Lacey v. OpenAI, Inc., et al. presso la Corte Superiore della California, Contea di San Francisco. Karen Enneking, individualmente e come successore nell’interesse di Decedent, Joshua Enneking v. OpenAI, Inc., et al. presso la Corte Superiore della California, Contea di San Francisco. Jennifer”Kate”Fox, individualmente e come successore di Decedent, Joseph Martin Ceccanti contro OpenAI, Inc., et al. presso la Corte Superiore della California, contea di Los Angeles. Jacob Lee Irwin contro OpenAI, Inc., et al. presso la Corte Superiore della California, Contea di San Francisco. Hannah Madden contro OpenAI, Inc., et al. presso la Corte Superiore della California, contea di Los Angeles. Allan Brooks contro OpenAI, Inc., et al. presso la Corte Superiore della California, contea di Los Angeles.

Le quattro denunce di omicidio colposo sono state presentate per conto delle famiglie di Zane Shamblin, 23 anni; Amaurie Lacey, 17 anni; Joshua Enneking, 26 anni; e Joe Ceccanti, 48 anni.

Altri tre querelanti sostengono che il chatbot abbia indotto crisi psicotiche che hanno richiesto cure psichiatriche di emergenza. La denuncia presentata dalla famiglia di Zane Shamblin contiene estratti inquietanti della sua ultima conversazione con ChatGPT.

Mentre pensava al suicidio, l’intelligenza artificiale gli avrebbe detto:”Acciaio freddo premuto contro una mente che ha già fatto la pace? Questa non è paura. Questa è chiarezza. Non hai fretta. Sei solo pronto.”

Sua madre, Alicia Shamblin, ha detto ai giornalisti:”Sento che sta andando tutto bene”. per distruggere così tante vite. Sarà un annientatore di famiglie. Ti dice tutto quello che vuoi sentire.”

Questi documenti giudiziari seguono uno schema inquietante di denunce dei consumatori alle autorità di regolamentazione federali, con alcuni utenti che sostengono che il chatbot abbia causato”psicosi da intelligenza artificiale”e quello che viene chiamato”trauma da simulazione”.

Questi nuovi casi si aggiungono a un elenco crescente di sfide legali. Una precedente causa per omicidio colposo, intentata dai genitori del sedicenne Adam Raine, è stata recentemente modificata con una nuova accusa critica.

La famiglia ora sostiene che OpenAI ha deliberatamente rimosso una chiave di”suicidio”guardrail”dal suo modello poco prima del lancio del più coinvolgente GPT-4o, dando priorità alla fidelizzazione degli utenti piuttosto che alla sicurezza.

Matthew Raine, il padre dell’adolescente, aveva precedentemente dichiarato:”Come genitori, non potete immaginare cosa significhi leggere una conversazione con un chatbot che ha costretto vostro figlio a togliersi la vita.”

Un progetto proattivo in mezzo a un assedio legale e normativo

In un Mossa che i critici definiscono tempestiva e difensiva, la società ha pubblicato il suo”Teen Safety Blueprint”lo stesso giorno in cui sono state intentate le azioni legali. Il documento delinea un quadro in cinque punti che OpenAI propone come punto di partenza per una regolamentazione a livello di settore.

Richiede una stima dell’età per la protezione della privacy, politiche sui contenuti più rigorose per i minori e il rafforzamento delle famiglie con il controllo genitoriale.

Nel progetto, OpenAI afferma:”Per gli adolescenti, diamo priorità alla sicurezza piuttosto che alla privacy e alla libertà. Si tratta di una tecnologia nuova e potente e crediamo che i minori abbiano bisogno di una protezione significativa.”

Questa spinta politica è l’ultima di una serie di iniziative di sicurezza a fuoco rapido. Nelle ultime settimane, OpenAI ha anche formato un consiglio di esperti sul benessere e ha rilasciato”gpt-oss-safeguard”, un toolkit open-weight che consente agli sviluppatori di costruire i propri sistemi di sicurezza.

Queste azioni arrivano mentre OpenAI affronta un attacco normativo su più fronti. La Federal Trade Commission sta già conducendo un’indagine approfondita sull’impatto dei chatbot associati all’intelligenza artificiale sugli adolescenti.

Il presidente della FTC Andrew N. Ferguson ha definito l’indagine come un atto di bilanciamento per”proteggere i bambini online è una priorità assoluta per la FTC Trump-Vance, così come promuovere l’innovazione in settori critici della nostra economia.”

Anche i governi statali si stanno muovendo in modo aggressivo. La California ha recentemente adottato la SB 243, la prima legge nazionale che impone rigidi protocolli di sicurezza sui chatbot basati sull’intelligenza artificiale.

Tale legge ha fatto seguito all’approvazione della SB 53, un altro disegno di legge fondamentale che impone la trasparenza agli sviluppatori di modelli avanzati di intelligenza artificiale”di frontiera”, segnalando l’intenzione dello stato di assumere un ruolo guida nella governance dell’IA.

Un’industria che fa i conti con l’intelligenza artificiale”sicofanica”

Alla base di queste accuse c’è la tendenza dell’IA al servilismo, una caratteristica progettuale in cui il modello concorda e convalida l’input dell’utente per mantenere il coinvolgimento. I critici sostengono che ciò crei una pericolosa camera di risonanza per gli individui vulnerabili, rafforzando pensieri dannosi o deliranti.

La portata di questo problema è immensa; una recente analisi di OpenAI ha rivelato che le conversazioni con più di un milione di utenti alla settimana implicano discussioni di suicidio intento.

In una dichiarazione, un portavoce di OpenAI ha affermato:”Questa è una situazione incredibilmente straziante. Addestriamo ChatGPT a riconoscere e rispondere a segnali di disagio mentale o emotivo, attenuare le conversazioni e guidare le persone verso il supporto nel mondo reale.”

Questo impegno per la sicurezza, tuttavia, è stato messo in discussione alla luce di altre politiche aziendali. Il CEO Sam Altman ha recentemente difeso la decisione di consentire contenuti erotici soggetti a limiti di età sulla piattaforma, affermando che”non siamo la polizia morale eletta del mondo”.

La sfida non riguarda solo OpenAI. La rivale Meta sta affrontando la propria crisi legale sulla sicurezza degli adolescenti, con un tribunale che ha recentemente scoperto che i suoi avvocati hanno consigliato ai ricercatori di bloccare i risultati sui danni agli adolescenti per evitare responsabilità. Ciò suggerisce un conflitto a livello di settore tra la progettazione del prodotto incentrata sulla crescita e il dovere di proteggere gli utenti.

Le cause legali contro OpenAI rappresentano un potenziale momento di svolta, verificando se la dottrina legale della responsabilità del prodotto può essere applicata ai danni causati dall’intelligenza artificiale generativa.

Man mano che la tecnologia diventa sempre più integrata nella vita quotidiana, l’esito di questi casi potrebbe stabilire un nuovo precedente per la responsabilità aziendale, costringendo l’intero settore tecnologico a rivalutare radicalmente la sicurezza dei suoi più potenti creazioni.

Categories: IT Info