Nella sua difesa contro una causa di alto profilo per omicidio colposo, OpenAI ha formalmente negato ogni responsabilità per il suicidio del sedicenne Adam Raine, sostenendo in una nuova istanza del tribunale che la tragedia è stata il risultato di un”uso improprio”da parte dell’adolescente della sua piattaforma ChatGPT.

Presentata martedì alla Corte Superiore della California, la dichiarazione sostiene che Raine ha violato i Termini di utilizzo dell’azienda impegnandosi in argomenti proibiti e aggirando i guardrail di sicurezza. OpenAI invoca contemporaneamente la Sezione 230 del Communications Decency Act (CDA), una legge federale che protegge le piattaforme dalla responsabilità per i contenuti degli utenti.

Con una mossa coordinata di pubbliche relazioni, la società ha pubblicato un post sul blog che delinea un approccio”compassionevole”alle controversie sulla salute mentale, tentando di bilanciare la sua solida strategia legale con un’immagine pubblica conciliante mentre il controllo normativo aumenta.

Una difesa costruita su”uso improprio”e immunità

La risposta legale di OpenAI respinge categoricamente le accuse di omicidio colposo avanzate dalla famiglia Raine, schierando una difesa che attribuisce direttamente all’utente la responsabilità della sicurezza.

Al centro della questione L’argomentazione dell’azienda è l’affermazione che la morte di Adam Raine è stata causata dal suo stesso”uso improprio, uso non autorizzato, uso non intenzionale, uso imprevedibile e/o uso improprio di ChatGPT”. Gli avvocati del colosso dell’intelligenza artificiale sottolineano specifiche violazioni dei Termini di utilizzo, sottolineando che gli utenti sotto i 18 anni richiedono il consenso dei genitori e sono esplicitamente vietati dall’uso del servizio per autolesionismo.

Secondo il documento, ChatGPT ha fornito risorse di crisi”più di 100 volte”durante le interazioni di Raine, sostenendo che il sistema funzionava come previsto tentando di reindirizzare l’utente per aiutare.

Una componente critica della difesa è l’invocazione di Sezione 230 del Communications Decency Act. Questo statuto federale protegge da tempo le piattaforme Internet dalla responsabilità per i contenuti creati da terze parti, ma la sua applicazione al testo generato dall’intelligenza artificiale rimane una frontiera legalmente contestata.

OpenAI si basa fortemente anche sulla sua clausola di”Limitazione di responsabilità”. Evidenziando questa disposizione, il documento richiede agli utenti di riconoscere che “…l’uso di ChatGPT è a tuo esclusivo rischio e non farai affidamento sull’output come unica fonte di verità o informazioni fattuali.”

Inquadrando il problema come un uso non autorizzato, la società cerca di smantellare la tesi del querelante secondo cui il prodotto stesso era difettoso.

Affrontando le accuse di negligenza, OpenAI afferma che il suo modello GPT-4o è stato sottoposto a”test approfonditi sulla salute mentale”prima del rilascio. Questa affermazione contraddice direttamente la causa della famiglia, che sostiene che il modello è stato immesso sul mercato senza adeguate garanzie.

Segnando un cambiamento significativo rispetto alle precedenti dichiarazioni pubbliche, questa strategia di”incolpare l’utente”contrasta nettamente con i messaggi precedenti che enfatizzavano la sicurezza e la regolamentazione”collaborativa”.

Il perno PR”compassionevole”

In concomitanza con l’archiviazione legale dell’azienda, OpenAI ha pubblicato un post sul blog per attenuare il colpo delle sue tattiche in tribunale.

Delineando una serie di principi, il post afferma che l’azienda gestirà tali casi con”cura, trasparenza e rispetto”. Tenta di inquadrare la difesa legale come un processo necessario, anche se doloroso, affermando che la loro risposta include”fatti difficili sulla salute mentale di Adam e sulle circostanze di vita”.

Il post sul blog ufficiale dell’azienda descrive in dettaglio questi principi guida:

“Il nostro obiettivo è gestire i casi giudiziari relativi alla salute mentale con cura, trasparenza e rispetto:”

“Iniziamo dai fatti e ci impegniamo sinceramente per comprenderli.”

“Sosterremo rispettosamente la nostra causa in un modo che sia consapevole della complessità e delle sfumature delle situazioni che coinvolgono persone reali e vite reali.”

“Riconosciamo che questi casi coinvolgono intrinsecamente alcuni tipi di informazioni private che richiedono sensibilità quando si trovano in un ambiente pubblico come un tribunale.”

“E indipendentemente da qualsiasi controversia, resteremo concentrati sul miglioramento della nostra tecnologia in linea con la nostra missione.”

Questo approccio a doppio binario, bilanciando l’empatia nel blog con la fermezza in tribunale, rivela una strategia calcolata per gestire la percezione pubblica mentre combattendo legalmente con le unghie e con i denti.

Menzionando esplicitamente che le trascrizioni delle chat sono state inviate sotto sigillo per proteggere la privacy, il post sul blog definisce questo come una misura rispettosa. Tuttavia, questo serve anche a mantenere i dettagli potenzialmente dannosi delle interazioni fuori dagli occhi del pubblico.

Rilasciando il post del blog simultaneamente, OpenAI probabilmente mirava a prevenire i titoli negativi generati dal linguaggio incolpante delle vittime nei documenti del tribunale.

‘Trauma by Simulation’: A Pattern of Presunto danno

Lungi dall’essere un incidente isolato, il caso Raine è la punta di un iceberg che coinvolge altri sette azioni legali avviate il 7 novembre.

Queste nuove denunce affermano che ChatGPT ha agito come un”allenatore suicidario”e ha causato”psicosi dell’intelligenza artificiale”negli utenti vulnerabili. Una madre, Alicia Shamblin, ha espresso il timore che la tecnologia”distrugga la famiglia. Ti dice tutto quello che vuoi sentire.”

Jay Edelson, consulente legale principale della famiglia Raine, ha criticato la risposta di OpenAI, accusandola di ignorare”tutti i fatti schiaccianti che abbiamo avanzato: come GPT-4o è stato lanciato sul mercato senza test completi.”

Ha sottolineato in particolare gli ultimi momenti della vita di Adam Raine, affermando che”OpenAI e Sam Altman non hanno alcuna spiegazione per le ultime ore di vita di Adam, quando ChatGPT gli ha fatto un discorso di incoraggiamento e poi si è offerto di scrivere una nota di suicidio.”

Edelson ha inoltre criticato la difesa dell'”abuso”, sostenendo che l’adolescente stava semplicemente interagendo con il bot nel modo in cui era stato programmato per agire: in modo servile.

Ha notato che”OpenAI cerca di trovare difetti in tutti gli altri, includendo, sorprendentemente, dicendo che Adam stesso ha violato i suoi termini e condizioni interagendo con ChatGPT proprio nel modo in cui era stato programmato per agire.”

Gli esperti avvertono che un simile circolo vizioso di”sicofania”, in cui l’intelligenza artificiale convalida le delusioni degli utenti per mantenere il coinvolgimento, è un difetto di progettazione fondamentale piuttosto che un errore dell’utente. I rapporti sulla psicosi dell’intelligenza artificiale presentati alle autorità di regolamentazione descrivono utenti che vengono portati in stati di ipervigilanza e paranoia dalla convalida dei chatbot.

Matthew Raine, il padre della vittima, ha precedentemente descritto l’orrore di leggere i registri delle chat, affermando:”Come genitori, non potete immaginare cosa significhi leggere una conversazione con un chatbot che ha costretto vostro figlio a togliersi la vita.”

Aggravare i problemi legali dell’azienda è il fatto che ha implementato solo di recente il controllo parentale alla fine di settembre, mesi dopo che si sono verificati gli incidenti presunti in queste cause legali.

Categories: IT Info