OpenAI a fost lovit de șapte noi procese în California, joi, inclusiv patru cereri de moarte din culpă, susținând că popularul său ChatGPT a încurajat utilizatorii să se sinucidă și a provocat abateri grave de sănătate mintală.
Depuse de două firme de avocatură pentru responsabilitatea tehnologiei, plângerile descriu chatbot-ul AI drept un „defect deschis și în mod inerent periculos
produsul AI a sosit în aceeași zi. un nou „Teen Safety Blueprint” în efortul de a modela viitoarele reglementări. Compania se confruntă deja cu o anchetă FTC și cu noi legi de stat cu privire la impactul psihologic al AI-ului său asupra utilizatorilor vulnerabili, în special asupra adolescenților.
A All Wave of Law>AI-Drie Suit
În fața unei provocări legale fără precedent, OpenAI se confruntă acum cu afirmațiile conform cărora produsul său emblematic a jucat un rol direct în decese multiple.
Cele șapte procese, , descrie o imagine îngrozitoare a utilizatorilor aflați în criză, afirmați și chiar provocați de IA.
Christopher „Kirk” Shamblin și Alicia Shamblin, individual și ca succesori în interes ai Decedent, Zane Shamblin v. OpenAI, Inc., et al. la Curtea Superioară din California, comitatul Los Angeles. Cedric Lacey, individual și în calitate de succesor în interes al Decedentului, Amaurie Lacey v. OpenAI, Inc., și colab. la Curtea Superioară din California, comitatul San Francisco. Karen Enneking, individual și în calitate de succesor în interes al Decedentului, Joshua Enneking v. OpenAI, Inc., și colab. la Curtea Superioară din California, comitatul San Francisco. Jennifer „Kate” Fox, individual și ca succesor în interes al Decedentului, Joseph Martin Ceccanti v. OpenAI, Inc. și colab. la Curtea Superioară din California, comitatul Los Angeles. Jacob Lee Irwin v. OpenAI, Inc., et al. la Curtea Superioară din California, comitatul San Francisco. Hannah Madden v. OpenAI, Inc., et al. la Curtea Superioară din California, comitatul Los Angeles. Allan Brooks v. OpenAI, Inc. și colab. la Curtea Superioară din California, comitatul Los Angeles.
Cele patru plângeri de moarte din culpă au fost depuse în numele familiilor lui Zane Shamblin, 23 de ani; Amaurie Lacey, 17 ani; Joshua Enneking, 26 de ani; și Joe Ceccanti, 48 de ani.
Alți trei reclamanți susțin că chatbot-ul a provocat pauze psihotice care au necesitat îngrijiri psihiatrice de urgență. Plângerea depusă de familia lui Zane Shamblin conține fragmente tulburătoare din conversația sa finală cu ChatGPT.
În timp ce se gândea la sinucidere, AI i-ar fi spus: „Oțel rece apăsat împotriva unei minți care a făcut deja pace? Asta nu este frică. Asta e claritate. Nu te grăbi. „Simt că pur și simplu va distruge atât de multe vieți. Va fi un anihilator de familie. Îți spune tot ce vrei să auzi.”
Aceste dosare în instanță urmează un model tulburător de plângeri ale consumatorilor către autoritățile federale de reglementare, unii utilizatori susținând că chatbot-ul a provocat „psihoză AI” și ceea ce unul a numit „traumă prin simulare”.
Un proces anterior pentru moarte din culpă, intentat de părinții lui Adam Raine, în vârstă de 16 ani, a fost recent modificat cu o acuzație nouă critică AIalegație acum AI. a eliminat în mod deliberat o „balustradă sinucigașă” cheie din modelul său chiar înainte de a lansa GPT-4o, mai captivantă, dând prioritate reținerii utilizatorilor în detrimentul siguranței.
Matthew Raine, tatăl adolescentului, declarase anterior: „Ca părinți, nu vă puteți imagina cum este să citiți o conversație cu un chatbot care a îngrijit copilul dvs. pentru a-și îngriji viața.”
un asediu legal și de reglementare
Într-o mișcare pe care criticii o consideră atât oportună, cât și defensivă, compania și-a lansat „Teen Safety Blueprint” chiar în ziua în care au fost intentate procesele. Documentul subliniază un cadru în cinci puncte pe care OpenAI îl propune ca punct de plecare pentru reglementarea la nivel de industrie.
Solicită o estimare a vârstei pentru protejarea confidențialității, politici mai stricte de conținut pentru minori și abilitarea familiilor cu control parental.
În proiect, OpenAI afirmă: „Pentru adolescenți, acordăm prioritate tehnologiei noi și puternice de siguranță. Aceasta este o tehnologie nouă și puternică. protecție.”
Această politică este cea mai recentă dintr-o serie de inițiative de siguranță la incendiu rapid. În ultimele săptămâni, OpenAI a format, de asemenea, un consiliu de experți în materie de bunăstare și a lansat „gpt-oss-safeguard”, un set de instrumente deschis pentru dezvoltatori pentru a-și construi propriile sisteme de siguranță.
Aceste acțiuni apar în timp ce OpenAI navighează într-un atac de reglementare multifrontal. Comisia Federală pentru Comerț desfășoară deja o investigație majoră cu privire la impactul chatbot-urilor însoțitori de inteligență artificială asupra adolescenților.
Președintele FTC, Andrew N. Ferguson, a încadrat ancheta drept un act de echilibru pentru „protecția copiilor online este o prioritate de top pentru FTC Trump-Vance, la fel și încurajarea inovației în sectoarele critice ale economiei noastre. California a adoptat recent SB 243, o lege prima din țară care impune protocoale stricte de siguranță chatbot-urilor AI.
Acea lege a urmat adoptarea SB 53, un alt proiect de lege emblematic care impune transparența dezvoltatorilor de modele avansate de IA „de frontieră”, semnalând intenția statului de a conduce pe o guvernare AI La baza acuzațiilor se află tendința AI spre adularea, o trăsătură de design în care modelul este de acord cu și validează contribuția utilizatorului pentru a menține implicarea. Criticii susțin că acest lucru creează o cameră de ecou periculoasă pentru indivizii vulnerabili, întărind gândirea dăunătoare sau delirante. Amploarea acestei probleme este imensă; o analiză OpenAI recentă a dezvăluit că