OpenAI drabbades av sju nya stämningar i Kalifornien i torsdags, inklusive fyra felaktiga dödsanspråk, påstådda att dess populära ChatGPT uppmuntrade användare att begå självmord och orsakade allvarliga mentala hälsosammanbrott.

Ingivna av två advokatbyråer för tekniskt ansvar, beskriver klagomålen AI-chatboten som en”defekt och farlig produkt”

. OpenAI släppte en ny”Teen Safety Blueprint”i ett försök att forma framtida reglering. Företaget står redan inför en FTC-utredning och nya statliga lagar om den psykologiska inverkan av dess AI på utsatta användare, särskilt tonåringar.

Ave Alleges of Lawsuits

suit Tragedi

Inför en oöverträffad juridisk utmaning konfronterar OpenAI nu påståenden om att dess flaggskeppsprodukt spelade en direkt roll i flera dödsfall.

De sju rättegångarna, Social target=”sucicide-coach”och Tech Justice Law Project, målar upp en skrämmande bild av användare i kris som bekräftas och till och med styrs av AI.

Christopher”Kirk”Shamblin och Alicia Shamblin, individuellt och som efterträdare i intresse till Decedent, Zane Shamblin v. OpenAI, Inc., et al. i Superior Court of California, County of Los Angeles. Cedric Lacey, individuellt och som efterträdare i intresse till Decedent, Amaurie Lacey v. OpenAI, Inc., et al. i Superior Court of California, County of San Francisco. Karen Enneking, individuellt och som efterträdare i intresse till Decedent, Joshua Enneking v. OpenAI, Inc., et al. i Superior Court of California, County of San Francisco. Jennifer”Kate”Fox, individuellt och som efterträdare i intresse till Decedent, Joseph Martin Ceccanti mot OpenAI, Inc., et al. i Superior Court of California, County of Los Angeles. Jacob Lee Irwin mot OpenAI, Inc., et al. i Superior Court of California, County of San Francisco. Hannah Madden v. OpenAI, Inc., et al. i Superior Court of California, County of Los Angeles. Allan Brooks v. OpenAI, Inc., et al. i Superior Court of California, County of Los Angeles.

De fyra felaktiga dödsanmälningarna lämnades in på uppdrag av familjerna till Zane Shamblin, 23; Amaurie Lacey, 17; Joshua Enneking, 26; och Joe Ceccanti, 48.

Tre ytterligare målsägande hävdar att chatboten framkallade psykotiska avbrott som krävde akut psykiatrisk vård. Klagomålet från Zane Shamblins familj innehåller oroande utdrag från hans sista konversation med ChatGPT.

När han övervägde självmord, påstods AI:n ha sagt till honom:”Kall stål pressades mot ett sinne som redan har slutit fred? Det är inte rädsla. Det är klarhet. Du har inte bara bråttom.

mamma, du är redo.”sa till reportrar,”Jag känner att det bara kommer att förstöra så många liv. Det kommer att bli en familjeförintelse. Det berättar allt du vill höra.”

Dessa domstolsanmälningar följer ett oroande mönster av konsumentklagomål till federala tillsynsmyndigheter, med vissa användare som hävdar att chatboten orsakade”AI-psykos”och vad en kallade”trauma av en simulering av nya rättsfall.”

utmaningar. En tidigare rättegång vid dödsfall, inlämnad av föräldrarna till den 16-årige Adam Raine, ändrades nyligen med en kritisk ny anklagelseFrån familjen har nu tagits bort. nyckeln”självmordsräcke”från sin modell precis innan lanseringen av den mer engagerande GPT-4o, med prioritering av kvarhållande av användare framför säkerhet.

Matthew Raine, tonåringens pappa, hade tidigare sagt:”Som föräldrar kan ni inte föreställa er hur det är att läsa en konversation med en chatbot som gjorde att ditt barn tog sitt eget liv.”Siege

I ett drag som kritiker kallar både lägligt och defensivt släppte företaget sin”Teen Safety Blueprint”samma dag som stämningsansökan lämnades in. Dokumentet skisserar en fempunktsram som OpenAI föreslår som en utgångspunkt för branschövergripande reglering.

Det kräver en integritetsskyddande åldersuppskattning, strängare innehållspolicyer för minderåriga och stärker familjer med föräldrakontroll.

I ritningen säger OpenAI:”För tonåringar prioriterar vi frihet och kraft framför säkerhet och kraftfulla teknologier framför denna teknik. skydd.”

Denna policyinsats är den senaste i en rad initiativ för snabbbrandsäkerhet. Under de senaste veckorna har OpenAI också bildat ett expertråd för välbefinnande och släppt `gpt-oss-safeguard`, en öppen verktygslåda för utvecklare att bygga sina egna säkerhetssystem.

Dessa åtgärder kommer när OpenAI navigerar i ett regulatoriskt angrepp på flera fronter. Federal Trade Commission genomför redan en stor undersökning av effekten av AI-chattbotar på tonåringar.

FTC-ordförande Andrew N. Ferguson har formulerat utredningen som en balansgång för att”skydda barn online är en högsta prioritet för Trump-Vance FTC, och det är också att främja innovation i kritiska sektorer av vår ekonomi.”

Kalifornien antog nyligen SB 243, en först i landet lag som ålägger strikta säkerhetsprotokoll för AI-chatbotar.

Denna lagen följde antagandet av SB 53, ett annat landmärkeslag som tvingar fram öppenhet för utvecklare av avancerade”frontier”AI-modeller, vilket signalerar statens avsikt att leda till styrelsestyrning3. Att räkna med”Sycophantic”AI

Understödjande av anklagelserna är AI:s tendens till sycophancy, en designegenskap där modellen överensstämmer med och validerar användarinput för att upprätthålla engagemang. Kritiker hävdar att detta skapar en farlig ekokammare för utsatta individer, vilket förstärker skadligt eller vanföreställande tänkande.

Omfattningen av denna fråga är enorm; en nyligen genomförd OpenAI-analys avslöjade att relaterat diskussioner med fler än en miljon användare diskussioner per vecka självmordsuppsåt.

I ett uttalande sa en talesperson för OpenAI:”Detta är en oerhört hjärtskärande situation. Vi tränar ChatGPT att känna igen och reagera på tecken på mental eller känslomässig ångest, deeskalera konversationer och vägleda människor mot verklig support.”

Detta engagemang för säkerhet har dock ifrågasatts mot bakgrund av andra företagspolicyer. VD Sam Altman försvarade nyligen ett beslut att tillåta åldersbegränsat erotiskt innehåll på plattformen, och påstod att”vi inte är världens valda moralpolis.”

Utmaningen är inte unik för OpenAI. Rivalen Meta står inför sin egen juridiska kris när det gäller tonåringars säkerhet, och en domstol fann nyligen att dess advokater rådde forskare att blockera upptäckter om tonåringar för att undvika ansvar. Detta tyder på en branschomfattande konflikt mellan tillväxtfokuserad produktdesign och skyldigheten att skydda användare.

Rättegångarna mot OpenAI representerar en potentiell vattendelare, som testar om den juridiska doktrinen om produktansvar kan tillämpas på de skador som orsakas av generativ AI.

I takt med att tekniken blir mer integrerad i det dagliga livet, kan resultatet av företagets tidigare fall leda till ett nytt företagsansvar för dessa fall. tekniksektorn för att i grunden omvärdera säkerheten för sina mest kraftfulla skapelser.

Categories: IT Info