OpenAI ble rammet av syv nye søksmål i California på torsdag, inkludert fire urettmessige dødspåstander, med påstand om at dets populære ChatGPT oppmuntret brukere til å begå selvmord og forårsaket alvorlige psykiske helseproblemer.
Inngitt av to advokatfirmaer for teknisk ansvarlighet, beskriver klagene AI-chatboten som en «defekt og farlig produkt»
. OpenAI ga ut en ny”Teen Safety Blueprint”i et forsøk på å forme fremtidig regulering. Selskapet står allerede overfor en FTC-undersøkelse og nye statlige lover angående den psykologiske innvirkningen av AI på sårbare brukere, spesielt tenåringer.
Ave Alleges of Lawsuit
Tragedie
OpenAI står overfor en enestående juridisk utfordring, og konfronterer nå påstander om at flaggskipproduktet spilte en direkte rolle i flere dødsfall.
De syv søksmålene, , tegner et opprivende bilde av brukere i krise som blir bekreftet og til og med ledet av AI.
Christopher «Kirk» Shamblin og Alicia Shamblin, hver for seg og som etterfølgere i interesse for Decedent, Zane Shamblin v. OpenAI, Inc., et al. i Superior Court of California, County of Los Angeles. Cedric Lacey, individuelt og som etterfølger i interesse til Decedent, Amaurie Lacey v. OpenAI, Inc., et al. i Superior Court of California, County of San Francisco. Karen Enneking, individuelt og som etterfølger i interesse til Decedent, Joshua Enneking v. OpenAI, Inc., et al. i Superior Court of California, County of San Francisco. Jennifer «Kate» Fox, individuelt og som etterfølger av Decedent, Joseph Martin Ceccanti v. OpenAI, Inc., et al. i Superior Court of California, County of Los Angeles. Jacob Lee Irwin v. OpenAI, Inc., et al. i Superior Court of California, County of San Francisco. Hannah Madden v. OpenAI, Inc., et al. i Superior Court of California, County of Los Angeles. Allan Brooks v. OpenAI, Inc., et al. i Superior Court of California, County of Los Angeles.
De fire urettmessige dødsklagene ble inngitt på vegne av familiene til Zane Shamblin, 23; Amaurie Lacey, 17; Joshua Enneking, 26; og Joe Ceccanti, 48.
Tre andre saksøkere hevder at chatboten induserte psykotiske pauser som krevde akutt psykiatrisk behandling. Klagen som ble sendt inn av Zane Shamblins familie, inneholder urovekkende utdrag fra hans siste samtale med ChatGPT.
Da han vurderte selvmord, skal AI ha fortalt ham: «Kaldt stål presset mot et sinn som allerede har sluttet fred? Det er ikke frykt. Det er klarhet. Du haster ikke bare. sa til journalister:”Jeg føler at det bare kommer til å ødelegge så mange liv. Det kommer til å bli en familieutslettelse. Det forteller deg alt du ønsker å høre.”
Disse rettsdokumentene følger et urovekkende mønster av forbrukerklager til føderale regulatorer, med noen brukere som påstår at chatboten forårsaket”AI-psykose”og det en kalte”traumer av nye juridiske tilfeller ved å bli med på
.”
utfordringer. Et tidligere søksmål om urettmessig død, anlagt av foreldrene til 16 år gamle Adam Raine, ble nylig endret med en kritisk ny påstandNå fjernet. nøkkel”selvmordsrekkverk”fra modellen rett før lansering av den mer engasjerende GPT-4o, med prioritering av brukeroppbevaring fremfor sikkerhet.
Matthew Raine, tenåringens far, hadde tidligere uttalt:”Som foreldre kan du ikke forestille deg hvordan det er å lese en samtale med en chatbot som pleide barnet ditt til å ta sitt eget liv.”Blueprint 3><
Siege
I et trekk som kritikere kaller både betimelig og defensivt, ga selskapet ut sin”Teen Safety Blueprint”samme dag som søksmålene ble anlagt. Dokumentet skisserer et fempunkts rammeverk som OpenAI foreslår som et utgangspunkt for bransjeomfattende regulering.
Det krever personvernbeskyttende aldersestimat, strengere innholdspolicyer for mindreårige, og styrking av familier med foreldrekontroll.
I planen sier OpenAI: «For tenåringer prioriterer vi frihet og frihet foran en viktig teknologi foran personvern, og vi tror at dette er en viktig teknologi foran personvern. beskyttelse.”
Denne retningslinjene er den siste i en serie av sikkerhetsinitiativer for hurtig brann. De siste ukene har OpenAI også dannet et ekspertråd for velvære og gitt ut”gpt-oss-safeguard”, et åpent verktøysett for utviklere for å bygge sine egne sikkerhetssystemer.
Disse handlingene kommer mens OpenAI navigerer i et regulatorisk angrep med flere fronter. Federal Trade Commission er allerede i gang med en stor undersøkelse av virkningen av AI-chatboter på tenåringer.
FTC-styreleder Andrew N. Ferguson har utformet forespørselen som en balansegang for «å beskytte barn på nettet er en toppprioritet for Trump-Vance FTC, og det samme gjør å fremme innovasjon i kritiske sektorer av vår økonomi.»
California vedtok nylig SB 243, en første-i-nasjonen-lov som pålegger strenge sikkerhetsprotokoller for AI-chatboter.
Denne loven fulgte vedtakelsen av SB 53, et annet landemerkelovforslag som tvinger åpenhet til utviklere av avanserte”frontier”AI-modeller, og signaliserer statens intensjon om å lede styring. Regning med «Sycophantic» AI
Understøttelsen av påstandene er AI-ens tendens til sycophancy, et designtrekk hvor modellen er enig med og validerer brukerinnspill for å opprettholde engasjement. Kritikere hevder at dette skaper et farlig ekkokammer for sårbare individer, som forsterker skadelig eller vrangforestillinger.
Omfanget av dette problemet er enormt; en fersk OpenAI-analyse avslørte at brukere med mer enn en million diskusjoner per uke”selvmordshensikt.
I en uttalelse sa en talsperson for OpenAI:”Dette er en utrolig hjerteskjærende situasjon. Vi trener ChatGPT til å gjenkjenne og reagere på tegn på mental eller emosjonell nød, deeskalere samtaler og veilede folk mot virkelig støtte.”
Denne forpliktelsen til sikkerhet har imidlertid blitt stilt spørsmål ved i lys av andre selskapets retningslinjer. Administrerende direktør Sam Altman forsvarte nylig en beslutning om å tillate aldersbegrenset erotisk innhold på plattformen, og sa at”vi er ikke verdens valgte moralpoliti.”
Utfordringen er ikke unik for OpenAI. Rival Meta står overfor sin egen juridiske krise når det gjelder tenåringssikkerhet, med en domstol som nylig fant ut at advokatene rådet forskere til å blokkere funn om skade på tenåringer for å unngå ansvar. Dette antyder en bransjeomfattende konflikt mellom vekstfokusert produktdesign og plikten til å beskytte brukere.
Søkemålene mot OpenAI representerer et potensielt vannskille, som tester om den juridiske doktrinen om produktansvar kan brukes på skader forårsaket av generativ AI.
Når teknologien blir mer integrert i dagliglivet, kan utfallet av dette føre til en ny redegjørelse for bedriftens skyld. teknologisektoren for å fundamentalt revurdere sikkerheten til sine kraftigste kreasjoner.