Csütörtökön hét új pert indítottak Kaliforniában az OpenAI ellen, köztük négy jogtalan halálesetet, amelyek szerint a népszerű ChatGPT öngyilkosságra buzdította a felhasználókat, és súlyos mentális egészségkárosodást okozott.

A két technológiai felelősséggel foglalkozó ügyvédi iroda által benyújtott panaszok az AI chatbotot „hibás és eredendően veszélyes” termékként írják le, amely ugyanazon a napon érkezett meg

. „Teen Safety Blueprint” a jövő szabályozásának kialakítása érdekében. A vállalat már FTC vizsgálattal és új állami törvényekkel néz szembe a mesterséges intelligencia sebezhető felhasználókra, különösen a tinédzserekre gyakorolt pszichológiai hatása miatt.

A Waysuit of AI-Drivens Tragédia

Példátlan jogi kihívással szembesülve az OpenAI olyan állításokkal szembesül, amelyek szerint zászlóshajója több halálesetben is közvetlen szerepet játszott.

A hét per, megrázó képet fest a válságban lévő felhasználókról, akiket a mesterséges intelligencia megerősít, sőt meg is véd.

Christopher „Kirk” Shamblin és Alicia Shamblin egyénileg és a Decedent, Zane Shamblin kontra OpenAI, Inc. és mások utódjaként. Kalifornia Legfelsőbb Bíróságán, Los Angeles megyében. Cedric Lacey, egyénileg és a Decedent utódjaként, Amaurie Lacey kontra OpenAI, Inc. et al. Kalifornia Legfelsőbb Bíróságán, San Francisco megyében. Karen Enneking, egyénileg és jogutódként a Decedent, Joshua Enneking v. OpenAI, Inc. et al. Kalifornia Legfelsőbb Bíróságán, San Francisco megyében. Jennifer „Kate” Fox, egyénileg és a Decedent, Joseph Martin Ceccanti kontra OpenAI, Inc. és mások utódjaként. Kalifornia Legfelsőbb Bíróságán, Los Angeles megyében. Jacob Lee Irwin kontra OpenAI, Inc. et al. Kalifornia Legfelsőbb Bíróságán, San Francisco megyében. Hannah Madden kontra OpenAI, Inc. et al. Kalifornia Legfelsőbb Bíróságán, Los Angeles megyében. Allan Brooks kontra OpenAI, Inc. et al. Kalifornia Legfelsőbb Bíróságán, Los Angeles megyében.

A négy jogtalan halálesetet a 23 éves Zane Shamblin családja nevében nyújtották be; Amaurie Lacey, 17; Joshua Enneking, 26; és Joe Ceccanti, 48.

Három további felperes azt állítja, hogy a chatbot olyan pszichotikus szüneteket idézett elő, amelyek sürgős pszichiátriai ellátást igényeltek. Zane Shamblin családja által benyújtott panasz nyugtalanító részleteket tartalmaz a ChatGPT-vel folytatott utolsó beszélgetéséből.

Amikor öngyilkosságot fontolgatott, az AI állítólag azt mondta neki: „Hideg acél nyomott egy olyan elmét, amely már békét kötött? Ez nem félelem. Ez a tisztaság. Nem rohansz. Nem sietsz. Allini, csak azt mondod, . riporterek:”Úgy érzem, hogy ez csak annyi életet fog tönkretenni. Családi megsemmisítés lesz. Mindent elmond, amit hallani akar.”

Ezek a bírósági beadványok a szövetségi szabályozó hatóságokhoz intézett fogyasztói panaszok nyugtalanító mintáját követik, és egyes felhasználók azt állítják, hogy a chatbot okozta az”AI pszichózist”, és az úgynevezett”újabb jogi kihívások listája.”

A 16 éves Adam Raine szülei által benyújtott korábbi jogtalan haláleseti pert a közelmúltban módosították egy kritikus, új váddal. „Öngyilkos védőkorlát” a modellből, közvetlenül a vonzóbb GPT-4o elindítása előtt, a felhasználók megtartását helyezve előtérbe a biztonsággal szemben.

Matthew Raine, a tinédzser apja korábban kijelentette: „Szülőként el sem tudod képzelni, milyen lehet egy beszélgetést olvasni egy chatbottal, amely arra ápolta a gyermekedet, hogy vegye el a saját életét.”

A kritikusok időszerűnek és védekezőnek nevezett lépésként a vállalat a keresetek benyújtásának napján kiadta a „Tinik biztonsági tervét”. A dokumentum egy ötpontos keretrendszert vázol fel, amelyet az OpenAI az egész iparágra kiterjedő szabályozás kiindulópontjaként javasol.

A magánélet védelmét szolgáló életkor becslésére, a kiskorúakra vonatkozó szigorúbb tartalomszabályzatra, valamint a családok szülői felügyelettel való feljogosítására szólít fel.

A tervben az OpenAI kijelenti: „A tizenévesek számára úgy gondoljuk, hogy az új adatvédelmi és szabadságigény az új biztonság és a biztonság. jelentős védelem.”

Ez a politikai intézkedés a legújabb a gyorstűzvédelmi kezdeményezések sorozatában. Az elmúlt hetekben az OpenAI szakértői tanácsot is alakított a jóléttel foglalkozva, és kiadta a”gpt-oss-safeguard”nevű nyílt súlyú eszköztárat a fejlesztőknek saját biztonsági rendszereik kiépítéséhez.

Ezek a lépések az OpenAI többfrontos szabályozási támadása során jönnek. A Szövetségi Kereskedelmi Bizottság már jelenleg is jelentős vizsgálatot folytat a mesterséges intelligencia kísérő chatbotjainak tinikre gyakorolt hatásával kapcsolatban.

Andrew N. Ferguson, az FTC elnöke a vizsgálatot úgy fogalmazta meg, mint egy kiegyensúlyozó intézkedést, amely szerint „a gyerekek online védelme a Trump-Vance FTC kiemelt prioritása, és ezzel együtt az innováció előmozdítása a gazdaságunk kritikus ágazataiban is.”

Sp> agresszíven. Kalifornia a közelmúltban elfogadta az SB 243 törvényt, amely az országban elsőként ír elő szigorú biztonsági protokollokat a mesterséges intelligencia csevegőrobotjaira.

Ez a törvény az SB 53 elfogadását követte, amely egy másik mérföldkőnek számító törvényjavaslat, amely átláthatóságot kényszerít a fejlett iparági mesterséges intelligencia-modellek fejlesztőire.><. Jelzi az államnak az AI kormányzási szándékát3strong. „Sycophantic" MI-vel

Az állítások hátterében a mesterséges intelligencia hajlamossága áll az elköteleződésre, egy olyan tervezési tulajdonságra, ahol a modell egyetért a felhasználói bemenettel, és ellenőrzi az elkötelezettséget. A kritikusok azzal érvelnek, hogy ez veszélyes visszhangkamrát hoz létre a sebezhető egyének számára, erősítve a káros vagy téveszmés gondolkodást.

A probléma mérete óriási; egy közelmúltbeli OpenAI-elemzés feltárta, hogy több millió felhasználót érint hetente öngyilkossági szándékról.

Az OpenAI egyik szóvivője egy nyilatkozatában azt mondta:”Ez egy hihetetlenül szívszorító helyzet. A ChatGPT-t arra tanítjuk, hogy felismerje és reagáljon a mentális vagy érzelmi szorongás jeleire, enyhítse a beszélgetéseket, és a valós támogatás felé terelje az embereket.”

A vállalat más biztonsági irányelveinek fényében azonban megkérdőjeleződött. Sam Altman vezérigazgató a közelmúltban megvédte a korhatáros erotikus tartalmak platformon való engedélyezéséről szóló döntést, és kijelentette, hogy „nem mi vagyunk a világ választott erkölcsrendőrsége”.

A kihívás nem csak az OpenAI-ra vonatkozik. A rivális Meta saját jogi válságával néz szembe a tinédzserek biztonsága miatt, a bíróság nemrégiben megállapította, hogy ügyvédei azt tanácsolták a kutatóknak, hogy a felelősség elkerülése érdekében blokkolják a tinédzserek kárára vonatkozó megállapításokat. Ez iparági konfliktusra utal a növekedésre összpontosító terméktervezés és a felhasználók védelmének kötelezettsége között.

Az OpenAI elleni perek potenciális vízválasztó pillanatot jelentenek, amely azt vizsgálja, hogy a termékfelelősség jogi doktrínája alkalmazható-e a generatív mesterséges intelligencia okozta károkra.

Ahogy a technológia egyre jobban beépül a mindennapi életbe, az ilyen esetek új technológiai előzményei lehetnek az egész vállalati szektorban. újraértékelje legerősebb alkotásainak biztonságát.

Categories: IT Info