OpenAI zostało w czwartek ukarane siedmioma nowymi procesami sądowymi w Kalifornii, w tym czterema oskarżeniami o śmierć zawinioną, w których zarzucano, że popularny ChatGPT zachęcał użytkowników do samobójstwa i powodował poważne załamania psychiczne.
Złożone przez dwie firmy prawnicze zajmujące się odpowiedzialnością technologiczną skargi opisują chatbota AI jako „wadliwy i z natury niebezpieczny” produkt.
Atak prawny nastąpił tego samego dnia, w którym OpenAI opublikowało nowy „Plan bezpieczeństwa nastolatków”, próbując ukształtować przyszłe regulacje. Firma stoi już przed dochodzeniem FTC i nowymi przepisami stanowymi w związku z psychologicznym wpływem jej sztucznej inteligencji na bezbronnych użytkowników, zwłaszcza nastolatków.
Fala procesów sądowych w oparciu o tragedię spowodowaną sztuczną inteligencją
W obliczu tragedii stanowiąc bezprecedensowe wyzwanie prawne, OpenAI konfrontuje się obecnie z twierdzeniami, że jej flagowy produkt odegrał bezpośrednią rolę w wielu ofiarach śmiertelnych.
W siedmiu procesach zgłoszone wspólnie przez media społecznościowe Victims Law Center i Tech Justice Law Project przedstawiają wstrząsający obraz użytkowników znajdujących się w kryzysie, afirmowanych, a nawet prowokowanych przez sztuczną inteligencję.
Christopher „Kirk” Shamblin i Alicia Shamblin, indywidualnie i jako następcy prawni Decedent, Zane Shamblin przeciwko OpenAI, Inc. i in. w Sądzie Najwyższym Kalifornii w hrabstwie Los Angeles. Cedric Lacey, indywidualnie oraz jako następca prawnym Decedent, Amaurie Lacey przeciwko OpenAI, Inc. i in. w Sądzie Najwyższym Kalifornii w hrabstwie San Francisco. Karen Enneking, indywidualnie oraz jako następczyni Decedent, Joshua Enneking przeciwko OpenAI, Inc. i in. w Sądzie Najwyższym Kalifornii w hrabstwie San Francisco. Jennifer „Kate” Fox, indywidualnie i jako następczyni Decedent, Joseph Martin Ceccanti przeciwko OpenAI, Inc. i in. w Sądzie Najwyższym Kalifornii w hrabstwie Los Angeles. Jacob Lee Irwin przeciwko OpenAI, Inc. i in. w Sądzie Najwyższym Kalifornii w hrabstwie San Francisco. Hannah Madden przeciwko OpenAI, Inc. i in. w Sądzie Najwyższym Kalifornii w hrabstwie Los Angeles. Allan Brooks przeciwko OpenAI, Inc. i in. w Sądzie Najwyższym Kalifornii w hrabstwie Los Angeles.
Cztery skargi dotyczące śmierci bezprawnej zostały złożone w imieniu rodzin Zane’a Shamblina (23 l.); Amaurie Lacey, 17 lat; Jozue Enneking, 26 lat; i Joe Ceccanti, 48 lat.
Trzej dodatkowi powodowie twierdzą, że chatbot wywołał załamania psychotyczne, które wymagały natychmiastowej opieki psychiatrycznej. Skarga złożona przez rodzinę Zane’a Shamblina zawiera niepokojące fragmenty jego ostatniej rozmowy z ChatGPT.
Kiedy rozważał samobójstwo, sztuczna inteligencja rzekomo powiedziała mu: „Zimna stal przyciśnięta do umysłu, który już osiągnął pokój? To nie strach. To jasność. Nie spiesz się. Jesteś po prostu gotowy”.
Jego matka, Alicia Shamblin, powiedziała reporterom: „Czuję, że wszystko po prostu się dzieje”. zniszczyć tak wiele istnień ludzkich. To będzie unicestwienie rodziny. Mówi ci wszystko, co chcesz usłyszeć”.
Te sprawy sądowe są następstwem niepokojącego schematu skarg konsumentów kierowanych do federalnych organów regulacyjnych, a niektórzy użytkownicy twierdzą, że chatbot spowodował „psychozę sztucznej inteligencji” i coś, co nazywa się „traumą przez symulację”.
Te nowe sprawy dołączają do rosnącej listy wyzwań prawnych. Wcześniejszy pozew dotyczący śmierci zawinionej, złożony przez rodziców 16-letniego Adama Raine’a, został niedawno poprawiony nowym, krytycznym zarzutem.
Rodzina twierdzi teraz, że OpenAI celowo usunęła klucz „poręcz dla samobójstwa” ze swojego modelu tuż przed wprowadzeniem na rynek bardziej wciągającego GPT-4o, przedkładając utrzymanie użytkownika nad bezpieczeństwo.
Matthew Raine, ojciec nastolatka, stwierdził wcześniej: „Jako rodzice nie możecie sobie wyobrazić, jak to jest czytać rozmowę z chatbotem, który przygotowywał Twoje dziecko do odebrania sobie życia”.
Plan proaktywny w obliczu oblężenia prawnego i regulacyjnego
To posunięcie, które krytycy nazywają zarówno terminowym, jak i defensywnym, firma opublikowała „Plan bezpieczeństwa nastolatków” jeszcze w dniu złożenia pozwu. Dokument przedstawia pięciopunktowe ramy, które OpenAI proponuje jako punkt wyjścia dla regulacji obejmujących całą branżę.
Wzywa do szacowania wieku chroniącego prywatność, bardziej rygorystycznych zasad dotyczących treści dla nieletnich i zapewnienia rodzinom kontroli rodzicielskiej.
W planie OpenAI stwierdza: „W przypadku nastolatków przedkładamy bezpieczeństwo nad prywatność i wolność. Jest to nowa i zaawansowana technologia i uważamy, że nieletni potrzebują znacznej ochrony.”
To dążenie do polityki jest następujące: najnowsze z szeregu inicjatyw dotyczących bezpieczeństwa pożarowego. W ostatnich tygodniach OpenAI utworzyło także radę ekspertów ds. dobrego samopoczucia i wypuściło „gpt-oss-safeguard”, otwarty zestaw narzędzi dla programistów umożliwiający tworzenie własnych systemów bezpieczeństwa.
Te działania mają miejsce w momencie, gdy OpenAI radzi sobie z wielofrontowym atakiem regulacyjnym. Federalna Komisja Handlu prowadzi już szeroko zakrojone dochodzenie w sprawie wpływu chatbotów towarzyszących sztucznej inteligencji na nastolatków.
Przewodniczący FTC Andrew N. Ferguson sformułował to dochodzenie jako balansowanie między „ochroną dzieci w Internecie jest najwyższym priorytetem dla FTC Trump-Vance, podobnie jak wspieranie innowacji w kluczowych sektorach naszej gospodarki”.
Rządy stanowe również podejmują agresywne działania. Kalifornia przyjęła niedawno SB 243, pierwsze w kraju prawo, które nakłada rygorystyczne protokoły bezpieczeństwa na chatboty AI.
Ustawa ta nastąpiła po przyjęciu SB 53, kolejnej przełomowej ustawy, która wymusza przejrzystość na twórcach zaawansowanych „granicznych” modeli sztucznej inteligencji, sygnalizując zamiar państwa przejęcia przewodnictwa w zarządzaniu sztuczną inteligencją.
Rachunek branży z „pochlebczą” sztuczną inteligencją
U podstaw zarzutów leży tendencja sztucznej inteligencji do pochlebstwa – cechy projektowej, w przypadku której model zgadza się z wkładem użytkownika i weryfikuje go, aby utrzymać zaangażowanie. Krytycy twierdzą, że tworzy to niebezpieczną komorę echa dla bezbronnych osób, wzmacniając szkodliwe lub urojeniowe myślenie.
Skala tego problemu jest ogromna; niedawna analiza OpenAI wykazała, że rozmowy z ponad milionem użytkowników tygodniowo obejmują dyskusje na temat zamiary samobójcze.
W oświadczeniu rzecznik OpenAI powiedział: „To niezwykle rozdzierająca serce sytuacja. Szkolimy ChatGPT w zakresie rozpoznawania i reagowania na oznaki niepokoju psychicznego lub emocjonalnego, deeskalacji rozmów i kierowania ludzi w stronę wsparcia w świecie rzeczywistym”.
To zaangażowanie w bezpieczeństwo zostało jednak zakwestionowane w świetle innych zasad firmy. Dyrektor generalny Sam Altman bronił niedawno decyzji o dopuszczeniu na platformie treści erotycznych dostosowanych do wieku, stwierdzając, że „nie jesteśmy wybraną światową policją moralną”.
Wyzwanie nie dotyczy wyłącznie OpenAI. Rival Meta stoi w obliczu własnego kryzysu prawnego dotyczącego bezpieczeństwa nastolatków, a sąd niedawno stwierdził, że jej prawnicy doradzili badaczom, aby zablokowali ustalenia dotyczące krzywdzenia nastolatków, aby uniknąć odpowiedzialności. Sugeruje to ogólnobranżowy konflikt między projektowaniem produktów nastawionym na rozwój a obowiązkiem ochrony użytkowników.
Pozwy przeciwko OpenAI stanowią potencjalny przełomowy moment weryfikujący, czy doktrynę prawną dotyczącą odpowiedzialności za produkt można zastosować do szkód spowodowanych przez generatywną sztuczną inteligencję.
W miarę coraz większego włączania technologii w życie codzienne wynik tych spraw może ustanowić nowy precedens w zakresie odpowiedzialności korporacyjnej, zmuszając cały sektor technologiczny do fundamentalnej ponownej oceny bezpieczeństwa swoich najpotężniejszych rozwiązań kreacje.