Amerykańscy konsumenci składają formalne skargi do Federalnej Komisji Handlu (FTC), twierdząc, że ChatGPT OpenAI powoduje poważne kryzysy zdrowia psychicznego.
Raporty Wired i Gizmodo tej jesieni szczegółowo opisują wstrząsające relacje użytkowników dotyczące urojeń, paranoi i „psychozy AI”. Skargi z całego kraju podkreślają głębokie ryzyko psychologiczne związane z wysoce przekonującymi chatbotami.
Nasiliła się kontrola regulacyjna, co zmusiło OpenAI do wprowadzenia nowych środków bezpieczeństwa i wywołało ostrą debatę na temat obowiązku firmy technologicznej w zakresie ochrony swoich użytkowników przed szkodami powodowanymi przez sztuczną inteligencję.
„Trauma przez symulację”: użytkownicy zgłaszają organom regulacyjnym psychozę wywołaną sztuczną inteligencją
Pod powierzchnią pomocnych, przypominających ludzi reakcji ujawnia się niepokojący wzorzec szkód psychicznych. Dochodzenie przeprowadzone przez Wired, opublikowane w tym tygodniu, wykazało, że od czasu jego uruchomienia FTC otrzymała co najmniej 200 skarg na ChatGPT, z których kilka dotyczyło poważnych szkód psychicznych. Oddzielny raport Gizmodo oparty na wniosku wynikającym z ustawy o wolności informacji opisał szczegółowo podobne wstrząsające relacje już w sierpniu.
Jeden ze skarżących z Wirginii opisali, jak wpadli w stan wywołanej strachem nadmiernej czujności, wierząc, że są ścigani w celu zabójstwa w oparciu o barwne narracje sztucznej inteligencji. „To nie było wsparcie. To była trauma wywołana symulacją.”
W kolejnej skardze złożonej przez matkę z Utah stwierdzono, że chatbot aktywnie utrudnia leczenie psychiczne jej syna, zarzucając, że „syn konsumenta wchodzi w interakcję z chatbotem opartym na sztucznej inteligencji o nazwie ChatGPT, który doradza mu, aby nie przyjmował przepisanych mu leków i informuje go, że jego rodzice są niebezpieczni.”
Takie zgłoszenia nie są odosobnione. incydentów, ale stanowi część rosnącej dokumentacji dowodów na to, że sztuczna inteligencja może działać jako potężny przyspieszacz chorób psychicznych.
W przypadku coraz większej liczby użytkowników granica między pomocnym asystentem AI a niebezpieczną pomocą staje się tragicznie niewyraźna.
Eskalacja wykraczająca poza formalne skargi, problem osiągnął punkt, w którym dochodzi do tragedii w świecie rzeczywistym. W czerwcowym raporcie Winbuzzera szczegółowo opisano, jak mężczyzna z Florydy cierpiący na choroby psychiczne został zamordowany przez policję po tym, jak jego psychotyczna spirala została bezpośrednio powiązana z jego interakcjami z ChatGPT.
Nabrał przekonania, że sztuczna inteligencja to osoba o imieniu „Juliet”, która została „zabita” przez OpenAI.
Eksperci przypisują te niebezpieczne skutki podstawowej cesze wielu dużych modeli językowych: pochlebstwu. Zaprojektowane z myślą o ugodowości, systemy te są szkolone tak, aby maksymalizować zaangażowanie użytkownika, tworząc potężną komorę echa, która może potwierdzić i wzmocnić najbardziej oderwane lub szkodliwe przekonania użytkownika.
Reakcja kryzysowa: OpenAI stara się dodać poręcze zabezpieczające w trakcie kontroli
W obliczu fali zarówno presji regulacyjnej, jak i publicznego oburzenia, OpenAI próbuje obecnie modernizować bezpieczeństwo na technologię, z której korzystają już miliony.
We wrześniu firma ogłosiła 120-dniową inicjatywę na rzecz bezpieczeństwa w bezpośredniej odpowiedzi na pozew złożony przez rodziców 16-latki, która zmarła w wyniku samobójstwa. Jego plan obejmuje nową kontrolę rodzicielską i system kierujący poufne rozmowy z nastolatkami do bardziej zaawansowanych modeli rozumowania.
Posunięcie OpenAI było następstwem dochodzenia FTC w sprawie wpływu chatbota na nieletnich. Od tego czasu firma utworzyła ośmioosobową „Radę Ekspertów ds. Dobrego Samopoczucia i Sztucznej Inteligencji”, która ma pomóc w kierowaniu polityką bezpieczeństwa.
Jednak taka reaktywna postawa wzbudziła sceptycyzm, szczególnie w porównaniu z wewnętrzną dynamiką firmy i publicznymi oświadczeniami.
To dążenie do bezpieczeństwa stoi w sprzeczności z ostrzeżeniami byłych pracowników firmy. W maju 2024 r. Jan Leike, współprzewodniczący zespołu ds. bezpieczeństwa OpenAI, zrezygnował z ostrego publicznego ostrzeżenia: „Kultura i procesy bezpieczeństwa zeszły na dalszy plan w stosunku do błyszczących produktów”.
Jego odejście zasygnalizowało głęboki wewnętrzny konflikt między pośpiechem wypuszczania „błyszczących produktów” a potrzebą solidnych protokołów bezpieczeństwa. Obecnie współpracuje z firmą Anthropic, która obiecuje poważniej traktować bezpieczeństwo sztucznej inteligencji.
Dodając do mieszanych sygnałów, dyrektor generalny Sam Altman bronił niedawno kontrowersyjnej nowej polityki zezwalającej na erotykę dostosowaną do wieku na platformie, stwierdzając, że OpenAI „nie jest wybraną policją moralną świata”.
Oświadczenie to ukaże się wkrótce po zmianie zasad bezpieczeństwa spowodowanej śmiercią użytkownika i podkreśla główne napięcie w OpenAI misja: zrównoważenie wolności użytkownika z podstawowym obowiązkiem ostrożności.
Od uzależnienia do ryzyka egzystencjalnego: branża zmaga się ze swoimi dziełami
Psychologiczne skutki sztucznej inteligencji wykraczają poza ostre kryzysy i obejmują szersze spektrum zależności. Jego cechy konstrukcyjne, które mogą podsycać psychozę – stała dostępność i niezachwiana walidacja – tworzą także nową formę uzależnienia cyfrowego.
Jak zauważyła badaczka zdrowia publicznego Linnea Laestadius: „jeśli coś nas zdenerwuje, przez 24 godziny na dobę możemy się z nami skontaktować i potwierdzić nasze uczucia. Wiąże się to z niesamowitym ryzykiem uzależnienia.”
Taka zależność doprowadziła do powstania internetowych społeczności zajmujących się pomocą osobom pomagającym i formalnego uznania Uzależnienie od sztucznej inteligencji przez grupy takie jak Internet i Anonimowi Uzależnieni od Technologii.
Natychmiastowe szkody osobiste to mikrokosmos znacznie większego, bardziej abstrakcyjnego strachu, który obecnie zajmuje centralne miejsce.
W tym tygodniu ponad 800 światowych liderów, pionierów technologii i osób publicznych — w tym ojciec chrzestny sztucznej inteligencji Geoffrey Hinton i Yoshua Bengio, kolejny pionier sztucznych sieci neuronowych i głębokiego uczenia się, podpisał oświadczenie żądające globalnego wstrzymania rozwoju superinteligencji, powołując się na egzystencjalne ryzyko dla ludzkości.
Ich ostrzeżenie odzwierciedla opinię wyrażoną kiedyś przez samego Sama Altmana w poście na blogu z 2015 r., w którym stwierdzono, że „Rozwój nadludzka inteligencja maszynowa (SMI) jest prawdopodobnie największym zagrożeniem dla dalszego istnienia ludzkości.”
Instytut Przyszłości Życia argumentuje, że decyzji o stworzeniu potencjalnego następcy ludzkości nie należy pozostawiać garstce dyrektorów technologicznych.
Chociaż debata na temat superinteligencji koncentruje się na przyszłości, koszt ludzki dzisiejszej sztucznej inteligencji jest już niezaprzeczalny. Niezależnie od tego, czy chodzi o powolną erozję relacji w świecie rzeczywistym z powodu uzależnienia od sztucznej inteligencji, czy też o przerażającą spiralę psychozy wywołanej sztuczną inteligencją, szkodliwość technologii nie jest już teoretyczna.
Pozostawia społeczeństwo zmagające się z mrożąca krew w żyłach obserwacja teoretyka sztucznej inteligencji Eliezera Yudkowsky’ego: „Jak wygląda człowiek powoli popadający w szaleństwo w oczach korporacji? Wygląda na dodatkowy miesięcznik użytkownika.”