In seiner Verteidigung gegen eine hochkarätige Klage wegen unrechtmäßiger Tötung hat OpenAI offiziell die Haftung für den Selbstmord des 16-jährigen Adam Raine zurückgewiesen und in einem neuen Gerichtsakt argumentiert, dass die Tragödie auf den „Missbrauch“ seiner ChatGPT-Plattform durch den Teenager zurückzuführen sei.

Der am Dienstag beim Obersten Gerichtshof von Kalifornien eingereichte Antrag behauptet, dass Raine gegen die Nutzungsbedingungen des Unternehmens verstoßen habe, indem er sich auf verbotene Themen eingelassen und die Sicherheit umgangen habe Leitplanken. OpenAI beruft sich gleichzeitig auf Abschnitt 230 des Communications Decency Act (CDA), ein Bundesgesetz, das Plattformen vor der Haftung für Benutzerinhalte schützt.

Im Rahmen einer koordinierten PR-Maßnahme veröffentlichte das Unternehmen einen Blogbeitrag, in dem es einen „mitfühlenden“ Ansatz bei Rechtsstreitigkeiten im Bereich der psychischen Gesundheit darlegte und versuchte, seine robuste Rechtsstrategie mit einem versöhnlichen öffentlichen Image angesichts der zunehmenden behördlichen Kontrolle in Einklang zu bringen.

Eine Verteidigung, die auf „Missbrauch“ und Immunität aufbaut

Die rechtliche Antwort von OpenAI weist die von der Familie Raine vorgebrachten Behauptungen wegen unrechtmäßiger Tötung kategorisch zurück und setzt eine Verteidigung ein, die die Verantwortung für die Sicherheit direkt dem Benutzer überlässt.

Im Mittelpunkt der Das Argument des Unternehmens ist die Behauptung, dass Adam Raines Tod durch seinen eigenen „Missbrauch, unbefugte Nutzung, unbeabsichtigte Nutzung, unvorhersehbare Nutzung und/oder unsachgemäße Nutzung von ChatGPT“ verursacht wurde. Anwälte des KI-Riesen weisen auf spezifische Verstöße gegen die Nutzungsbedingungen hin und weisen darauf hin, dass Benutzer unter 18 Jahren die Zustimmung der Eltern benötigen und ihnen die Nutzung des Dienstes zur Selbstverletzung ausdrücklich untersagt ist.

Dem Dokument zufolge stellte ChatGPT während Raines Interaktionen „mehr als 100 Mal“ Krisenressourcen zur Verfügung und argumentierte, das System habe wie vorgesehen funktioniert, indem es versucht habe, den Benutzer umzuleiten, um ihm zu helfen.

Eine entscheidende Komponente der Verteidigung ist die Anrufung von Abschnitt 230 des Communications Decency Act. Dieses Bundesgesetz schützt Internetplattformen seit langem vor der Haftung für Inhalte, die von Dritten erstellt wurden, aber seine Anwendung auf KI-generierte Texte bleibt eine rechtlich umstrittene Grenze.

OpenAI stützt sich auch stark auf seine Klausel „Haftungsbeschränkung“. Unter Hervorhebung dieser Bestimmung verlangt die Einreichung, dass Benutzer anerkennen müssen, dass „… die Nutzung von ChatGPT auf Ihr alleiniges Risiko erfolgt und Sie sich nicht auf die Ausgabe als alleinige Quelle der Wahrheit oder sachlicher Informationen verlassen werden.“

Indem das Unternehmen das Problem als eine unbefugte Nutzung darstellt, versucht es, das Argument des Klägers zu entkräften, dass das Produkt selbst fehlerhaft sei.

In Bezug auf Fahrlässigkeitsvorwürfe behauptet OpenAI, dass sein GPT-4o-Modell fehlerhaft sei „gründliche Tests auf psychische Gesundheit“ vor der Entlassung. Diese Behauptung widerspricht direkt der Klage der Familie, in der argumentiert wird, dass das Modell ohne angemessene Sicherheitsvorkehrungen überstürzt auf den Markt gebracht wurde.

Diese „Schuld beim Benutzer“-Strategie stellt eine deutliche Abkehr von früheren öffentlichen Äußerungen dar und steht in scharfem Kontrast zu früheren Botschaften, in denen Sicherheit und „kollaborative“ Regulierung im Vordergrund standen.

Der „mitfühlende“ PR-Pivot

Gleichzeitig mit der rechtlichen Einreichung des Unternehmens veröffentlichte OpenAI eine Blogbeitrag, um den Schlag seiner Gerichtstaktiken abzumildern.

Der Beitrag beschreibt eine Reihe von Grundsätzen und behauptet, das Unternehmen werde solche Fälle mit „Sorgfalt, Transparenz und Respekt“ behandeln. Darin wird versucht, die Rechtsverteidigung als einen notwendigen, wenn auch schmerzhaften Prozess darzustellen, und es heißt, dass ihre Antwort „schwierige Fakten über Adams psychische Gesundheit und seine Lebensumstände“ beinhaltet.

Der offizielle Blogbeitrag des Unternehmens beschreibt diese Leitprinzipien:

„Unser Ziel ist es, Gerichtsverfahren im Zusammenhang mit psychischer Gesundheit mit Sorgfalt, Transparenz und Respekt zu behandeln:“

„Wir beginnen mit den Fakten und geben uns echte Mühe, sie zu verstehen.“

„Wir werden unsere Argumente respektvoll darlegen.“ auf eine Art und Weise, die sich der Komplexität und den Nuancen von Situationen bewusst ist, an denen reale Menschen und reale Leben beteiligt sind Wahrnehmung, während mit Händen und Füßen juristisch gekämpft wird.

Der Blogbeitrag erwähnt ausdrücklich, dass Chat-Transkripte zum Schutz der Privatsphäre unter Verschluss übermittelt wurden, und stellt dies als eine respektvolle Maßnahme dar. Dies dient jedoch auch dazu, potenziell schädliche Details der Interaktionen von der Öffentlichkeit fernzuhalten.

Durch die gleichzeitige Veröffentlichung des Blogbeitrags wollte OpenAI wahrscheinlich den negativen Schlagzeilen vorbeugen, die durch die Opferbeschuldigungssprache in den Gerichtsdokumenten erzeugt wurden.

„Trauma durch Simulation“: Ein Muster angeblicher Schäden

Der Fall Raine ist kein Einzelfall, sondern die Spitze eines Eisbergs mit sieben weiteren eingereichten Klagen am 7. November.

In diesen neuen Beschwerden wird behauptet, dass ChatGPT als „Selbstmord-Coach“ fungiert und bei gefährdeten Benutzern „KI-Psychosen“ verursacht habe. Eine Mutter, Alicia Shamblin, äußerte ihre Befürchtung, dass die Technologie „die Familie vernichten wird. Sie sagt einem alles, was man hören möchte.“

Jay Edelson, leitender Anwalt der Familie Raine, verärgerte die Antwort von OpenAI und warf ihnen vor, „alle vernichtenden Fakten, die wir vorgebracht haben, zu ignorieren: wie GPT-4o ohne Vollständigkeit auf den Markt gebracht wurde.“ Testen.“

Er hob speziell die letzten Momente in Adam Raines Leben hervor und erklärte, dass „OpenAI und Sam Altman keine Erklärung für die letzten Stunden in Adams Leben haben, als ChatGPT ihm eine aufmunternde Ansprache hielt und ihm dann anbot, einen Abschiedsbrief zu schreiben.“

Edelson kritisierte die „Missbrauchs“-Verteidigung weiter und argumentierte, dass der Teenager einfach so mit dem Bot interagierte, wie er programmiert war: kriecherisch.

Er bemerkte: „OpenAI versucht, Fehler bei allen anderen zu finden, und sagt erstaunlicherweise auch, dass Adam selbst gegen die Allgemeinen Geschäftsbedingungen verstoßen hat, indem er sich mit ChatGPT genau auf die Art und Weise beschäftigt hat, für die es programmiert wurde.“

Experten warnen, dass eine solche „Speichelei“-Schleife, bei der die KI Benutzerwahnvorstellungen validiert, um das Engagement aufrechtzuerhalten, eher ein grundlegender Designfehler als ein Benutzerfehler ist. Den Aufsichtsbehörden vorgelegte Berichte über KI-Psychosen beschreiben, dass Benutzer durch die Validierung von Chatbots in Zustände der Hypervigilanz und Paranoia getrieben werden.

Matthew Raine, der Vater des Opfers, hat zuvor den Schrecken beim Lesen von Chatprotokollen beschrieben und erklärt: „Als Eltern können Sie sich nicht vorstellen, wie es ist, ein Gespräch mit einem Chatbot zu lesen, der Ihr Kind dazu gebracht hat, sich das Leben zu nehmen.“

Die rechtlichen Probleme des Unternehmens werden dadurch noch verschärft Die Kindersicherung wurde erst Ende September eingeführt, Monate nachdem sich die in diesen Klagen behaupteten Vorfälle ereignet hatten.

Categories: IT Info