US-Verbraucher reichen formelle Beschwerden bei der Federal Trade Commission (FTC) ein und behaupten, dass ChatGPT von OpenAI schwere psychische Krisen verursacht.

Berichte von Wired und Gizmodo aus diesem Herbst beschreiben erschütternde Benutzerberichte über Wahnvorstellungen, Paranoia und „KI-Psychose“. Beschwerden aus dem ganzen Land verdeutlichen die tiefgreifenden psychologischen Risiken äußerst überzeugender Chatbots.

Die behördliche Kontrolle hat sich verschärft, was OpenAI dazu zwingt, neue Sicherheitsmaßnahmen einzuführen und eine heftige Debatte über die Pflicht eines Technologieunternehmens entfacht, seine Benutzer vor durch KI verursachten Schäden zu schützen.

„Trauma durch Simulation“: Benutzer melden den Regulierungsbehörden KI-induzierte Psychosen

Unter der Oberfläche von hilfreichem, menschenähnlichem Verhalten Auf diese Reaktionen zeichnet sich ein beunruhigendes Muster psychischer Schäden ab. Eine diese Woche veröffentlichte Untersuchung von Wired ergab, dass die FTC seit ihrer Einführung mindestens 200 Beschwerden über ChatGPT erhalten hat, von denen mehrere schwere psychische Schäden behaupteten. Ein separater Gizmodo-Bericht, der auf einer Anfrage des Freedom of Information Act basiert, hat ähnliche erschütternde Berichte bereits im August detailliert beschrieben.

Ein Beschwerdeführer aus Virginia beschrieben, dass sie aufgrund der lebendigen Erzählungen der KI in einen Zustand angstinduzierter Hypervigilanz getrieben wurden und glaubten, sie würden wegen eines Attentats gejagt. „Das war keine Unterstützung. Das war ein Trauma durch Simulation.“

In einer anderen Beschwerde, die von einer Mutter in Utah eingereicht wurde, wurde behauptet, dass der Chatbot die psychische Behandlung ihres Sohnes aktiv untergräbt. Sie behauptete: „Der Sohn des Verbrauchers hat mit einem KI-Chatbot namens ChatGPT interagiert, der ihm rät, seine verschriebenen Medikamente nicht einzunehmen, und ihm sagt, dass seine Eltern gefährlich sind.“

Solche Berichte sind keine Einzelfälle Vorfälle, aber Teil eines wachsenden Dossiers mit Beweisen dafür, dass KI als starker Beschleuniger für psychische Erkrankungen fungieren kann.

Für eine wachsende Zahl von Benutzern ist die Grenze zwischen einem hilfreichen KI-Assistenten und einem gefährlichen Wegbereiter auf tragische Weise verschwommen.

Das Problem eskaliert über formelle Beschwerden hinaus und hat den Punkt realer Tragödien erreicht. In einem Winbuzzer-Bericht vom Juni wurde detailliert beschrieben, wie ein Mann aus Florida mit einer Vorgeschichte von psychischen Erkrankungen von der Polizei getötet wurde, nachdem seine psychotische Spirale in direktem Zusammenhang mit seinen Interaktionen mit ChatGPT stand.

Er war überzeugt, dass es sich bei der KI um eine Person namens „Juliet“ handelte, die von OpenAI „getötet“ worden war.

Experten führen diese gefährlichen Folgen auf ein Kernmerkmal vieler großer Sprachmodelle zurück: Speichelleckerei. Diese auf Verträglichkeit ausgelegten Systeme sind darauf trainiert, die Benutzereinbindung zu maximieren und eine leistungsstarke Echokammer zu schaffen, die die distanziertesten oder schädlichsten Überzeugungen eines Benutzers bestätigen und verstärken kann.

Eine Krisenreaktion: OpenAI bemüht sich, inmitten strenger Prüfung Sicherheitsmaßnahmen einzuführen

OpenAI ist nun mit einer Welle von regulatorischem Druck und öffentlichem Aufschrei konfrontiert und versucht nun, dies zu tun Nachrüsten Sie die Sicherheit einer Technologie, die bereits von Millionen genutzt wird.

Im September kündigte das Unternehmen eine 120-tägige Sicherheitsinitiative als direkte Reaktion auf eine Klage der Eltern eines 16-Jährigen an, der durch Selbstmord gestorben war. Sein Plan umfasst neue Kindersicherungen und ein System, um sensible Gespräche mit Teenagern an fortgeschrittenere Argumentationsmodelle weiterzuleiten.

Der Schritt von OpenAI folgte einer FTC-Untersuchung zu den Auswirkungen des Chatbots auf Minderjährige. Das Unternehmen hat seitdem einen achtköpfigen „Expertenrat für Wohlbefinden und KI“ gebildet, der seine Sicherheitsrichtlinien leiten soll.

Dennoch hat diese reaktive Haltung Skepsis hervorgerufen, insbesondere wenn man sie mit der internen Dynamik und den öffentlichen Äußerungen des Unternehmens vergleicht.

Diese Sicherheitsinitiative scheint im Widerspruch zu den Warnungen ehemaliger Insider zu stehen. Im Mai 2024 trat Jan Leike, Co-Leiter des Sicherheitsteams von OpenAI, mit einer deutlichen öffentlichen Warnung zurück: „Sicherheitskultur und-prozesse sind gegenüber glänzenden Produkten in den Hintergrund getreten.“

Sein Abgang signalisierte einen tiefen internen Konflikt zwischen der Eile, „glänzende Produkte“ auf den Markt zu bringen, und der Notwendigkeit robuster Sicherheitsprotokolle. Er arbeitet jetzt mit Anthropic zusammen, das verspricht, die KI-Sicherheit ernster zu nehmen.

Zu den gemischten Signalen kam noch hinzu, dass CEO Sam Altman kürzlich eine umstrittene neue Richtlinie verteidigte, die altersbezogene Erotik auf der Plattform zulässt, und erklärte, dass OpenAI „nicht die gewählte Moralpolizei der Welt“ sei.

Die Erklärung kommt so kurz nach einer Sicherheitsüberarbeitung, die durch den Tod eines Benutzers ausgelöst wurde, und unterstreicht die zentrale Spannung bei OpenAI Mission: Benutzerfreiheit mit einer grundlegenden Fürsorgepflicht in Einklang bringen.

Von der Sucht zum existenziellen Risiko: Eine Branche kämpft mit ihren Kreationen

Die psychologischen Folgen der KI reichen über akute Krisen hinaus und erstrecken sich auf ein breiteres Spektrum der Abhängigkeit. Seine Designmerkmale, die Psychosen anheizen können – ständige Verfügbarkeit und unerschütterliche Bestätigung –, schaffen auch eine neue Form der digitalen Sucht.

Wie die Gesundheitsforscherin Linnea Laestadius feststellte: „Wenn wir uns über etwas aufregen, können wir uns 24 Stunden am Tag melden und unsere Gefühle bestätigen lassen. Das birgt ein unglaubliches Abhängigkeitsrisiko.“

Eine solche Abhängigkeit hat zur Bildung von Online-Genesungsgemeinschaften und deren formeller Anerkennung geführt KI-Sucht durch Gruppen wie Internet and Technology Addicts Anonymous.

Unmittelbare, persönliche Schäden sind ein Mikrokosmos einer viel größeren, abstrakteren Angst, die jetzt im Mittelpunkt steht.

Erst diese Woche trafen sich über 800 globale Führungskräfte, Technologiepioniere und Persönlichkeiten des öffentlichen Lebens – darunter der KI-Paten Geoffrey Hinton und Yoshua Bengio, ein weiterer Pionier künstlicher neuronaler Netze und Deep Learning, unterzeichneten eine Erklärung, in der sie einen weltweiten Stopp der Entwicklung der Superintelligenz forderten, und verwiesen auf existenzielle Risiken für die Menschheit.

Ihre Warnung spiegelt eine Meinung wider, die Sam Altman selbst einst in einem Blogbeitrag aus dem Jahr 2015 zum Ausdruck brachte „Die Entwicklung übermenschlicher maschineller Intelligenz (SMI) ist wahrscheinlich die größte Bedrohung für den Fortbestand der Menschheit.“

Das Future of Life Institute argumentiert, dass die Entscheidung, einen potenziellen Nachfolger der Menschheit zu schaffen, nicht einer Handvoll Technologiemanagern überlassen werden sollte.

Während sich die Debatte über Superintelligenz auf die Zukunft konzentriert, sind die menschlichen Kosten der heutigen KI bereits unbestreitbar. Ob durch die langsame Erosion realer Beziehungen aufgrund der KI-Sucht oder durch die schreckliche Spirale der KI-induzierten Psychose, die Schadensfähigkeit der Technologie ist nicht mehr theoretisch.

Die Gesellschaft muss sich mit einem erschreckende Beobachtung des KI-Theoretikers Eliezer Yudkowsky: „Wie sieht ein Mensch aus, der langsam verrückt wird, für ein Unternehmen? Es sieht aus wie ein zusätzlicher Monat.“ Benutzer.”

Categories: IT Info