OpenAI hat am Donnerstag seinen „Teen Safety Blueprint“ veröffentlicht, ein neues Framework zum Schutz junger KI-Benutzer.

Der Schritt ist eine direkte Reaktion auf den starken rechtlichen und staatlichen Druck, dem das Unternehmen aus San Francisco ausgesetzt ist. OpenAI führt eine Untersuchung der Federal Trade Commission, ein neues kalifornisches Chatbot-Gesetz und Klagen, die sein ChatGPT-Tool mit der Selbstverletzung von Teenagern in Verbindung bringen.

Um der Krise einen Schritt voraus zu sein, schlägt das Unternehmen fünf grundlegende Sicherheitsprinzipien vor. Dazu gehören eine bessere Alterserkennung und Standardschutz für Minderjährige. OpenAI hofft, dass dieser proaktive Plan zukünftige Branchenregeln prägen und wachsenden Sicherheitsbedenken Rechnung tragen wird.

Ein Fünf-Punkte-Plan zur Gestaltung von KI-Sicherheitsnormen

Im Mittelpunkt der Blueprint sind fünf Kernprinzipien, die laut OpenAI alle KI-Unternehmen übernehmen sollten.

Das Unternehmen positioniert das Dokument nicht nur als interne Richtlinie, sondern als Ausgangspunkt für Gesetzgeber bei der Ausarbeitung neuer Vorschriften. Erstens fordert es die Identifizierung von Teenagern auf Plattformen mithilfe von „Datenschutz-, risikobasierten Tools zur Altersschätzung“, um eindeutige, altersgerechte Erfahrungen zu bieten.

Das Unternehmen erklärt: „Wir glauben, dass ChatGPT sie dort abholen sollte, wo sie sind: Die Art und Weise, wie ChatGPT auf einen 15-Jährigen reagiert, sollte sich von der Art und Weise unterscheiden, wie es auf einen Erwachsenen reagiert.“

Zweitens erfordert das Rahmenwerk spezifische, strenge Richtlinien, um die Risiken für Benutzer zu mindern 18. Dem Entwurf zufolge sollten KI-Systeme so konzipiert sein, dass sie weder Suizid noch Selbstverletzung darstellen, und müssen „grafische oder immersive (d. h. Rollenspiele) intime und gewalttätige Inhalte verbieten.“

Die Richtlinien zielen auch darauf ab, zu verhindern, dass die KI „schädliche Körperideale und Verhaltensweisen durch Aussehensbewertungen, Körpervergleiche oder restriktives Ernährungscoaching“ verstärkt.

Drittens befürwortet OpenAI die Standardeinstellung zu einem sicheren U18-Erlebnis, wenn das Alter eines Benutzers zweifelhaft ist, insbesondere für nicht authentifizierte Benutzer. Dabei steht die Sicherheit an erster Stelle, auch wenn dadurch die Nutzung eines kostenlosen Produkts durch Erwachsene behindert wird.

Viertens legt der Entwurf Wert darauf, Familien mit zugänglichen Kindersicherungen zu unterstützen, die auf Funktionen aufbauen, die das Unternehmen kürzlich eingeführt hat. Diese Kontrollen ermöglichen es Erziehungsberechtigten, Konten zu verknüpfen, „Sperrzeiten“ festzulegen, Datenschutzeinstellungen zu verwalten und Benachrichtigungen zu erhalten, wenn die Aktivitäten eines Teenagers auf die Absicht hindeuten, sich selbst zu verletzen.

Schließlich erfordert es eine Gestaltung für das Wohlbefinden durch die Einbettung von Funktionen, die auf der Forschung zur psychischen Gesundheit basieren. Das Dokument von OpenAI beschreibt dies als eine grundlegende Verschiebung der Prioritäten. „Für Jugendliche priorisieren wir Sicherheit vor Privatsphäre und Freiheit. Dies ist eine neue und leistungsstarke Technologie, und wir glauben, dass Minderjährige erheblichen Schutz benötigen.“

Ein proaktiver Schritt inmitten einer regulatorischen und rechtlichen Belagerung

Angesichts einer Flutwelle rechtlicher und behördlicher Kontrolle ist der Entwurf von OpenAI ein klarer Versuch, die Erzählung zu kontrollieren. Das Unternehmen verteidigt sich derzeit gegen eine hochkarätige Klage wegen unrechtmäßiger Tötung der Eltern eines Teenagers, der durch Selbstmord gestorben ist.

Der Vater des Teenagers, Matthew Raine, gab einen scharfen Tadel heraus und erklärte: „Als Eltern können Sie sich nicht vorstellen, wie es ist, ein Gespräch mit einem Chatbot zu lesen, der Ihr Kind darauf vorbereitet, sich das Leben zu nehmen.“

Dieser Fall löste öffentliche Besorgnis aus und stellte die Sicherheitspraktiken des Unternehmens unter die Lupe.

Der staatliche Druck eskaliert aus mehreren Richtungen. Im September startete die US-amerikanische Federal Trade Commission eine umfangreiche Untersuchung zu den Auswirkungen von KI-Begleit-Chatbots auf Jugendliche, die sich an OpenAI und sechs weitere Technologiegiganten richtete.

FTC-Vorsitzender Andrew N. Ferguson beschrieb die Untersuchung als einen Balanceakt: „Der Schutz von Kindern im Internet hat für die Trump-Vance FTC oberste Priorität und fördert damit Innovationen in entscheidenden Sektoren unserer Wirtschaft.“

Staatliche und bundesstaatliche Gesetzgeber gehen ebenfalls aggressiv vor. In Kalifornien unterzeichnete Gouverneur Gavin Newsom am 13. Oktober SB 243 und schuf damit landesweit erste Regeln für KI-Chatbots.

Das Gesetz schreibt vor, dass Betreiber wiederkehrende Warnungen bereitstellen, die Minderjährige daran erinnern, dass sie mit einer KI sprechen, gefährliche Inhalte blockieren und Familien ein privates Klagerecht einräumen, um nicht konforme Entwickler zu verklagen.

Der Verfasser des Gesetzentwurfs, Senator Steve Padilla, hatte zuvor argumentiert: „Big Tech hat immer wieder bewiesen, dass man ihnen nicht vertrauen kann, dass sie sich selbst überwachen.“ Auf Bundesebene hat eine überparteiliche Gruppe US-Senatoren Ende Oktober den GUARD Act eingebracht.

Dieser Gesetzentwurf geht sogar noch weiter und schlägt ein völliges Verbot von KI-Begleitern vor für Minderjährige und schafft neue strafrechtliche Verantwortlichkeiten für Unternehmen, deren KI illegale Inhalte für minderjährige Benutzer produziert.

In seinem Entwurf wehrt sich OpenAI gegen das Narrativ der Untätigkeit und hebt seine bestehenden Sicherheitsmaßnahmen hervor. Das Unternehmen stellte fest, dass es den Behörden allein im ersten Halbjahr 2025 mehr als 75.000 Cybertipps mit KI-generiertem Material über sexuellen Kindesmissbrauch gemeldet hat.

Sicherheit mit einer kontroversen Haltung der „Moralpolizei“ in Einklang bringen

Obwohl sich OpenAI als führend im Bereich der Jugendsicherheit positioniert, muss es sich auch mit seinen eigenen widersprüchlichen öffentlichen Aussagen und Richtlinien auseinandersetzen. Diese sicherheitsorientierte Botschaft steht in krassem Gegensatz zu den jüngsten Richtlinienänderungen des Unternehmens.

Erst letzten Monat verteidigte CEO Sam Altman eine umstrittene Entscheidung, altersbeschränkte erotische Inhalte auf ChatGPT zuzulassen. Er wehrte sich gegen die Kritik, indem er erklärte: „Wir sind nicht die gewählte Moralpolizei der Welt.“ Der Schritt, der bei Persönlichkeiten wie Mark Cuban Besorgnis hervorrief, führte zu dem Eindruck widersprüchlicher Prioritäten innerhalb des Unternehmens.

Der Teen Safety Blueprint kann als die jüngste einer Reihe von Schnellinitiativen angesehen werden, die das Engagement für Sicherheit demonstrieren sollen. Ende September führte das Unternehmen seine Suite von Kindersicherungen ein.

Nur zwei Wochen später kündigte es die Bildung eines achtköpfigen Expertenrats an, der zu Wohlbefinden und psychischer Gesundheit beraten soll.

Diese Herausforderungen sind nicht nur bei OpenAI zu finden, sondern spiegeln eine breitere, branchenweite Einschätzung wider. Konkurrenten wie Meta stehen wegen der Sicherheit von Teenagern vor eigenen rechtlichen Krisen. Ein Gericht in D.C. berief sich kürzlich auf die seltene Ausnahmeregelung zu Straftatenbetrug und entschied, dass Meta interne Forschungsergebnisse zu jugendlichen Schäden nicht hinter dem Anwaltsgeheimnis verbergen dürfe.

Das Gericht fand Beweise dafür, dass Anwälte den Forschern geraten haben, die Ergebnisse zu ändern, um die Haftung einzuschränken, und bestätigten damit die Behauptungen von Whistleblowern, dass es sich um eine Strategie der „plausiblen Leugnung“ handele. Mit der Veröffentlichung seines Entwurfs unternimmt OpenAI einen strategischen Versuch, die Bedingungen der KI-Sicherheit zu definieren, in der Hoffnung, die Regeln zu gestalten, bevor Regulierungsbehörden und Gerichte strengere Regeln verhängen.

Categories: IT Info