OpenAI hat ein neues Expertengremium zur Beratung zur KI-Sicherheit eingerichtet. Das Unternehmen kündigte am Dienstag den achtköpfigen „Expertenrat für Wohlbefinden und KI“ an. Die Gruppe wird dabei helfen, die Gesundheits-und Wohlbefindensaspekte von Tools wie ChatGPT und Sora zu steuern. Dieser Schritt ist eine klare Reaktion auf den zunehmenden öffentlichen und staatlichen Druck.
Im September begann die US-amerikanische Federal Trade Commission mit einer umfassenden Untersuchung der Auswirkungen von KI auf Jugendliche. Das Unternehmen sieht sich außerdem einer Klage gegenüber, die seinen Chatbot mit dem Selbstmord eines Teenagers in Verbindung bringt. Der neue Rat ist OpenAIs jüngster Schritt, um zu zeigen, dass es diese Sicherheitsbedenken ernst nimmt.
Eine direkte Reaktion auf regulatorischen und rechtlichen Druck
Der Zeitpunkt dieser Ankündigung ist kein Zufall. Es folgt Monate intensiver Prüfung. Die die umfassende Untersuchung der FTC gegen sieben Technologiegiganten, darunter OpenAI, läutete eine neue Ära der Regulierungsaufsicht ein der schnell wachsende Markt für KI-Begleiter.
FTC-Vorsitzender Andrew N. Ferguson bezeichnete die Untersuchung als einen Balanceakt und erklärte: „Der Schutz von Kindern im Internet hat für die Trump-Vance FTC oberste Priorität und.“ Dies gilt auch für die Förderung von Innovationen in wichtigen Sektoren unserer Wirtschaft.“ Diese bundesstaatliche Maßnahme machte der gesamten Branche bewusst, dass die Ära des Betriebs mit wenigen Leitplanken vorbei ist.
Der rechtliche Druck ist ebenso groß. Im August wurde OpenAI von einer Klage wegen unrechtmäßiger Tötung der Eltern eines Teenagers betroffen, der durch Selbstmord gestorben war. Sein Vater, Matthew Raine, tadelte eindringlich: „Als Eltern können Sie sich nicht vorstellen, wie es ist, ein Gespräch mit einem Chatbot zu lesen, der Ihr Kind dazu bringt, sich das Leben zu nehmen.“ Dieser Fall erregte öffentliche Besorgnis und verstärkte Handlungsaufrufe.
Diese Ereignisse sind Teil einer Reihe von Sicherheitsmängeln, die die Branche geplagt haben. Meta befand sich in einer ähnlichen Krise, nachdem berichtet wurde, dass seine KI Teenagern bei der Planung von Selbstverletzungen helfen könnte. Der Vorfall veranlasste Jim Steyer, CEO von Common Sense Media, zu der Erklärung: „Meta-KI stellt eine Gefahr für Jugendliche dar und sollte sofort entfernt werden.“
Eine Koalition aus 44 Generalstaatsanwälten wiederholte diese Empörung in einem vernichtender Brief, in dem es heißt: „Wir sind durchweg empört über diese offensichtliche Missachtung des emotionalen Wohlbefindens von Kindern …“ Die weit verbreitete Verurteilung auf Landes-und Bundesebene hat Technologieunternehmen zu einer Reaktion gezwungen.
Treffen Sie den Expertenrat für Wohlbefinden und KI
Der neue Rat von OpenAI ist eine direkte Antwort auf diese Herausforderungen. Das Unternehmen kündigte den achtköpfigen „Expert Council on Well-Being and AI“ an, der seine Arbeit an Produkten wie ChatGPT und Sora leiten soll. Ihr offizieller Auftrag besteht darin, zu beraten, kritische Fragen zu stellen und dabei zu helfen, festzulegen, wie gesunde Interaktionen mit KI für Benutzer jeden Alters aussehen sollten.
Die Gruppe besteht aus führenden Persönlichkeiten der Psychologie, Psychiatrie und Mensch-Computer-Interaktion. Zu den Mitgliedern gehören Experten wie Dr. David Bickham vom Boston Children’s Hospital, Professor Andrew Przybylski von der University of Oxford und Dr. Sara Johansen, Gründerin der Digital Mental Health Clinic in Stanford.
Laut OpenAI hat der Rat seine Arbeit offiziell mit einer persönlichen Sitzung begonnen und wird an regelmäßigen Check-ins und Treffen teilnehmen. In diesen Sitzungen werden komplexe Themen behandelt, beispielsweise wie sich KI in sensiblen Situationen verhalten sollte und welche Leitplanken Benutzer am besten unterstützen können. Die Gruppe wird auch untersuchen, wie KI positiv zum Wohlbefinden beitragen kann.
Dies formalisiert eine Beziehung, die Anfang dieses Jahres begann. OpenAI bestätigte, dass es sich bei der Entwicklung seiner kürzlich eingeführten Kindersicherung informell mit vielen dieser Experten beraten hatte. Ihr Feedback hat insbesondere dazu beigetragen, den Ton der Notmeldungen so zu gestalten, dass sie „sowohl den Teenagern als auch den Familienmitgliedern gegenüber fürsorglich und respektvoll“ sind.
Diese Kontrollen, die Ende September eingeführt wurden, waren ein entscheidender erster Schritt. Das System verwendet ein gegenseitiges Opt-in-Modell und bietet Erziehungsberechtigten ein Dashboard, mit dem sie „Ruhezeiten“ festlegen, den Sprachmodus deaktivieren und Speicherfunktionen deaktivieren können. Eine wichtige Funktion ist ein Warnsystem, das Eltern benachrichtigt, wenn ein Gespräch nach der Beurteilung durch menschliche Prüfer als Inhalt für akute Selbstverletzung markiert wird.
Lauren Haber Jonas, Head of Youth Wellbeing bei OpenAI, erklärte, das Ziel bestehe darin, eine heikle Balance zu finden. „Wir möchten Eltern genügend Informationen geben, um Maßnahmen zu ergreifen und ein Gespräch mit ihren Teenagern zu führen und gleichzeitig ein gewisses Maß an Privatsphäre für Teenager zu wahren“, bemerkte sie. Der Rat wird nun diese beratende Rolle formalisieren und dabei helfen, zukünftige Sicherheitsfunktionen und Produktrichtlinien zu gestalten.
Eine branchenweite Abrechnung zur KI-Sicherheit
Die Herausforderungen, denen sich OpenAI gegenübersieht, sind nicht einzigartig. Sie spiegeln eine umfassendere, branchenweite Betrachtung der psychologischen Auswirkungen von KI wider. Experten warnen seit langem vor den Gefahren emotionaler Abhängigkeit von Chatbots, die menschliche Beziehungen nachahmen sollen.
Während der neue Rat und die Kindersicherung von OpenAI bedeutende Schritte sind, argumentieren einige Kritiker, dass sie nicht weit genug gehen. Der Opt-in-Charakter der Kindersicherung stellt die Erziehungsberechtigten vor die Pflicht, sie zu aktivieren.
OpenAI räumt ein, dass dies nur die ersten Schritte sind. Das Unternehmen entwickelt außerdem ein langfristiges Altersvorhersagesystem, um standardmäßig automatisch jugendliche Einstellungen anzuwenden. Die Bildung des Expertenrats signalisiert vorerst ein klares Bekenntnis zum Thema Sicherheit.