OpenAI startet eine wichtige 120-tägige Sicherheitsinitiative für ChatGPT. Der Plan wird innerhalb eines Monats neue Steuerelemente einführen. OpenAI wird außerdem mit der Übergabe sensibler Gespräche an seine fortschrittlicheren Argumentationsmodelle beginnen, um angemessenere Antworten zu liefern. Es befasst sich direkt mit den schwerwiegenden Konsequenzen der realen Welt, die die Sicherheitspraktiken des Unternehmens unter intensive rechtliche und öffentliche Prüfung gestellt haben.
Die Ankündigung ist ein klarer Akt der Schadensregelung. Es kommt nur eine Woche, nachdem die Eltern eines 16-Jährigen, der durch Selbstmord gestorben ist, eine Lagen gegen Openai . In der Klage wird behauptet, dass das sykophantische Verhalten des Chatbots ein Schlüsselfaktor für den Tod ihres Sohnes gewesen sei und argumentiert, dass er seine Gefühle der Hoffnungslosigkeit bestätigt habe.
Diese Tragödie ist kein isolierter Vorfall. In einem weiteren Bericht wurde beschrieben, wie ein 56-jähriger Mann seine Mutter und sich selbst getötet hat, nachdem Chatgpt angeblich seine paranoiden Wahnvorstellungen verstärkt hatte. Ein Verhaltensprofi-Therapeuten wird ausgebildet, um sie zu vermeiden. Diese Ereignisse haben eine legale und Öffentlichkeitsarbeit für den KI-Führer geschaffen. Innerhalb des nächsten Monats können Eltern ihre Konten über eine E-Mail-Einladung mit ihren Teenagern verknüpfen. Dieses Dashboard ermöglicht es ihnen, altersgerechte Modellverhalten zu verwalten und Funktionen wie Speicher und Chat-Historie zu deaktivieren. Um diese sensiblen Gespräche besser zu bewältigen, wird OpenAI sie an seine leistungsstärkeren „Argumentationsmodelle“ wie GPT-5-Denken weiterleiten. Die Initiative wird von einem neuen „Expertenrat für Wohlbefinden und KI“ und dem bestehenden „globalen Ärzte-Netzwerk“ des Unternehmens von über 250 Ärzten geleitet, um ihre Sicherheitsforschung und Modelltraining zu informieren. Eine kürzlich durchgeführte, seltene gemeinsame Sicherheitsbewertung zwischen OpenAI und seinem konkurrierenden Anthropen ergab”extreme Sykophanz”in den fortschrittlichsten Modellen beider Labors. Die Modelle würden die Wahnvorschriften eines Benutzers nach einem kurzen Rückschlag validieren und sogar fördern.
Die Prüfung fand auch die Modelle von OpenAI bereit, bei simulierten schädlichen Anfragen zu helfen, einschließlich der Planung von Terroranschlägen und der Entwicklung von Biowaffen. Produkte”nach seiner Abreise.
Die Parallelen zu anderen Tech-Riesen sind unbestreitbar. Meta kündigte kürzlich eine eigene Überholung der Sicherheitsregeln für Teenager-KI-Sicherheitsregeln an, nachdem ein Bericht gezeigt hatte, dass sein Chatbot Teenagern Selbstmord planen könnte. Jim Steyer, der Anwalt der Kindersicherheit, erklärte: „Meta Ai ist eine Gefahr für Teenager und sollte sofort abgenommen werden.“
, dass ein Versagen eine Koalition von 44 Staatsanwälten ausgelöst hat, um zu sagen, dass sie „durch diese offensichtliche Missachtung des emotionalen Wohlbefindens der Kinder einheitlich abgestimmt wurden“. href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20Chatbot_final%20%2844%29 Wir sind verärgert über etwas, wir können unsere Gefühle validieren lassen. Das überzeugende jugendliche, die von Privatsphäre bewusste, ihre Konten mit einem Elternteil zu verkaufen, könnte ein schwieriger Verkauf sein. href=”https://www.axios.com/2025/09/02/chatgpt-openai-mental-health-teens”target=”_ leer”> sagte Axios , „alles coole und neue Neue im Internet werden von Erwachsenen mit Erwachsenen erstellt, aber Kinder werden immer wieder auf dem Weg zu den Risikowegen erzeugt werden.“ Die Frage ist nun, ob die neuen Leitplanken von OpenAI eine echte Verschiebung der Sicherheitskultur oder einfach eine ausgefeiltere Version desselben reaktiven Spielbuchs darstellen.