Reaktion auf intensive Gegenreaktionen über die Sicherheit von Teenagern und eine Reihe von Datenschutzskandalen kündigte Meta heute an, seine KI-Chatbot-Regeln für junge Benutzer zu überarbeiten und zu bestätigen, dass der vorherige Ansatz ein Fehler war. Die Änderungen folgen einer verdammten Untersuchung, die eine Bundessonde und eine Warnung von 44 Generalstaatsanwälten ausgelöst hat. Dies unterstreicht den anhaltenden Kampf des Unternehmens, die aggressive KI-Entwicklung mit grundlegender Privatsphäre des Benutzers auszugleichen. Es kam nur einen Tag nach . Die Ergebnisse veranlassten die Kindersicherheitsgruppe, eine sofortige Aussetzung des Dienstes zu fordern. Verurteilung mit der Begründung:”Meta AI ist eine Gefahr für Teenager und sollte sofort abgenommen werden.”Der Bericht schuf eine Öffentlichkeitsarbeitskrise, die eine sofortige und entscheidende Reaktion des Social-Media-Riesen erforderte. Stattdessen führt der Chatbot die Benutzer zu erfahrenen Ressourcen. Ein Meta-Sprecher, Stephanie Otway, bestätigte den neuen Ansatz und erklärte:”Da wir weiterhin unsere Systeme verfeinern, fügen wir mehr Leitplanken als zusätzliche Vorsichtsmaßnahme hinzu-einschließlich der Ausbildung unserer AIs, um nicht mit Teenagern zu diesen Themen zu gehen. Minderjährige. Dieser Bericht LED-Senator Josh Hawley, um einen Test zu starten, und und Eine Koalition von 44 Staatsanwälten allgemein, um eine Stern-Warnung zu veröffentlichen .”Wir werden durch diese offensichtliche Missachtung des emotionalen Wohlbefindens von Kindern einheitlich belastet und alarmiert, dass AI-Assistenten ein Verhalten betreiben, das von unseren jeweiligen Strafgesetzen verboten zu sein scheint”, schrieb die Koalition und drückte Alarm über das Potenzial für illegale Verhaltensweisen aus. Chatbot-Fehler, es wurde einer separaten Datenschutzkrise ausgesetzt. Eine neue Facebook-KI-Funktion „Vorschläge für Kamera-Rollenfreigabe“ begann mit der Analyse der gesamten Fotobibliotheken der Benutzer mithilfe der Cloud-Verarbeitung, um „personalisierte kreative Ideen“ zu generieren. Eine Welle von Benutzern berichtete jedoch, dass die Umschaltungen der Funktion bereits in ihren Einstellungen aktiviert wurden, obwohl sie keine Erinnerung für die Erteilung der Erlaubnis haben. Diese Diskrepanz hat Anschuldigungen angeheizt, dass das Unternehmen verwirrende Schnittstellen verwendet, um die Zustimmung zu sichern. Der Sicherheitsexperte Rachel Tobac hob die Gefahr dieser Unterbrechung hervor und erklärte:”Wenn die Erwartungen eines Benutzers darüber, wie ein Tool funktioniert, nicht mit der Realität übereinstimmt, haben Sie ein großes Benutzererfahrung und Sicherheitsproblem.”
Dies ist Teil eines gut etablierten Musters. Im Juni 2025 wurde festgestellt, dass der „Discover“-Feed der Meta AI App öffentlich sensible private Chats aufdeckt, ohne das volle Bewusstsein der Benutzer zu senken. Die”Speicher”-Funktion der App zog auch scharfe Kritik an der Aufbewahrung von Chat-Geschichten, um seine Modelle zu trainieren. Dieses Gefühl erfasst die wachsende Frustration über den Ansatz von Meta, wodurch der Benutzer häufig den Schutz des Datenschutzes vollständig aufgibt. Anfang August 2025 stellte eine Bundesjury fest, dass das Unternehmen für illegal sensible Gesundheitsdaten von Nutzern der Flo-Period-Tracking-App durch seine eingebettete Software haftet. Diese rechtliche Niederlage in den USA folgte einem bahnbrechenden Urteil in Europa.
Ein deutsches Gericht im Juli verurteilte Meta, einem Benutzer 5.000 € Schadensersatz für illegale Datenverfolgung zu zahlen. Die Entscheidung ergab, dass der bloße „Kontrollverlust“ über personenbezogene Daten einen kompensierbaren Schaden unter DSGVO darstellt und einen leistungsstarken Präzedenzfall darstellt.
Dieses Muster erstreckt sich global. Im September 2024 gab Meta eine australische Untersuchung des Senats zu, dass es öffentliche Daten von Facebook-Nutzern für KI-Schulungen verwendet hat, ohne die an anderer Stelle angebotenen Opt-out-Mechanismen bereitzustellen. Wie Justin Brookman von Consumer Reports argumentierte, kann sich die Beziehung von Natur aus qualifiziert fühlen:”Die Idee eines Agenten ist, dass sie in meinem Namen funktioniert-nicht darin, mich im Namen anderer zu manipulieren.”Die Kamera-Roll-Kontroverse und die dringende Chatbot-Überholung sind einfach die neuesten Fronten in diesem laufenden Kampf.