Meta steht vor einer neuen Rückschläge für Privatsphäre gegenüber einer neuen Facebook-Funktion mit KI-betrieben, die die gesamten Telefonkamera-Rollen der Benutzer analysiert, um „personalisierte kreative Ideen“ zu generieren. Das Tool, das jetzt in den USA und Kanada getestet wurde, hat Alarm ausgelöst. Viele Benutzer behaupten, es sei ohne ihre ausdrückliche Zustimmung aktiviert worden. Der Vorfall ist der jüngste in einer Reihe von Datenschutzskandalen und rechtlichen Niederlagen, die die Kerndatenerdatenpraktiken des Unternehmens unter intensive globale Prüfung gestellt haben. Gerät. Der angegebene Zweck ist es, Daten, Objekte und Personen zu scannen, um gemeinsam genutzbare Inhalte wie thematische Alben und Reisehighlights vorzuschlagen. Bezeichnenderweise ist es in Illinois und Texas nicht verfügbar, ein Schritt, der als Vorsichtsmaßnahme gegen Verstoß gegen die strengeren biometrischen und Datenschutzgesetze dieser Staaten angesehen wird. Diese geografische Einschränkung selbst deutet auf ein Bewusstsein für die gesetzlichen Risiken hin. Meta behauptet offiziell, dass die Funktion streng Opt-In und standardmäßig nicht aktiviert ist. Das Unternehmen behauptet, dass Benutzer ein Pop-up präsentiert werden, bei dem sie vor Beginn einer Verarbeitung zustimmen müssen. Viele Personen haben berichtet, dass die bereits in ihren Facebook-App-Einstellungen aktivierten Umschaltungen der Funktionen erfasst haben, obwohl sie keine Erlaubnis erteilt haben. Der Sicherheitsexperte Rachel Tobac hob die Gefahr dieser Unterbrechung hervor und erklärte:”Wenn die Erwartungen eines Benutzers darüber, wie ein Tool funktioniert, nicht mit der Realität übereinstimmt, haben Sie sich ein großes Benutzererlebnis und Sicherheitsproblem.”Die Situation schafft ein erhebliches Datenschutzrisiko für Benutzer, die möglicherweise nicht wissen, dass ihre gesamte Fotobibliothek verarbeitet wird. Die KI-Nutzungsbedingungen von Meta, die am 1. Juli 2025 aktualisiert wurden, geben dem Unternehmen eine breite Lizenz zur Analyse von tiefen persönlichen Inhalten. In der Richtlinie heißt es: „Sobald Sie geteilt wurden, stimmen Sie zu, dass Meta diese Bilder, einschließlich Gesichtsmerkmale, mit AI analysiert. Die Begriffe enthalten auch eine starke Warnung, die der Art der Funktion zu widersprechen scheint, und die Benutzer beraten, “Teilen Sie Informationen, die Sie nicht mit dem AS-Abzocken verwenden möchten.”Wenn ein Benutzer die Funktion später findet und deaktiviert, werden seine hochgeladenen Fotos nach einem Zeitraum von 30 Tagen angeblich gelöscht. Dennoch bleibt der Mangel an klarer, im Voraus kontrollierter Kontrolle ein wichtiger Streitpunkt für Privatsphäre. Es spiegelt das Design der eigenständigen Meta-AI-App wider, die mit einer”Speicher”-Funktion auf den Markt gebracht wurde, die standardmäßig Chat-Historien behält, um Antworten zu personalisieren und seine Modelle zu trainieren. Ben Winters von der Verbraucherveration von Amerika sagte über die Datenschutzeinstellungen der KI-App:”Die Offenlegungen und die Auswahl der Verbraucher in Bezug auf Datenschutzeinstellungen sind lächerlich schlecht.”Dieses Gefühl erfasst die wachsende Frustration über den Ansatz von Meta, wodurch der Benutzer häufig die Last des Datenschutzschutzes vollständig belastet. Im Juni 2025 wurde festgestellt, dass der „Discover“-Feed der Meta-AI-App öffentlich sensible und private Benutzer-Chats aufdeckt, anscheinend ohne ihre volle Bewusstsein oder ihre Einverständniserklärung. Im September 2024 gab Meta zu einer Anfrage des Senats zu, dass es öffentliche Daten von australischen Facebook-Nutzern für KI-Schulungen verwendete, ohne den in Europa und den USA angebotenen Opt-out-Mechanismus bereitzustellen. Dieser Ansatz hat sich auch als gesetzlich gefährlich für den Tech-Riese erwiesen und ihn vor Gericht erheblichen finanziellen und reputativen Schäden ausgesetzt.

In einem wegweisenden Urteil Anfang August 2025 fand eine Bundesjury Meta, die für illegal sammelnde sensible Gesundheitsdaten von Nutzern der Flo-Period-Tracking-App-Tacking-App-Tacking-Probe-TROSGE-Probierung verantwortlich waren. Anwälte sagten:”Dieses Urteil sendet eine klare Nachricht über den Schutz digitaler Gesundheitsdaten und die Verantwortung der Big Tech.”Das Urteil setzte einen leistungsstarken Präzedenzfall fest, in dem Datenerfassungsinstrumente von Drittanbietern als potenzielle Form illegaler digitaler Abhören gestellt wurden. Ein deutsches Gericht hat im Juli Meta angewiesen, einem Benutzer einen Schadenersatz von 5.000 € für illegale Datenverfolgung zu zahlen, und stellte fest, dass der bloße „Kontrollverlust“ über personenbezogene Daten einen kompensierbaren Schaden im Rahmen der GDPR darstellt. Wie Justin Brookman von Consumer Reports argumentierte, kann sich die Beziehung von Natur aus qualifiziert fühlen:”Die Idee eines Agenten ist, dass sie in meinem Namen funktioniert-nicht darin, mich im Namen anderer zu manipulieren.”Die Kamera-Roll-Kontroverse ist einfach die neueste Front in diesem laufenden Kampf.