Eine Gruppe aktueller und ehemaliger Meta-Mitarbeiter hat dem Unternehmen vorgeworfen, seine eigenen Forschungen zu den Sicherheitsrisiken für Kinder systematisch auf seinen virtuellen Reality-Plattformen zu unterdrücken, so Dokumente, die am 8. September dem US-Kongress bekannt gegeben wurden. . Sie behaupten, dies sei eine bewusste Strategie zur Schaffung „plausible Verleugnung“ gegen potenzielle Klagen und behördliche Maßnahmen gewesen. Meta hat die Behauptungen vehement bestritten und sie als Fehlcharakterisierung seiner Bemühungen zur Durchführung hochwertiger Forschung bezeichnet und gleichzeitig die globalen Datenschutzgesetze einhalten. Anwalts-Klient-Privilegien. href=”https://www.facebook.com/zuck/posts/i-wanted-t-hare-a-note-i-wrote-to-everyone-at-oR-company-y-everyone-it-bee/10113961365418581/”target=”_-blank”nach.”Studien, die mit Meta wussten, dass Instagram für die psychische Gesundheit von Teenagern schädlich sein könnte. Der Ausfall führte immense öffentliche und politische Druck und lieferte ein klares Motiv für das Unternehmen, seine Kontrolle über potenziell schädliche interne Daten zu verschärfen. Dieser legale Schild verhindert, dass Kommunikation in Klagen entdeckbar ist und die Ergebnisse effektiv abmündet.
Die internen Warnungen sind nicht neu. Ein Mitarbeiter des Mitarbeiters Message Board aus bereits 2017 erklärte unverblümt:”Wir haben ein Kinderproblem und es ist wahrscheinlich Zeit, darüber zu sprechen”und schätzte, dass bis zu 90% der Benutzer in einigen VR-Räumen minderjährig waren. Dieses langjährige Bewusstsein macht die nachfolgende mutmaßliche Unterdrückung bedeutender. In einem Fall von April 2023 befahl ein Manager Berichten zufolge die Löschung einer Aufnahme, bei der ein deutscher Teenager behauptete, sein jüngerer Bruder sei in VR mehrmals sexuell vorgeschlagen worden. Meta konterte, dass eine solche Deletion darin bestand, die Einhaltung von Datenschutzgesetzen wie GDPR und Coppa sicherzustellen, die Daten von Minderjährigen regieren. target=”_ leer”> COPPA-Konformität für VR-Produkte . Dies löste eine interne Initiative aus, „Projektsalsa“, um Tween-Konten für Benutzer im Alter von 10 bis 12 Jahren zu erstellen, ein Schritt, der eher als reaktiv als proaktiv angesehen wird. Ein Beamter schlug sogar vor, dass Mitarbeiter „nicht„ Kinder “sagen, wie wir es sicher wissen, dass sie Kinder sind-stattdessen”mutmaßliche Jugendliche”oder”mutmaßliche Minderjährige mit jungen klingenden Stimmen”verwenden, die möglicherweise minderjährig sind. regulatorische Bedenken.”Diese Richtlinie unterstreicht die Behauptungen der Whistleblower, dass das rechtliche Risiko und nicht die Sicherheit der Benutzer die Haupttreiberin der Forschungsrichtlinie geworden sind. Ein Unternehmenssprecher sagte:”Wir stehen zur hervorragenden Arbeit unseres Forschungsteams und sind durch diese Fehlcharakterisierungen der Bemühungen des Teams bestürzt.”Vakuum. Es ist die neueste in einer Reihe von Rechts-und Öffentlichkeitsrelationen, die die Kernsicherheitspraktiken von Meta in Frage stellen. Das Justizkomitee des Senats hat bereits angekündigt, dass es eine Anhörung zu dieser Angelegenheit abhalten wird. Über die Missachtung der Plattform für das Wohlergehen des Kindes in einem