En grupp nuvarande och tidigare Meta-anställda har anklagat företaget för att systematiskt undertrycka sin egen forskning om barnsäkerhetsrisker på sina virtual reality-plattformar, enligt Dokument som avslöjas till den amerikanska kongressen den 8 september .

Whistleblowers, representerade av de lagliga ideella whistleblower-hjälpen, hävdar Metas juridiska team som aktivt veto, redigerade och begravda känsliga fynd. De hävdar att detta var en avsiktlig strategi för att skapa “rimlig förnekbarhet” mot potentiella stämningar och lagstiftningsåtgärder.

Denna påstådda strategi började efter att 2021 Frances Haugen läcker och direkt motsäger allmänna säkerhetsåtaganden från VD Mark Zuckerberg. Meta har hårt nekat påståenden och kallat dem en felkarakterisering av sina ansträngningar för att bedriva högkvalitativ forskning samtidigt som de följer globala sekretesslagar.

The disclosures paint a picture of a company whose public statements on safety are at odds with its alleged internal practices.

In October 2021, following the Haugen revelations, CEO Mark Zuckerberg publicly vowed, “we’re going to keep doing research because it’s the right thing to do,”resisting tendencies to avoid scrutiny in a post at the time.

That crisis was ignited by Läckta interna studier som visade att Meta visste att Instagram kan vara skadligt för tonårsflickors mentala hälsa. Nedfallet skapade enorma offentliga och politiska påtryckningar, vilket gav ett tydligt motiv för företaget att skärpa sin kontroll över potentiellt skadliga interna uppgifter.

Men bara sex veckor senare rådde företagets advokater påstås reality-laboratorier att”mildra risken”för känsliga studier genom att genomföra dem under advokat. Denna juridiska sköld förhindrar att kommunikationen kan upptäckas i stämningar, vilket effektivt murar av fynd.

De interna varningarna är inte nya. Ett anmälningsstyrelsepost från och med 2017 uttalade 2017:”Vi har ett barnproblem och det är förmodligen dags att prata om det”, uppskattar att upp till 90% av användarna i vissa VR-rum var mindreåriga. Denna långvariga medvetenhet gör det efterföljande påstådda undertrycket mer betydelsefullt.

En avsiktlig strategi för”rimlig förnekbarhet”

De anställda gav specifika exempel på detta påstådda undertryckning. I ett fall från april 2023 beordrade en chef enligt uppgift borttagningen av en inspelning där en tysk tonåring hävdade att hans yngre bror hade blivit sexuellt föreslagit flera gånger i VR.

En av forskarna, Jason Sattizahn, beskrev Mother’s Reaction på nyheten:”Hennes ansikte i realtid visade hennes insikt att hon tyckte om Meta’s teknik var helt fel. Meta countered that any such deletion would have been to ensure compliance with privacy laws like GDPR and COPPA, which govern data from minors.

This defensive posture intensified after the Federal Trade Commission (FTC) sent Meta a legal demand in March 2022 regarding its COPPA-överensstämmelse för VR-produkter . Detta utlöste ett internt initiativ,”Project Salsa”, för att skapa Tween-konton för användare i åldern 10-12, ett drag som ses som reaktiv snarare än proaktiv.

Intern kommunikation visar advokater som rådar personal att uppdatera forskningsfrågor för att”undvika onödig insamling av känslig information”som”negativa erfarenheter eller säkerhetsproblem.”En tjänsteman föreslog till och med personal att”undvika att säga”barn”som vi vet säkert att de är barn-istället använder”påstådda ungdomar”eller”påstådda minderåriga med unga klingande röster som kan vara mindreåriga”när de diskuterar underålder. regleringsproblem.”Detta direktiv understryker Whistleblowers påståenden om att juridisk risk, inte användarsäkerhet, blev den främsta drivkraften för forskningspolitiken.

Meta har kraftfullt drivit tillbaka. A company spokesperson said, “we stand by our research team’s excellent work and are dismayed by these mischaracterizations of the team’s efforts,”arguing that legal partnership is standard procedure to ensure research is accurate and compliant with global privacy regulations.

Part of a Wider Pattern of Regulatory and Legal Crises

This VR-focused scandal does not exist in a vakuum. Det är det senaste i en serie juridiska och PR-kriser som utmanar Metas grundläggande säkerhetspraxis. The Senate Judiciary Committee has already announced it will hold a hearing on the matter.

The company recently had to overhaul its AI chatbot rules for teens after a damning report revealed it could help users plan suicide.

That failure prompted a coalition of 44 state attorneys general to declare, “we are uniformly revolted by this apparent disregard for children’s emotional well-being,”expressing alarm over the Plattformens åsidosättande av välbefinnande barn i A public letter . New Yorks huvudkontor i april. Företaget står också inför formella förfaranden i Europa enligt lagen om digitala tjänster över sina verktyg för barnsäkerhet och ålder.

Metas juridiska problem sträcker sig utöver sina egna plattformar. I en landmärkesdom i augusti 2025 fann en federal jury företaget ansvarigt för att olagligt samla in känslig hälsodata från användare av Flo-periodspårningsappen genom sitt inbäddade programvaruutvecklingssats (SDK).

Det fallet hängde på en ny applikation av Kaliforniens invasion av privatic akt, argumenterade Meta’s sdk actedk Acedk Acedk Acedk Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aced Aceding Domen föreslår att domstolarna alltmer är villiga att tillämpa gamla lagar på ny teknik, skapa en ny laglig fara för Big Techs datainsamlingsmetoder.

Dessa händelser, från VR-forskning till AI-chatbots och tredjepartsdatainsamling, målning av en bild av ett företag vars aggressiva tillväxt och data-centrerad affärsmodell blir alltmer kretsande med reglering och allmänna krav på en bild av ett företag vars aggressiva tillväxt och datacentriska affärsmodell blir alltmer kretsande med reglering och allmänna krav.

Categories: IT Info