Un gruppo di meta dipendenti attuali ed ex ha accusato la società di sopprimere sistematicamente le proprie ricerche sui rischi per la sicurezza dei bambini sulle sue piattaforme di realtà virtuale, secondo documenti divulgati al Congresso degli Stati Uniti l’8 settembre .
Gli informatori, rappresentati dall’aiuto legale per gli informatori senza scopo di lucro, sostengono che il team legale di Meta ha attivamente vetizzato, curato e sepolti risultati sensibili. Sostengono che questa era una strategia deliberata per creare”plausibile denabilità”contro potenziali cause legali e azioni normative.
Questa presunta strategia è iniziata dopo le perdite di Frances Haugen del 2021 e contraddice direttamente gli impegni di sicurezza pubblica dal CEO Mark Zuckerberg. Meta ha negato con veemenza le affermazioni, definendole una cattura errata dei suoi sforzi per condurre ricerche di alta qualità, rispettando le leggi globali sulla privacy.
Le divulgazioni dipingono un quadro di una società le cui dichiarazioni pubbliche sulla sicurezza sono in contrasto con le sue presunte pratiche interne.
Nell’ottobre 2021, in seguito alle rivelazioni di Haugen, a scutrare in modo da evitare di fare la ricerca di una cosa, in seguito a evitare di fare la ricerca di una cosa, in seguito a evitare la ricerca di scudori per evitare di fare la ricerca di una scutro per evitare di fare la ricerca di scudori per evitare di fare la ricerca di scudori per evitare di fare la ricerca di una scutro per evitare di fare la ricerca di scudori per evitare di fare la ricerca di una scutro per evitare di fare la ricerca di scudo.
Tuttavia, solo sei settimane dopo, gli avvocati dell’azienda hanno consigliato ai ricercatori di Reality Labs di”mitigare il rischio”di studi sensibili conducendoli sotto il privilegio degli avvocati. Questo scudo legale impedisce alle comunicazioni di essere rilevabili in cause, murando efficacemente i risultati. Gli avvisi interni non sono nuovi. Un post sui messaggi dei dipendenti già nel 2017 ha dichiarato senza mezzi termini:”Abbiamo un problema per bambini ed è probabilmente il momento di parlarne”, stimando che fino al 90% degli utenti in alcune stanze VR fosse minorenne. Questa consapevolezza di vecchia data rende la successiva presunta soppressione più significativa. I dipendenti hanno fornito esempi specifici di questa presunta soppressione. In un caso di aprile 2023, secondo quanto riferito un manager ordinò la cancellazione di una registrazione in cui un adolescente tedesco sosteneva che suo fratello minore era stato proposto sessualmente più volte in VR. Meta countered that any such deletion would have been to ensure compliance with privacy laws like GDPR and COPPA, which govern data from minors. This defensive posture intensified after the Federal Trade Commission (FTC) sent Meta a legal demand in March 2022 regarding its Conformità COPPA per i prodotti VR . Ciò ha innescato un’iniziativa interna,”Project Salsa”, per creare due account per gli utenti di età compresa tra 10 e 12 anni, una mossa vista come reattiva piuttosto che proattiva. Le comunicazioni interne mostrano agli avvocati che consigliano al personale di riformulare domande di ricerca per”evitare una raccolta inutile di informazioni sensibili”come”esperienze negative o preoccupazioni per la sicurezza”. One official even suggested staff “avoid saying ‘kids’ like we know for sure they are kids — instead use ‘alleged Youth’ or ‘alleged minors with young sounding voices who may be underage'”when discussing underage users. The most direct evidence comes from a Meta lawyer who, in a message to a researcher, wrote, “in general, the context is that we should avoid collection of research data that indicates that there are U13s present in VR… due to preoccupazioni normative”. Questa direttiva sottolinea le affermazioni degli informatori secondo cui il rischio legale, non la sicurezza degli utenti, è diventato il principale motore della politica di ricerca. Meta ha respinto con forza. Un portavoce dell’azienda ha dichiarato:”Sosteniamo il lavoro eccellente del nostro team di ricerca e siamo sgomenti da queste caratterizzazioni errate degli sforzi del team”, sostenendo che la partnership legale è una procedura standard per garantire che la ricerca sia accurata e conforme alle normative sulla privacy globale. vuoto. È l’ultimo di una serie di crisi legali e pubbliche che sfidano le pratiche di sicurezza di Meta. Il comitato giudiziario del Senato ha già annunciato che terrà un’audizione in merito. La società ha recentemente dovuto revisionare le sue regole di chatbot dell’IA per gli adolescenti dopo che un rapporto dannoso ha rivelato che potrebbe aiutare gli utenti a pianificare il suicidio. Quel fallimento ha provocato un delegato per i bambini che ha spinto il fallimento per la coalizione dei bambini”. Il disprezzo della piattaforma per il benessere dei bambini in un lettera pubblica .
I problemi legali di Meta si estendono oltre le proprie piattaforme. In un verdetto di riferimento nell’agosto 2025, una giuria federale ha ritenuto la società responsabile per la raccolta illegale di dati sanitari dagli utenti dell’app di tracciamento del periodo FLO attraverso il suo kit di sviluppo software incorporato (SDK). href=”https://www.americanbar.org/groups/business_law/resources/business-law-today/2024-august/californias-invasion-privacy-act” target=”_blank”>California Invasion of Privacy Act, Una strategia deliberata di”negabilità plausibile”
Questi eventi, dalla ricerca VR, ai chatbot AI e alla raccolta dei dati di terze parti, dipingono un quadro di una società aggressiva e il modello di business aggressivo e centricali sono sempre più in cronometri con la scrutabilità pubblica per la responsabilità.