Sekelompok karyawan saat ini dan mantan karyawan menuduh perusahaan secara sistematis menekan penelitiannya sendiri tentang risiko keselamatan anak pada platform realitas virtual, menurut Dokumen yang diungkapkan kepada Kongres A.S. pada 8 September .
The Whistleblowers, diwakili oleh bantuan whistleblower nirlaba hukum, menuduh tim hukum Meta secara aktif memveto, diedit, dan mengubur temuan sensitif. Mereka mengklaim ini adalah strategi yang disengaja untuk menciptakan”penyangkalan yang masuk akal”terhadap potensi tuntutan hukum dan tindakan peraturan.
Dugaan strategi ini dimulai setelah kebocoran Frances Haugen 2021 dan secara langsung bertentangan dengan komitmen keselamatan publik dari CEO Mark Zuckerberg. Meta telah dengan keras membantah klaim tersebut, menyebut mereka salah karakterisasi dari upayanya untuk melakukan penelitian berkualitas tinggi sambil mematuhi undang-undang privasi global.
Namun, hanya enam minggu kemudian, pengacara perusahaan yang diduga menyarankan para peneliti reality lab untuk”mengurangi risiko”studi sensitif dengan melakukan mereka di bawah hak istimewa pengacara-klien. Perisai hukum ini mencegah komunikasi dapat ditemukan dalam tuntutan hukum, secara efektif menutup temuan.
Peringatan internal bukanlah hal baru. Posting papan pesan karyawan dari awal 2017 dengan blak-blakan menyatakan,”Kami memiliki masalah anak dan mungkin sudah waktunya untuk membicarakannya,”memperkirakan bahwa hingga 90% pengguna di beberapa kamar VR di bawah umur. Kesadaran lama ini membuat dugaan penindasan berikutnya lebih signifikan.
strategi yang disengaja dari’penyangkalan yang masuk akal’
Karyawan memberikan contoh spesifik dari dugaan penindasan ini. Dalam satu contoh dari April 2023, seorang manajer yang dilaporkan memerintahkan penghapusan rekaman di mana seorang remaja Jerman mengklaim adiknya telah diusir secara seksual beberapa kali dalam vr.
Salah satu peneliti, Jason Sattizahn, menggambarkan reaksi ibu itu terhadap berita itu:”Wajahnya secara nyata menunjukkan realisasi bahwa apa yang menurutnya adalah bahwa dia pikir itu adalah kesalahan Meta. Meta membantah bahwa penghapusan semacam itu adalah untuk memastikan kepatuhan terhadap undang-undang privasi seperti GDPR dan COPPA, yang mengatur data dari anak di bawah umur.
Postur defensif ini meningkat setelah Komisi Perdagangan Federal (FTC) mengirim meta 5 Maret 2022 tentang Kepatuhan COPPA untuk Produk VR . Ini memicu inisiatif internal, “Project Salsa,” untuk membuat tween akun untuk pengguna berusia 10-12, sebuah langkah yang dipandang sebagai reaktif daripada proaktif.
Komunikasi internal menunjukkan pengacara yang menasihati staf untuk membingkai ulang pertanyaan penelitian untuk “menghindari pengumpulan informasi yang tidak perlu” seperti “pengalaman negatif atau masalah keamanan.” Seorang pejabat yang bahkan menyarankan staf “hindari mengatakan’anak-anak’seperti yang kita tahu pasti mereka adalah anak-anak-alih-alih menggunakan’dugaan remaja’atau’dugaan anak di bawah umur dengan suara-suara muda yang terdengar muda yang mungkin di bawah umur'”ketika membahas pengguna di bawah umur.
Bukti yang paling langsung dari Meta yang ada di mana yang harus dikeluarkan oleh para peneliti yang ada di sebuah peneliti, “secara umum, kami harus melakukan penelitian yang harus di-have. kekhawatiran peraturan.”Arahan ini menggarisbawahi klaim whistleblowers bahwa risiko hukum, bukan keselamatan pengguna, menjadi pendorong utama kebijakan penelitian.
Meta telah secara paksa mendorong kembali. Seorang juru bicara perusahaan mengatakan,”Kami mendukung pekerjaan tim peneliti kami yang sangat baik dan kecewa dengan kesalahan karakterisasi dari upaya tim ini,”dengan alasan bahwa kemitraan hukum adalah prosedur standar untuk memastikan penelitian akurat dan sesuai dengan peraturan privasi global.
bagian dari pola yang lebih luas dari krisis dan legal yang tidak ada. Ini adalah yang terbaru dari serangkaian krisis hukum dan hubungan masyarakat yang menantang praktik keselamatan inti Meta. Komite Kehakiman Senat telah mengumumkan akan mengadakan sidang tentang masalah ini.
Perusahaan baru-baru ini harus merombak aturan chatbot AI-nya untuk remaja setelah laporan yang memberatkan mengungkapkan bahwa itu dapat membantu pengguna merencanakan bunuh diri.
Kegagalan itu memicu koalisi dari 44 jaksa agung negara ini untuk menyatakan, “Kami adalah revole yang diselingi oleh anak-anak yang diselesaikan secara seragam oleh anak-anak untuk dinyatakan oleh anak-anak yang diselesaikan secara seragam, Platform mengabaikan kesejahteraan anak di letter publik
power> target=”_ blank”> letter publik . Markas Besar New York pada bulan April. Perusahaan juga menghadapi proses formal di Eropa di bawah Undang-Undang Layanan Digital atas Alat Keamanan dan Verifikasi Usia Anaknya.
Masalah hukum Meta melampaui platformnya sendiri. Dalam vonis tengara pada Agustus 2025, juri federal mendapati perusahaan bertanggung jawab atas pengumpulan data kesehatan yang sensitif secara ilegal dari pengguna aplikasi pelacakan periode FLO melalui kit pengembangan perangkat lunak tertanam (SDK).
Kasus itu bergantung pada aplikasi baru dari
Peristiwa ini, dari penelitian VR hingga chatbots AI dan pengumpulan data pihak ketiga, melukiskan gambaran perusahaan yang pertumbuhannya agresif dan model bisnis yang berkuasa.