Grupa obecnych i byłych pracowników meta oskarżyła firmę o systematyczne tłumienie własnych badań nad zagrożeniami dla dzieci na platformach wirtualnej rzeczywistości, zgodnie z Dokumenty ujawnione Kongresowi USA 8 września .
Whistblowers, reprezentowani przez prawną pomoc informatorów non-profit, zarzucają zespół prawny aktywnie zawetowany, zredagowany i przegrane wrażliwe ustalenia. Twierdzą, że była to celowa strategia stworzenia „prawdopodobnej zaprzeczania” wobec potencjalnych procesów sądowych i działań regulacyjnych.
Ta domniemana strategia rozpoczęła się po wyciekach Frances Haugen w 2021 r. I bezpośrednio zaprzecza zobowiązaniom w zakresie bezpieczeństwa publicznego od CEO Marka Zuckerberga. Meta gwałtownie zaprzeczyła roszczeniom, nazywając ich błędną scharakteryzacją swoich wysiłków na rzecz przeprowadzenia badań wysokiej jakości przy jednoczesnym przestrzeganiu globalnych przepisów dotyczących prywatności.
post . Wyciekłe badania wewnętrzne wykazujące, że Meta wiedział, że Instagram może być szkodliwy dla zdrowia psychicznego nastoletnich dziewcząt. Wpad wywołał ogromną presję publiczną i polityczną, zapewniając firmę dla firmy wyraźny motyw do zaostrzenia kontroli nad potencjalnie szkodliwymi danymi wewnętrznymi.
, ale zaledwie sześć tygodni później prawnicy firmy rzekomo poinformowali badaczy Reality Labs, aby „ograniczyli ryzyko” wrażliwych badań poprzez przeprowadzenie ich pod uprzejmością. Ta tarcza prawna zapobiega odkryciu komunikacji w procesach sądowych, skutecznie odrzucając ustalenia.
Wewnętrzne ostrzeżenia nie są nowe. Post Pracownicy Wysyłki wiadomości z 2017 r. Stwierdził: „Mamy problem z dzieckiem i prawdopodobnie nadszedł czas, aby o tym porozmawiać”, szacując, że nawet 90% użytkowników w niektórych pokojach VR było nieletnich. Ta długoletnia świadomość sprawia, że późniejsze domniemane tłumienie jest bardziej znaczące.
celowa strategia „prawdopodobnej zaprzeczania”
Pracownicy przedstawili określone przykłady tej domniemanej tłumienia. W jednym przypadku od kwietnia 2023 r. Menedżer podobno nakazał usunięcie nagrania, w którym niemiecki nastolatek twierdził, że jego młodszy brat był wielokrotnie proponowany seksualnie w VR.
Jeden z badaczy, Jason Sattizahn, opisał reakcję matki na wiadomości: „Jej twarz w czasie rzeczywistym pokazała jej, że to, co myślała o technologii, całkowicie złe”. Meta przeciwdziałał, że każde takie usunięcie polegało na zapewnieniu zgodności z przepisami dotyczącymi prywatności, takich jak RODPR i COPPA, które rządzą danymi od menatorów.
Ta defensywna pozycja zintensyfikowana po Federalnej Komisji Handlu (FTC) wysłała zapotrzebowanie prawne w marcu 2022 r. W odniesieniu do jego
Komunikacja wewnętrzna pokazują prawników doradzających pracownikom, aby zmienili pytania badawcze, aby „uniknąć niepotrzebnego poboru wrażliwych informacji”, podobnie jak „negatywne doświadczenia lub obawy dotyczące bezpieczeństwa”. Jeden urzędnik sugerowany nawet personel „unikaj mówienia„ dzieci “, jak wiemy na pewno, że są dziećmi-zamiast tego używają„ domniemanej młodzieży “lub„ domniemanymi nieletnimi z młodymi głosami brzmiącymi, którzy mogą być nieletni “„ Ogólnie rzecz biorąc, omawiając nieletnich użytkowników. Powinni unikać zbierania danych badawczych, które wskazują, że jest to, że jest to, że jest to, że jest to, że są one, ponieważ są w stanie obawy regulacyjne “. Dyrektywa podkreśla twierdzenia informatorów, że ryzyko prawne, a nie bezpieczeństwo użytkownika, stały się głównym motorem polityki badawczej.
Meta mocno się odepchnęła. Rzecznik firmy powiedział: „Obejmujemy doskonałą pracę naszego zespołu badawczego i jesteśmy przerażeni przez te błędne starania zespołu”, argumentując, że partnerstwo prawne jest standardową procedurą zapewnienia dokładności badań i zgodnych z globalnymi przepisami dotyczącymi prywatności.
Część szerszego wzorca krążenia regulacyjnego i prawnego
to VROPUSUSUS SCANDING nie IND IND IND IND IND IND INST IND IND IND IND IND IND IND IND IND. próżnia. Jest to najnowszy z serii kryzysów prawnych i public relations, które kwestionują podstawowe praktyki bezpieczeństwa meta. Senacka komisja sądownicza ogłosiła już, że przeprowadzi rozprawę w tej sprawie.
Firma musiała ostatnio przeglądać swoje zasady AI Chatbot dla nastolatków po przeklętym raporcie ujawnionym, że może pomóc użytkownikom w planowaniu samobójstwa.
, że awaria wywołała koalicję 44 Państwowych Państwowych Generalnych Ogólnopolę. Ponad lekceważenie platformy dla dobrego samopoczucia dziecka w litera publiczna . Siedziba Meta w Nowym Jorku w kwietniu. Firma staje również w obliczu formalnego postępowania w Europie na podstawie ustawy o usługach cyfrowych w sprawie narzędzi bezpieczeństwa dzieci i wieku.
Kłopoty prawne Meta wykraczają poza własne platformy. W przełomowym wyroku w sierpniu 2025 r. Federalne jury uznało, że firma jest odpowiedzialna za nielegalne zbieranie poufnych danych zdrowotnych od użytkowników aplikacji do śledzenia okresu Flo za pośrednictwem wbudowanego zestawu programistycznego (SDK). href=”https://www.americanbar.org/groups/business_law/resources/business-law-today/2024-august/californias-invasion-rivacy-act”Werdykt sugeruje, że sądy są coraz bardziej chętne do stosowania starych przepisów do nowych technologii, tworząc nowe niebezpieczeństwo prawne dla metod gromadzenia danych Big Tech.
Te wydarzenia, od badań VR po chatboty AI i gromadzenie danych stron trzecich.