Meta potwierdziła w czwartek, że zwalnia nieujawnioną liczbę pracowników w swoim dziale ryzyka i zgodności, zastępując ich systemem opartym na sztucznej inteligencji do obsługi kontroli prywatności na mocy przełomowego porozumienia Federalnej Komisji Handlu (FTC).
Firma określiła to jako dążenie do wydajności, posunięcie to rodzi poważne pytania o to, czy automatyzacja może odpowiednio zastąpić nadzór człowieka w zakresie ochrony danych użytkowników, potencjalnie stawiając Meta na kursie kolizyjnym z organów regulacyjnych.
Od grzywny w wysokości 5 miliardów dolarów po nadzór nad sztuczną inteligencją
Zrodzony w wyniku przełomowego porozumienia regulacyjnego, sam likwidowany zespół został utworzony, aby spełnić żądania FTC po kolosalnym naruszeniu zaufania publicznego.
W 2019 r. firma Meta została ukarana historyczną grzywną w wysokości 5 miliardów dolarów za udział w skandalu dotyczącym prywatności danych Cambridge Analytica, w ramach którego dane nawet 87 milionów użytkowników zostały nieprawidłowo zebrane do celów politycznych reklama.
Głównym warunkiem tej ugody było utworzenie solidnej, kierowanej przez ludzi organizacji ds. ryzyka, której zadaniem będzie ocena i dokumentowanie zagrożeń dla prywatności w przypadku każdego nowego produktu i funkcji przed wprowadzeniem na rynek.
Przez lata grupa ta pełniła funkcję wewnętrznego organu nadzoru, warstwy ludzkiej odpowiedzialności, której zadaniem było zapobieganie powtarzaniu się błędów z przeszłości. Teraz ten proces skupiający się na człowieku zostaje zautomatyzowany.
Michel Protti, dyrektor ds. prywatności i zgodności w firmie Meta, ogłosił w środę wewnętrznie zwolnienia, sygnalizując zasadniczą zmianę w podejściu firmy do swoich najważniejszych obowiązków regulacyjnych.
Ta zmiana skutecznie przenosi prawnie wymagany ludzki osąd na maszynę.
Dążenie do wydajności czy ryzykowne Hazard?
W Meta oficjalne uzasadnienie koncentruje się na szybkości i dojrzałości. Meta argumentuje, że jej program zgodności jest obecnie na tyle zaawansowany, że pozwala zautomatyzować rutynowe kontrole, dzięki czemu eksperci mogą skupić się na bardziej złożonych i nowych wyzwaniach.
Rzecznik firmy stwierdził: „Rytualnie wprowadzamy zmiany organizacyjne i restrukturyzujemy nasz zespół, aby odzwierciedlić dojrzałość naszego programu i szybciej wprowadzać innowacje, zachowując jednocześnie wysokie standardy zgodności.”
Wiceprezes ds. polityki Meta, Rob Sherman, powtórzył to stanowisko w poście na LinkedIn z czerwca, w którym stara się wyraźnie rozgraniczyć prostą automatyzację od złożonego procesu decyzyjnego opartego na sztucznej inteligencji: „Nie używamy sztucznej inteligencji do podejmowania decyzji dotyczących ryzyka. Zamiast tego obowiązują zasady stosowane przy użyciu automatyzacji, co skraca czas, jaki eksperci muszą poświęcić na ratyfikowane decyzje…”
Przekonywał, że stosowanie z góry ustalonych zasad za pomocą automatyzacji zwiększa niezawodność i zmniejsza ryzyko błędu ludzkiego przy ratyfikowanych decyzjach.
Takie ostrożne sformułowanie stoi jednak w sprzeczności z wcześniejszymi raportami i rosnącym zewnętrznym sceptycyzmem. W maju 2025 r. dochodzenie po raz pierwszy ujawniło plan Meta, zgodnie z którym sztuczna inteligencja ma obsłużyć do 90% ocen ryzyka produktów, co wywołało natychmiastowe zaniepokojenie obrońców prywatności.
Krytycy twierdzą, że automatyzacja tak krytycznej funkcji to niebezpieczne ryzyko, zwłaszcza w obliczu zróżnicowanych i często nieprzewidywalnych zagrożeń związanych z nowymi technologiami.
Nienazwany były dyrektor Meta ostrzegł, że zmiana nieuchronnie doprowadziłoby do słabszej kontroli i bardziej niebezpiecznych skutków. „O ile ten proces funkcjonalnie oznacza szybsze wprowadzanie na rynek większej liczby produktów przy mniej rygorystycznej kontroli i sprzeciwie, oznacza to, że stwarzasz większe ryzyko.”
Tę opinię podziela Zvika Krieger, inny były dyrektor firmy, który przestrzegł, że „jeśli posuniesz się za daleko, nieuchronnie ucierpi na tym jakość recenzji i wyniki.”
U podstaw tej obawy leży obawa, że zautomatyzowany system, zoptymalizowany pod kątem szybkości, może nie uwzględniać zagrożeń kontekstowych – np. tych, które dotykają bezbronną młodzież lub wiążą się z dezinformacją – które weryfikatorzy są przeszkoleni w identyfikowaniu, podważając sam cel mandatu FTC.
Część szerszego wstrząsu AI w różnych technologiach
Zwolnienia w firmie MEta nie odbywają się w próżni; to najnowszy krok w chaotycznej restrukturyzacji sztucznej inteligencji obejmującej całą firmę, która ujawnia, że zespół kierowniczy stara się znaleźć stabilny grunt.
Wiadomość o cięciach nadeszła zaledwie dzień po zwolnieniu przez firmę około 600 pracowników z działu sztucznej inteligencji, co zaostrzyło wrzącą „wewnętrzną wojnę domową” dotyczącą strategii firmy i jej tajnego, elitarnego „Laboratorium TBD”.
To laboratorium stworzone, aby pomieścić „zespół marzeń” złożony z kłusujących talentów, stworzył system dwupoziomowy powodujący podziały i był już świadkiem głośnych rezygnacji.
Wzór reorganizacji wywołującej urazy kręgosłupa i wewnętrzne konflikty sugeruje, że Meta zamienia jeden zestaw problemów na drugi, podważając samą stabilność, którą starała się uzyskać poprzez hojne wydatki na talenty i sprzęt.
Wpływ na zespół zrodzony z organów regulacyjnych z konieczności ostatnie zwolnienia pokazują, że nawet prawnie upoważnione stanowiska nie są odporne na burzliwą strategię firmy polegającą na sztucznej inteligencji.
W całej Dolinie Krzemowej podobna narracja toczy się dalej, gdy sztuczna inteligencja staje się powszechnym uzasadnieniem redukcji zatrudnienia. Inni giganci technologiczni wskazują na efektywność uzyskaną dzięki sztucznej inteligencji, aby wyjaśnić wstrzymywanie rekrutacji i zwolnienia.
Na przykład dyrektor generalny Salesforce Marc Benioff, recentylko ogłosił plany redukcji 4000 stanowisk w dziale obsługi klienta ze względu na rosnące możliwości tej technologii. „Zaobserwowaliśmy spadek liczby obsługiwanych przez nas spraw wsparcia i nie musimy już aktywnie uzupełniać stanowisk inżynierów wsparcia.”
Główne firmy finansowe podążają ich śladem. Szef finansowy JPMorgan Chase potwierdził niedawno, że menedżerom polecono wstrzymać zatrudnianie w niektórych obszarach w związku z wdrażaniem przez bank własnych Inicjatywy związane ze sztuczną inteligencją, wyraźnie łączące tę technologię ze spowolnieniem wzrostu zatrudnienia.
W całej branży trend ten pozycjonuje sztuczną inteligencję nie tylko jako narzędzie innowacji, ale także jako dźwignię znaczącej restrukturyzacji przedsiębiorstwa i cięcia kosztów.
Dla Meta zastąpienie swojego zespołu recenzentów zleconego przez FTC sztuczną inteligencją to ryzykowne przedsięwzięcie. Firma stawia na technologię, aby usprawnić jeden z najbardziej wrażliwych obowiązków prawnych.
Chociaż to posunięcie obiecuje większą wydajność, wiąże się również z ryzykiem utraty zaufania użytkowników i wzbudzenia ponownej kontroli ze strony organów regulacyjnych, które przede wszystkim wymagały nadzoru ze strony człowieka.