Meta ha confermato giovedì che sta licenziando un numero imprecisato di dipendenti nel suo dipartimento di rischio e conformità, sostituendoli con un sistema basato sull’intelligenza artificiale per gestire le revisioni della privacy imposte da uno storico accordo della Federal Trade Commission (FTC).
Considerata dall’azienda come una spinta all’efficienza, la mossa solleva seri interrogativi sulla possibilità che l’automazione possa sostituire adeguatamente il controllo umano nella protezione dei dati degli utenti, mettendo potenzialmente Meta in rotta di collisione con regolatori.
Da una multa di 5 miliardi di dollari alla supervisione dell’intelligenza artificiale
Nato da un accordo normativo storico, lo stesso team in fase di smantellamento è stato creato per soddisfare le richieste della FTC dopo una colossale violazione della fiducia pubblica.
Nel 2019, Meta è stata colpita da una storica multa di 5 miliardi di dollari per il suo ruolo nello scandalo sulla privacy dei dati di Cambridge Analytica, in cui i dati di un massimo di 87 milioni di utenti sono stati raccolti in modo improprio per fini politici. pubblicità.
Una condizione fondamentale di tale accordo era la creazione di una solida organizzazione di rischio guidata da persone, incaricata di valutare e documentare i rischi per la privacy di ogni nuovo prodotto e funzionalità prima del lancio.
Per anni, questo gruppo ha svolto il ruolo di cane da guardia interno, un livello di responsabilità umana progettato per prevenire il ripetersi di fallimenti passati. Ora, quel processo incentrato sull’uomo viene automatizzato.
Michel Protti, responsabile della privacy e della conformità di Meta, ha annunciato mercoledì i licenziamenti interni, segnalando un cambiamento fondamentale nel modo in cui l’azienda affronta i suoi obblighi normativi più critici.
Questo cambiamento affida di fatto il giudizio umano imposto per legge a una macchina.
Motivazione all’efficienza o rischioso Scommettere?
All’interno di Meta, la giustificazione ufficiale è incentrata sulla velocità e sulla maturità. Meta sostiene che il suo programma di conformità è ora sufficientemente sofisticato da automatizzare i controlli di routine, consentendo agli esperti umani di concentrarsi su sfide più complesse e nuove.
Un portavoce dell’azienda ha dichiarato:”Apportiamo regolarmente modifiche organizzative e stiamo ristrutturando il nostro team per riflettere la maturità del nostro programma e innovare più rapidamente mantenendo elevati standard di conformità.”
Il vicepresidente della politica di Meta, Rob Sherman, ha fatto eco a questa posizione in un post di giugno su LinkedIn, cercando di tracciare una linea chiara tra la semplice automazione e il complesso processo decisionale basato sull’intelligenza artificiale:”Non utilizziamo l’intelligenza artificiale per prendere decisioni sul rischio. Invece, le regole vengono applicate utilizzando l’automazione, riducendo il tempo che gli esperti devono dedicare alle decisioni ratificate…”
Ha sostenuto che l’applicazione di regole predeterminate tramite l’automazione aumenta l’affidabilità e riduce la possibilità di errore umano sulle decisioni ratificate.
Un quadro così accurato, tuttavia, si scontra con i rapporti precedenti e con il crescente scetticismo esterno. Nel maggio 2025, un’indagine ha rivelato per la prima volta il piano di Meta affinché l’intelligenza artificiale gestisca fino al 90% delle valutazioni del rischio dei prodotti, suscitando immediata preoccupazione tra i difensori della privacy.
I critici sostengono che automatizzare una funzione così critica è una scommessa pericolosa, soprattutto quando si ha a che fare con i rischi sfumati e spesso imprevedibili associati alle nuove tecnologie.
Un anonimo ex dirigente di Meta ha avvertito del cambiamento porterebbe inevitabilmente a un controllo più debole e a risultati più pericolosi.”Nella misura in cui questo processo significa, dal punto di vista funzionale, che più cose vengono lanciate più velocemente, con un controllo e un’opposizione meno rigorosi, significa che si stanno creando rischi più elevati.”
Questo sentimento è stato condiviso da Zvika Krieger, un altro ex direttore dell’azienda, che ha avvertito che,”se si spinge troppo oltre, inevitabilmente la qualità della revisione e i risultati ne risentiranno.”
Al centro di questa preoccupazione c’è il timore che un sistema automatizzato Il sistema, ottimizzato per la velocità, potrebbe non cogliere i rischi contestuali, come quelli che colpiscono i giovani vulnerabili o che coinvolgono la disinformazione, che i revisori umani sono addestrati a identificare, minando lo scopo stesso del mandato della FTC.
Parte di un più ampio cambiamento dell’intelligenza artificiale in tutta la tecnologia
I tagli di posti di lavoro di MEta non stanno avvenendo nel vuoto; sono l’ultima mossa di una caotica ristrutturazione dell’intelligenza artificiale a livello aziendale che rivela un gruppo dirigente che fatica a trovare una base stabile.
La notizia dei tagli è arrivata solo un giorno dopo che l’azienda ha licenziato circa 600 dipendenti dalla sua divisione AI, una decisione che ha intensificato una”guerra civile interna”in corso sulla strategia dell’azienda e sul suo segreto ed elitario”TBD Lab”.
Quel laboratorio, creato per ospitare un”dream team”di talenti sottratti, ha promosso un sistema divisivo a due livelli e ha già visto dimissioni di alto profilo.
Un modello di riorganizzazione e conflitti interni che induce un colpo di frusta suggerisce che Meta sta scambiando una serie di problemi con un altro, minando proprio la stabilità che ha cercato di acquisire attraverso spese sontuose in talenti e hardware.
Colpendo un team nato da necessità normative, l’ultimo i licenziamenti dimostrano che anche le funzioni legalmente obbligate non sono immuni dalla turbolenta strategia dell’azienda incentrata sull’intelligenza artificiale.
In tutta la Silicon Valley, una narrazione simile si sta dispiegando mentre l’intelligenza artificiale diventa una giustificazione comune per la riduzione della forza lavoro. Altri giganti della tecnologia citano l’efficienza ottenuta dall’intelligenza artificiale per spiegare il blocco delle assunzioni e i licenziamenti.
Il CEO di Salesforce, Marc Benioff, ad esempio, ha recenha recentemente annunciato l’intenzione di tagliare 4.000 ruoli di assistenza clienti a causa delle crescenti capacità della tecnologia.”Abbiamo visto il numero di casi di supporto che gestiamo diminuire e non abbiamo più bisogno di ricoprire attivamente i ruoli di ingegnere di supporto.”
Le principali società finanziarie stanno seguendo l’esempio. Il capo finanziario di JPMorgan Chase ha recentemente confermato che ai manager è stato ordinato di sospendere le assunzioni in alcune aree mentre la banca lancia la propria Iniziative di intelligenza artificiale, che collegano esplicitamente la tecnologia al rallentamento della crescita dell’organico.
In tutto il settore, questa tendenza posiziona l’intelligenza artificiale non solo come uno strumento per l’innovazione, ma come una leva per una significativa ristrutturazione aziendale e una riduzione dei costi.
Per Meta, sostituire il suo team di revisione incaricato dalla FTC con l’intelligenza artificiale è una scommessa alta. L’azienda punta sulla tecnologia per semplificare uno dei suoi obblighi legali più delicati.
Sebbene la mossa prometta una maggiore efficienza, rischia anche di erodere la fiducia degli utenti e di attirare un rinnovato controllo da parte degli stessi regolatori che in primo luogo hanno imposto la supervisione umana.