A Meta confirmou na quinta-feira que está demitindo um número não revelado de funcionários em seu departamento de risco e conformidade, substituindo-os por um sistema baseado em IA para lidar com análises de privacidade exigidas por um acordo histórico da Comissão Federal de Comércio (FTC).
Enquadrada pela empresa como um impulso à eficiência, a medida levanta sérias questões sobre se a automação pode substituir adequadamente a supervisão humana na proteção dos dados do usuário, potencialmente colocando a Meta em rota de colisão com reguladores.
De uma multa de US$ 5 bilhões à supervisão da IA
Nascida de um acordo regulatório histórico, a própria equipe que está sendo desmantelada foi criada para satisfazer as demandas da FTC após uma colossal quebra de confiança pública.
Em 2019, a Meta foi atingida com uma multa histórica de US$ 5 bilhões por seu papel no escândalo de privacidade de dados da Cambridge Analytica, onde os dados de até 87 milhões de usuários foram coletados indevidamente para fins políticos. publicidade.
Uma condição essencial desse acordo foi o estabelecimento de uma organização de risco robusta e liderada por humanos, encarregada de avaliar e documentar os riscos de privacidade para cada novo produto e recurso antes do lançamento.
Durante anos, esse grupo serviu como um vigilante interno, uma camada de responsabilidade humana projetada para evitar a repetição de falhas passadas. Agora, esse processo centrado no ser humano está sendo automatizado.
Michel Protti, diretor de privacidade e conformidade da Meta, anunciou as demissões internamente na quarta-feira, sinalizando uma mudança fundamental na forma como a empresa aborda suas obrigações regulatórias mais críticas.
Essa mudança terceiriza efetivamente o julgamento humano legalmente obrigatório para uma máquina.
Impulso de eficiência ou risco Jogar?
Dentro do Meta, a justificativa oficial centra-se na velocidade e na maturidade. A Meta argumenta que seu programa de conformidade agora é sofisticado o suficiente para automatizar verificações de rotina, liberando especialistas humanos para se concentrarem em desafios mais complexos e novos.
Um porta-voz da empresa declarou: “Fazemos mudanças organizacionais rotineiramente e estamos reestruturando nossa equipe para refletir a maturidade de nosso programa e inovar mais rapidamente, mantendo altos padrões de conformidade.”
O vice-presidente de políticas da Meta, Rob Sherman, ecoou essa posição em uma Postagem de junho no LinkedIn, buscando traçar uma linha clara entre a automação simples e a tomada de decisões complexas de IA: “Não estamos usando IA para tomar decisões sobre riscos. Em vez disso, as regras são aplicadas através da automação, reduzindo o tempo que os especialistas precisam gastar nas decisões ratificadas…”
Ele argumentou que a aplicação de regras pré-determinadas através da automação aumenta a confiabilidade e reduz a chance de erro humano nas decisões ratificadas.
Esse enquadramento cuidadoso, no entanto, entra em conflito com relatórios anteriores e com o crescente ceticismo externo. Em maio de 2025, uma investigação revelou pela primeira vez o plano da Meta para que a IA lidasse com até 90% das avaliações de risco de seus produtos, gerando preocupação imediata entre os defensores da privacidade.
Os críticos argumentam que automatizar uma função tão crítica é uma aposta perigosa, especialmente quando se lida com os riscos sutis e muitas vezes imprevisíveis associados às novas tecnologias.
Um ex-executivo não identificado da Meta alertou que a mudança iria conduzem inevitavelmente a um escrutínio mais fraco e a resultados mais perigosos. “Na medida em que esse processo significa, funcionalmente, mais coisas sendo lançadas mais rapidamente, com escrutínio e oposição menos rigorosos, isso significa que você está criando riscos maiores.”
Esse sentimento foi compartilhado por Zvika Krieger, outra ex-diretora da empresa, que alertou que, “se você levar isso longe demais, inevitavelmente a qualidade da revisão e os resultados serão prejudicados”.
No centro dessa preocupação está o medo de que um um sistema automatizado, otimizado para velocidade, pode ignorar os riscos contextuais – como aqueles que afetam jovens vulneráveis ou envolvem desinformação – que os revisores humanos são treinados para identificar, minando o próprio propósito do mandato da FTC.
Parte de uma mudança mais ampla na IA em toda a tecnologia
Os cortes de empregos da MEta não estão acontecendo no vácuo; eles são o movimento mais recente em uma caótica reestruturação de IA em toda a empresa, que revela uma equipe de liderança lutando para encontrar um terreno estável.
A notícia dos cortes chegou apenas um dia depois que a empresa demitiu aproximadamente 600 funcionários de sua divisão de IA, uma decisão que intensificou uma”guerra civil interna”em formação sobre a estratégia da empresa e seu secreto”Laboratório TBD”de elite.
Esse laboratório, criado para abrigar um”equipe dos sonhos”de talentos caçados, promoveu um sistema divisivo de dois níveis e já viu demissões de alto nível.
Um padrão de reorganização indutora de chicotadas e conflitos internos sugere que a Meta está trocando um conjunto de problemas por outro, minando a própria estabilidade que procurava adquirir através de gastos excessivos em talentos e hardware.
Afetando uma equipe nascida de questões regulatórias. Por necessidade, as últimas demissões mostram que mesmo as funções exigidas por lei não estão imunes à turbulenta estratégia da empresa que prioriza a IA.
Em todo o Vale do Silício, uma narrativa semelhante está se desenrolando à medida que a IA se torna uma justificativa comum para reduções da força de trabalho. Outros gigantes da tecnologia estão apontando para a eficiência obtida com a IA para explicar congelamentos e demissões nas contratações. target=”_blank”>tly anunciou planos para cortar 4.000 funções de suporte ao cliente devido aos recursos crescentes da tecnologia. “Vimos o número de casos de suporte com os quais lidamos diminuir e não precisamos mais preencher ativamente as funções de engenheiro de suporte.”
As grandes empresas financeiras estão seguindo o exemplo. O diretor financeiro do JPMorgan Chase confirmou recentemente que os gestores foram instruídos a interromper as contratações em determinadas áreas à medida que o banco implementa sua própria IA iniciativas, vinculando explicitamente a tecnologia à desaceleração do crescimento do número de funcionários.
Em toda a indústria, esta tendência posiciona a IA não apenas como uma ferramenta para inovação, mas como uma alavanca para uma reestruturação corporativa significativa e redução de custos.
Para a Meta, substituir sua equipe de revisão exigida pela FTC pela IA é uma aposta de alto risco. A empresa está apostando na tecnologia para simplificar uma de suas obrigações legais mais sensíveis.
Embora a medida prometa maior eficiência, ela também corre o risco de minar a confiança do usuário e atrair um escrutínio renovado dos mesmos reguladores que exigiram a supervisão humana em primeiro lugar.