Meta a confirmé jeudi qu’elle licenciait un nombre non divulgué d’employés de son service des risques et de la conformité, pour les remplacer par un système basé sur l’IA pour gérer les examens de confidentialité exigés par un accord historique de la Federal Trade Commission (FTC).
Conçue par l’entreprise comme un effort d’efficacité, cette décision soulève de sérieuses questions quant à savoir si l’automatisation peut remplacer de manière adéquate la surveillance humaine dans la protection des données des utilisateurs, ce qui pourrait mettre Meta sur une trajectoire de collision avec régulateurs.
D’une amende de 5 milliards de dollars à la surveillance de l’IA
Née d’un règlement réglementaire historique, l’équipe en cours de démantèlement a été créée pour satisfaire les exigences de la FTC après un abus colossal de la confiance du public.
En 2019, Meta a été frappée d’une amende historique de 5 milliards de dollars pour son rôle dans le scandale de la confidentialité des données de Cambridge Analytica, où les données de jusqu’à 87 millions d’utilisateurs ont été collectées de manière inappropriée à des fins de publicité politique.
Une condition essentielle de cet accord était la création d’une organisation de gestion des risques robuste, dirigée par des humains, chargée d’évaluer et de documenter les risques liés à la vie privée pour chaque nouveau produit et fonctionnalité avant son lancement.
Pendant des années, ce groupe a servi de chien de garde interne, un niveau de responsabilité humaine conçu pour empêcher une répétition des échecs passés. Désormais, ce processus centré sur l’humain est en train d’être automatisé.
Michel Protti, responsable de la confidentialité et de la conformité chez Meta, a annoncé mercredi des licenciements en interne, signalant un changement fondamental dans la manière dont l’entreprise aborde ses obligations réglementaires les plus critiques.
Ce changement externalise effectivement le jugement humain légalement mandaté vers une machine.
La recherche d’efficacité ou une démarche risquée. Parier ?
Au sein de Meta, la justification officielle se concentre sur la vitesse et la maturité. Meta affirme que son programme de conformité est désormais suffisamment sophistiqué pour automatiser les contrôles de routine, ce qui permet aux experts humains de se concentrer sur des défis plus complexes et nouveaux.
Un porte-parole de l’entreprise a déclaré :”Nous procédons régulièrement à des changements organisationnels et restructurons notre équipe pour refléter la maturité de notre programme et innover plus rapidement tout en maintenant des normes de conformité élevées.”
Le vice-président des politiques de Meta, Rob Sherman, a fait écho à cette position dans un post LinkedIn de juin, cherchant à tracer une ligne claire entre la simple automatisation et la prise de décision complexe par l’IA :”Nous n’utilisons pas l’IA pour prendre des décisions sur les risques. Au lieu de cela, le les règles sont appliquées grâce à l’automatisation, réduisant ainsi le temps que les experts doivent consacrer aux décisions ratifiées…”
Il a fait valoir que l’application de règles prédéterminées via l’automatisation augmente la fiabilité et réduit le risque d’erreur humaine sur les décisions ratifiées.
Un cadrage aussi minutieux, cependant, entre en conflit avec des rapports antérieurs et un scepticisme externe croissant. En mai 2025, une enquête a révélé pour la première fois que Meta envisageait que l’IA gère jusqu’à 90 % de ses évaluations de risques liés aux produits, suscitant une inquiétude immédiate parmi les défenseurs de la vie privée.
Les critiques affirment que l’automatisation d’une fonction aussi critique est un pari dangereux, en particulier lorsqu’il s’agit de risques nuancés et souvent imprévisibles associés aux nouvelles technologies.
Un ancien cadre anonyme de Meta a averti que le changement aurait lieu. conduisent inévitablement à un contrôle plus faible et à des résultats plus dangereux.”Dans la mesure où ce processus signifie fonctionnellement que plus de choses sont lancées plus rapidement, avec un contrôle et une opposition moins rigoureux, cela signifie que vous créez des risques plus élevés.”
Ce sentiment a été partagé par Zvika Krieger, une autre ancienne directrice de l’entreprise, qui a averti que”si vous poussez cela trop loin, inévitablement, la qualité de l’examen et les résultats vont en souffrir.”
Au cœur de cette préoccupation se trouve la crainte qu’un Un système automatisé, optimisé pour la rapidité, peut passer à côté des risques contextuels, comme ceux affectant les jeunes vulnérables ou impliquant des informations erronées, que les évaluateurs humains sont formés pour identifier, ce qui compromettrait l’objectif même du mandat de la FTC.
Une partie d’un remaniement plus large de l’IA dans l’ensemble de la technologie
Les suppressions d’emplois de MEta ne se produisent pas en vase clos ; Il s’agit de la dernière mesure en date dans une restructuration chaotique de l’IA à l’échelle de l’entreprise qui révèle une équipe de direction qui a du mal à trouver un terrain stable.
La nouvelle des suppressions d’emplois est intervenue juste un jour après que l’entreprise a licencié environ 600 employés de sa division IA, une décision qui a intensifié une « guerre civile interne » couvante à propos de la stratégie de l’entreprise et de son « laboratoire à déterminer » secret et élitiste.
Ce laboratoire, créé pour abriter un laboratoire d’intelligence artificielle.”une équipe de rêve”composée de talents débauchés, a favorisé un système à deux vitesses qui divise et a déjà vu des démissions très médiatisées.
Un schéma de réorganisation provoquant un coup de fouet et des conflits internes suggère que Meta échange un ensemble de problèmes contre un autre, sapant la stabilité même qu’elle cherchait à acquérir grâce à des dépenses somptueuses en talents et en matériel.
Affectant une équipe née de la réglementation. Par nécessité, les derniers licenciements montrent que même les fonctions légalement mandatées ne sont pas à l’abri de la stratégie turbulente de l’entreprise axée sur l’IA.
Dans la Silicon Valley, un récit similaire se déroule alors que l’IA devient une justification courante des réductions d’effectifs. D’autres géants de la technologie soulignent l’efficacité acquise grâce à l’IA pour expliquer les gels d’embauche et les licenciements.
Le PDG de Salesforce, Marc Benioff, par exemple, a récemmenta annoncé officiellement son intention de supprimer 4 000 postes de support client en raison des capacités croissantes de la technologie.”Nous avons vu le nombre de dossiers d’assistance que nous traitons diminuer et nous n’avons plus besoin de pourvoir activement les postes d’ingénieurs d’assistance.”
Les grandes sociétés financières emboîtent le pas. Le directeur financier de JPMorgan Chase a récemment confirmé que les managers avaient reçu l’ordre de suspendre le recrutement dans certains domaines alors que la banque déploie sa propre IA. initiatives, liant explicitement la technologie au ralentissement de la croissance des effectifs.
Dans l’ensemble du secteur, cette tendance positionne l’IA non seulement comme un outil d’innovation, mais aussi comme un levier pour une restructuration significative de l’entreprise et une réduction des coûts.
Pour Meta, remplacer son équipe d’examen mandatée par la FTC par l’IA est un pari à gros enjeux. L’entreprise mise sur la technologie pour rationaliser l’une de ses obligations juridiques les plus sensibles.
Bien que cette décision promette une plus grande efficacité, elle risque également d’éroder la confiance des utilisateurs et d’attirer un nouvel examen de la part des mêmes régulateurs qui ont imposé une surveillance humaine en premier lieu.