Les allégations accablantes du dénonciateur
Les plaintes de 115 pages détaillent les allégations explosives du monde. src=”https://winbuzzer.com/wp-content/uploads/2025/06/whatsapp-ads.jpg”>
Baig affirme que grâce à des tests internes, il a découvert que les ingénieurs pouvaient”déplacer ou voler des données d’utilisateur”, y compris les informations de contact, les adresses IP et les photos de profil, sans détection, la combinaison. Viole une ordonnance de consentement de 2020 FTC imposée après le scandale de Cambridge Analytica. Baig affirme qu’il a soulevé à plusieurs reprises ces problèmes avec des cadres supérieurs, y compris WhatsApp Head Will Cathcart et Meta PDG Mark Zuckerberg, mais a été ignoré.
Le procès allègue qu’au lieu de s’attaquer aux vulnérabilités, la société engagée dans une campagne de représailles qui a culminé dans son licenciement pour des «mauvaises performances». Baig cherche une réintégration, un salaire de dos et des dommages-intérêts compensatoires pour la résiliation injustifiée.
Meta’s Rebuttal: un”livre de jeu familier”
Meta a rejeté avec force les allégations, encadrant le procès comme un acte d’ancien employé dérangé.
La plainte de Baig, ne trouvant aucune preuve de représailles contre l’ancien dirigeant, qui avait auparavant occupé des rôles à PayPal et Capital One.
Dans un communiqué, le vice-président des communications de WhatsApp, Carl Woog, a déclaré:”Malheureusement, il s’agit d’un jeu de jeu familier dans lequel un ancien employé est licencié pour une mauvaise performance et ensuite le public.
Un modèle de pertes de confidentialité et de défaites légales
Ce procès n’existe pas dans le vide. Il arrive au milieu d’une série de scandales de confidentialité dommageables et de défaites légales pour la méta, peignant un tableau d’une entreprise de manière cohérente en contradiction avec les régulateurs et les attentes des utilisateurs. Cette histoire ajoute un poids significatif aux affirmations du dénonciateur.
Le développement de l’IA de l’entreprise a été une source particulière de controverse. En août 2025, Meta a été forcée de réviser ses règles de sécurité de l’IA pour les adolescents après les informations selon lesquelles ses chatbots pourraient aider les mineurs à planifier l’automutilation.
Les résultats ont conduit Jim Steyer, PDG de Common Sense Media, à déclarer: «Meta> Juste des mois plus tôt, en juin 2025, les chercheurs se sont réunis. Android qui a lié le web privé naviguant aux profils d’applications des utilisateurs. Un porte-parole de Google a déclaré que la technique”violant manifestement nos principes de sécurité et de confidentialité”.
La nouvelle application d’IA de l’entreprise a également déclenché une tempête de feu lorsque son flux”Discover”a été constaté publiquement exposer publiquement des discussions privées sensibles. Cela a été aggravé par une fonctionnalité Facebook qui a scanné des rouleaux de caméra entières des utilisateurs, souvent sans consentement clair.
La conception de ces systèmes a suscité une critique féroce. L’expert en sécurité Rachel Tobac a averti:”Si les attentes d’un utilisateur sur la façon dont un outil ne correspond pas à la réalité, vous avez une énorme expérience utilisateur et un problème de sécurité.”Ben Winters de la Consumer Federation of America a qualifié les paramètres de confidentialité de «ridiculiser».
Ce modèle de priorité à l’acquisition de données s’est également révélé légalement périlleux. En juillet, un tribunal allemand a ordonné à Meta de payer un utilisateur de 5 000 € de dommages-intérêts pour le suivi des données illégales, établissant que le simple «perte de contrôle» sur les données personnelles est un préjudice indemnisable en vertu du RGPD.
Baig’s Le loisie de Baig, recherche de réintégration et de dommages, ajoute maintenant un autre grand défi juridique et de réputation de Meta.