Le groupe européen de confidentialité NOYB a officiellement demandé à Meta cesse d’utiliser des données personnelles de ses utilisateurs européens pour une formation sur le modèle d’IA sans consentement explicite d’opt-in, en intensité d’une bataille controversée sur les droits des données et le développement de l’IA. La lettre”cesser et s’abstenir”, détaillée dans un annonce de NOY Approche NOYB soutient les baflues du règlement général de la protection des données de l’UE (RGPD). Meta fait face à une date limite du 21 mai 2025 pour répondre.
La confrontation pourrait perturber considérablement les ambitions de l’IA de Meta en Europe, en particulier pour ses modèles LLAMA AI. Noyb, une éminente organisation d’application de la vie privée, a menacé de répercussions juridiques substantielles, notamment en demandant des injonctions judiciaires pour arrêter le traitement des données. Une telle injonction pourrait également exiger la suppression des systèmes d’IA formés à des données européennes mal acquises.
Si les données de l’UE sont entremêlées avec les données non UE, NOYB avertit que l’ensemble du modèle d’IA pourrait devoir être effacé. En outre, le groupe envisage un recours collectif massif, coûtant potentiellement plus de 200 milliards d’euros, sur la base des dommages estimés pour sa base d’utilisateurs européens.
Le cœur du différend réside dans l’interprétation du RGPD par le GDPR. NOYB insiste sur le fait que l’utilisation de données personnelles pour la formation d’IA nécessite un consentement libre, spécifique, informé et sans ambiguïté des utilisateurs. Max Schrems, le fondateur de Noyb, soutient que la tentative de Meta d’utiliser”l’intérêt légitime”comme base juridique est une interprétation erronée, en particulier compte tenu des décisions antérieures de la Cour européenne de justice sur l’utilisation des données pour la publicité.
Il a déclaré que Meta efficacement”dit simplement que l’intérêt de gagner de l’argent est plus important que les droits de ses utilisateurs”. NOYB souligne également les difficultés pratiques que la méta serait confrontée pour se conformer à d’autres droits du RGPD, tels que l’effacement des données ou la rectification, dans des systèmes d’IA complexes, d’autant plus que ses modèles LLAMA sont souvent distribués en tant que logiciels open-source, ce qui les rend difficiles à rappeler ou à mettre à jour. L’Union européenne a été chargée de friction réglementaire. En juin 2024, la société a été forcée de suspendre sa formation en IA en utilisant les données publiques des utilisateurs de Facebook et Instagram de l’UE après des objections des organismes de réglementation, notamment la Commission de protection des données d’Irlande (DPC).
meta soutenue À l’époque, cela se traduirait par une”expérience de seconde date”pour les utilisateurs européens. La Commission de protection des données de l’UE décrit Pays européens en mars 2025, mais avec des limitations notables. La version européenne a été spécifiquement commercialisée comme ne collectant pas d’interactions utilisateur pour la formation en IA, et des fonctionnalités telles que la génération d’images AI et la personnalisation de contenu profond, disponible aux États-Unis, étaient absentes.
Cependant, selon ET CIO, les méta-plans pour commencer à utiliser les données personnelles des utilisateurs européens pour la formation de la technologie AI à partir du 27 mai, un déménagement qui semble être le déclencheur direct pour le déclencheur actuel. défendu ses pratiques. Un porte-parole de l’entreprise a déclaré que «les arguments de Noyb ont été erronés sur les faits et la loi» et que l’entreprise a fourni aux utilisateurs de l’UE un «moyen clair de s’opposer» par e-mail et des notifications en application, ce qui leur a permis de le faire «à tout moment». technologies de pointe.”Meta estime que son approche s’aligne sur une opinion de décembre 2024 European Data Protection Board (EDPB), qui dit Meta”a affirmé que notre approche initiale a satisfait à nos obligations légales”. L’application Meta AI autonome de la société, lancée fin avril, a rapidement suscité des critiques pour sa rétention par défaut des détails du chat pour la personnalisation. Alors que Meta pointe vers les contrôles des utilisateurs, les défenseurs de la vie privée ont été sceptiques.
ben Winters de la Consumer Federation of America, parlant à The Washington Post divulgation comme «ridiculement mal». Meta’s Own Termes d’utilisation Avertissez explicitement les utilisateurs:”Ne partagez pas les informations que vous ne souhaitez pas que les IA utilisent et retiennent.”Couche de préoccupation pour les chiens de garde de la vie privée. Au-delà de la vie privée, Meta fait également face à des batailles juridiques sur le droit d’auteur, les éditeurs et les auteurs français poursuivant la société en mars pour avoir prétendument utilisé du matériel protégé par le droit d’auteur sans autorisation pour former son AI.
Rapports, y compris de le monde Meta a approuvé l’utilisation de bibliothèques de livres piratées pour ses modèles de lama. Ces défis juridiques et éthiques variés soulignent l’échelle intense que la méta-affronte lorsqu’elle progresse avec son développement de l’IA, naviguant souvent dans un paysage de données complexe et contesté. Autres groupes,