Anthropic met à jour sa politique de confidentialité, ce qui en fait le dernier développeur d’IA majeur à utiliser les données de chat grand public pour la formation du modèle par défaut. À partir immédiatement pour les nouveaux utilisateurs et en appliquant les utilisateurs existants qui ne se déshabillent pas d’ici le 28 septembre, la société conservera et analysera les conversations de ses services Claude AI pour améliorer les futurs modèles.

Ce changement aligne anthropique avec des concurrents comme Google et Meta, qui ont des politiques de retrait similaires. The move intensifies the ongoing debate over user privacy and data control in the race for more powerful AI, placing the burden on individuals to actively manage how their personal information is used.

Anthropic Adopts Opt-Out Data Training Policy

Under the new terms, data from users of Claude’s free, Pro, and Max tiers will be collected unless they navigate to their settings and Opt out explicitement . Pour ceux qui consent, Anthropic prolonge également considérablement sa période de rétention des données, des 30 jours précédents à cinq ans.

Une évolution à l’échelle de l’industrie vers la collecte de données par défaut

Le changement de politique d’Anthropic ne se produit pas dans un vide. Il reflète une tendance plus large de l’industrie où la collecte de données par défaut est devenue la norme pour les produits d’IA orientés vers les consommateurs. Google a récemment annoncé une politique de désactivation similaire pour les Gémeaux, prévue pour prendre effet le 2 septembre

que la politique est également large, couvrant des fichiers, des photos, des vidéos et même des captures d’écran téléchargées par l’utilisateur sur lesquelles les utilisateurs posent des questions. De même, l’application AI de META, lancée en avril 2025, se souvient également des chats des utilisateurs par défaut pour personnaliser les réponses et a été constaté pour capturer les détails sensibles déduits des chats.

Cette convergence des stratégies parmi les grands joueurs technologiques souligne la valeur d’immense des données des utilisateurs réels dans la course concurrentielle dans les systèmes AI plus capables et judiciaires. Les précédents montent

Ce pivot à l’échelle de l’industrie a rencontré une résistance importante des défenseurs de la vie privée et a déclenché des défis juridiques. Les critiques soutiennent que ces systèmes de désactivation sont conçus pour décourager les utilisateurs contre la protection de leurs données. Ben Winters de la Consumer Federation of America a appelé de telles divulgations et choix «les divulgations et les choix de consommateurs autour des milieux de confidentialité sont ridiculement mauvais».

Le paysage juridique devient également plus dangereux pour les entreprises technologiques. En janvier 2025, un recours collectif a été déposé contre LinkedIn, l’accusant d’utiliser des messages inmail privés des abonnés premium pour former des modèles d’IA, violant prétendument la loi sur les communications stockées.

compliquant d’autres questions, un tribunal américain a ordonné à OpenAI en juillet de conserver tous les chats des utilisateurs-les deux utilisateurs ont été supprimés. Cette décision a alarmé des experts en confidentialité comme Jay Edelson, qui a averti: «L’idée que vous avez un tas d’avocats qui vont faire tout ce qu’ils sont avec certaines des données les plus sensibles de la planète… devrait rendre tout le monde mal à l’aise.”

ces cas mettent en évidence une tension croissante entre la assoires de l’industrie technologique pour les données et ses obligations légales et éthiques envers les utilisateurs. Beaucoup pensent que l’équilibre est éteint, avec Justin Brookman de Consumer Reports notant: «L’idée d’un agent est qu’elle fonctionne en mon nom-et non pour essayer de me manipuler: une confidentialité plus stricte pour les utilisateurs d’entreprise

a un détail crucial dans ces politiques. Anthropic indique explicitement sa nouvelle politique d’opt-out ne s’applique pas à ses offres commerciales , y compris la claude pour le travail, le gov, l’éducation ou ses clients de l’API. Les entreprises offrent des garanties de confidentialité plus solides et une ségrégation des données aux clients commerciaux payants, qui gèrent les informations sensibles des entreprises et exigent des contrôles plus stricts. Cela crée un système à deux niveaux où les utilisateurs de tous les jours sont traités comme une ressource pour la formation des modèles.

À mesure que l’IA s’intègre plus dans la vie quotidienne, cette fracture alimentera probablement un débat supplémentaire sur l’équité et le consentement. Comme l’a noté un chercheur de l’Université d’Oxford, Caroline Green, «il y a un peu de problème en ce qui concerne le développement de l’IA, où l’éthique et les gens sont une seconde pensée, plutôt que le point de départ.”

Le porte-parole du Meta Thomas Richards a défendu les décennies… Nous fournissons des transparences et des personnes à la hauteur de notre expérience et de leur expérience et de leur expérience dans nos plates-formes… bien pour eux,”mais pour beaucoup, les paramètres par défaut racontent une autre histoire.

Categories: IT Info