Anthropic is het bijwerken van zijn privacybeleid, waardoor het de nieuwste grote AI-ontwikkelaar is die consumentenchatgegevens standaard gebruikt voor modeltraining. Beginnend onmiddellijk voor nieuwe gebruikers en sollicitatie op bestaande gebruikers die zich niet tegen 28 september afmelden, zal het bedrijf gesprekken behouden en analyseren van zijn Claude AI-services om toekomstige modellen te verbeteren.
Deze verschuiving sluit antropisch af met concurrenten zoals Google en Meta, die vergelijkbaar opt-outbeleid hebben. De verhuizing versterkt het lopende debat over de privacy van de gebruikers en gegevensbeheersing in de race voor krachtigere AI, waardoor de last van individuen wordt gelegd om actief te beheren hoe hun persoonlijke informatie wordt gebruikt.
Anthropic hanteert opt-out gegevenstraining beleid
onder de nieuwe termen, gegevens van gebruikers van Claude zullen zijn gevallen en max tieren zijn gevallen, en maximaal navigeerden om hun vestigingen en max. href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”target=”_ blank”> Mosfeer expliciet af . Voor degenen die toestemming geven, verlengt Anthropic ook zijn gegevensbehoudperiode aanzienlijk, van de voorgaande 30 dagen tot vijf jaar.

dat het beleid even breed is, met betrekking tot door de gebruiker gearmeerde bestanden, foto’s, video’s en zelfs screenshots waarover gebruikers vragen stellen. Evenzo, de AI-app van Meta, gelanceerd in april 2025, onthoudt ook standaard gebruikerschats om reacties te personaliseren en bleek gevoelige details vast te leggen uit chats.
Deze convergentie van strategieën onder Big Tech Players ondergaat de immense waarde van real-world gebruikersgegevens in de gebruikers van de concurrentie om meer te bouwen en context-aware AI-systemen. Juridische precedenten monteren
Deze industriële pivot is met aanzienlijke weerstand tegen privacy-voorstanders ontvangen en heeft juridische uitdagingen aangepakt. Critici beweren dat deze opt-outsystemen zijn ontworpen om gebruikers te ontmoedigen om hun gegevens te beschermen. Ben Winters van de Consumer Federation of America noemde dergelijke openbaarmakingen en keuzes”De openbaarmakingen en consumentenkeuzes rond privacy-instellingen zijn lachwekkend slecht.”
Het juridische landschap wordt ook gevaarlijker voor technologiebedrijven. In januari 2025 werd een class-action-rechtszaak aangespannen tegen LinkedIn en beschuldigde het van het gebruik van privé-inmailberichten van premium-abonnees om AI-modellen te trainen, naar verluidt de opgeslagen communicatiewet te schenden.
Verdere complicerende zaken, een Amerikaanse rechtbank beval in juli te behouden in juli om te behouden in juli. Deze heersende gealarmeerde privacy-experts zoals Jay Edelson, die waarschuwde:”Het idee dat je een heleboel advocaten hebt die gaan doen wat ze zijn met enkele van de meest gevoelige gegevens op de planeet… moeten iedereen ongemakkelijk maken.”Velen voelen dat het evenwicht is uitgeschakeld, met Justin Brookman van consumentenrapporten en merken op:”Het idee van een agent is dat het namens mij werkt-niet om mij namens anderen te manipuleren.”
Een duidelijke scheiding: Stricter Privacy voor Enterprise-gebruikers
A Crucial Details In deze beleidsgebruikers is de Clear Rine en Enterprise-gebruikers. Anthropic explicitly states its new opt-out policy does not apply to its commercial offerings, including Claude for Work, Gov, Education, or its API customers.
This distinction is common across the industry. Bedrijven bieden een sterkere privacygaranties en data segregatie aan betalende zakelijke klanten, die gevoelige bedrijfsinformatie afhandelen en strengere controles eisen. Dit creëert een tweeledig systeem waarbij alledaagse gebruikers worden behandeld als een hulpbron voor modeltraining.
Naarmate AI meer geïntegreerd wordt in het dagelijks leven, zal deze kloof waarschijnlijk verder debat over eerlijkheid en toestemming voeden. Als een onderzoeker van de Universiteit van Oxford, Caroline Green, merkte op:”Er is een beetje een probleem als het gaat om AI-ontwikkeling, waarbij de ethiek en mensen een tweede gedachte zijn, in plaats van het uitgangspunt.”
Meta-woordvoerder Thomas Richards heeft de aanpak van zijn bedrijf verdedigd, die zijn ervaringen hebben om hun ervaring te beheren en te controleren en te controleren of te controleren en te zijn Juist voor hen,”maar voor velen vertellen de standaardinstellingen een ander verhaal.