Anthropic aktualisiert seine Datenschutzrichtlinie und macht es zum neuesten wichtigen KI-Entwickler, der standardmäßig Verbraucher-Chat-Daten für das Modelltraining für Modelltraining verwendet. Wenn das Unternehmen sofort für neue Benutzer beginnt und sich bei vorhandenen Benutzern bewerben, die sich bis zum 28. September nicht abmelden, wird es Gespräche aus seinen Claude-AI-Diensten behalten und analysiert, um zukünftige Modelle zu verbessern. Der Umzug intensiviert die laufende Debatte über die Privatsphäre und die Datenkontrolle des Benutzers im Rennen um leistungsfähigere KI und legt die Belastung für Personen, um aktiv zu verwalten, wie ihre persönlichen Daten verwendet werden. href=”https://www.anthropic.com/news/updates-to-consumer-terms”target=”_ leer”> explizit out . Für diejenigen, die zustimmen, erweitert Anthropic auch die Datenretentionsperiode von den letzten 30 Tagen auf fünf Jahre signifikant. Der Schritt, indem er erklärt, dass Daten aus realen Interaktionen entscheidende Einblicke in die nützlichsten und genauesten sind. Beispielsweise bietet ein Entwickler-Debugging-Code mit Claude wertvolle Signale, die die zukünftige Leistung des Modells bei ähnlichen Aufgaben verbessern. Es spiegelt einen breiteren Branchentrend wider, bei dem die Standarddatenerfassung zur Norm für Verbraucher-KI-Produkte geworden ist. Google hat kürzlich eine ähnliche Opt-out-Richtlinie für Gemini angekündigt, die am 2. September in Kraft treten soll. Ebenso erinnert die KI-App von Meta, die im April 2025 gestartet wurde, auch die Benutzer-Chats, um Antworten zu personalisieren, und es wurde festgestellt, dass sensible Details, die aus den Chats abgeleitet wurden, abgeleitet wurden. Präzedenzfälle montieren

Dieser branchenweite Drehpunkt wurde mit erheblichem Widerstand gegen Anwälte für Datenschutz aufgenommen und hat rechtliche Herausforderungen ausgelöst. Kritiker argumentieren, dass diese Opt-out-Systeme die Benutzer davon abhalten, ihre Daten zu schützen. Ben Winters der Verbraucherveration von Amerika bezeichnete solche Offenlegungen und Auswahlmöglichkeiten „Die Offenlegungen und Verbraucherentscheidungen in Bezug auf Datenschutzeinstellungen sind lächerlich schlecht. Im Januar 2025 wurde gegen LinkedIn eine Klassenklage eingereicht, in der sie vorgeworfen wurden, private Inmail-Nachrichten von Premium-Abonnenten zur Ausbildung von KI-Modellen zu verwenden, und angeblich gegen das Gesetz über gespeicherte Kommunikation verstoßen. Dieses Urteil alarmierte Datenschutz-Experten wie Jay Edelson, der warnte:”Die Idee, dass Sie eine Reihe von Anwälten haben, die alles tun werden, was sie mit einigen der sensibelsten Daten auf dem Planeten sind… sollte alle unruhig machen.”Viele sind der Meinung, dass das Gleichgewicht ausgeschaltet ist, und Justin Brookman von Verbraucherberichten bemerkt: „Die Idee eines Agenten ist, dass es in meinem Namen funktioniert-nicht darauf, mich im Namen anderer zu manipulieren.“ Anthropisch erklärt ausdrücklich seine neue Opt-out-Richtlinie gilt nicht für seine kommerziellen Angebote , einschließlich der Arbeit, die für die Arbeit, die Ausbildung in der Branche, oder die Branche. Unternehmen bieten für zahlende Geschäftskunden, die sensible Unternehmensinformationen bearbeiten und strengere Kontrollen erfordern, stärkere Datenschutzgarantien und Datensegregation an. Dies schafft ein zweistufiges System, in dem alltägliche Benutzer als Ressource für das Modelltraining behandelt werden. Wie ein Forscher der Universität von Oxford, Caroline Green, bemerkte: „Es gibt ein bisschen Probleme, wenn es um die KI-Entwicklung geht, bei der die Ethik und die Menschen ein zweiter Gedanke sind und nicht der Ausgangspunkt.”

Meta-Sprecher. Richtig für sie”Aber für viele erzählen die Standardeinstellungen eine andere Geschichte.

Categories: IT Info