Η Anthropic ενημερώνει την πολιτική απορρήτου, καθιστώντας την την τελευταία σημαντική προγραμματιστή της AI για να χρησιμοποιήσει τα δεδομένα συνομιλίας καταναλωτών για την κατάρτιση μοντέλων από προεπιλογή. Ξεκινώντας αμέσως για νέους χρήστες και υποβάλλοντας αίτηση σε υπάρχοντες χρήστες που δεν αποχωρούν μέχρι τις 28 Σεπτεμβρίου, η εταιρεία θα διατηρήσει και θα αναλύσει συνομιλίες από τις υπηρεσίες της CLAUDE AI για τη βελτίωση των μελλοντικών μοντέλων. Η κίνηση εντείνει τη συνεχιζόμενη συζήτηση σχετικά με την ιδιωτική ζωή των χρηστών και τον έλεγχο των δεδομένων στον αγώνα για πιο ισχυρό AI, τοποθετώντας το βάρος για τα άτομα να διαχειρίζονται ενεργά τον τρόπο με τον οποίο χρησιμοποιούνται τα προσωπικά τους στοιχεία. href=”https://www.anthropic.com/news/updates-to-our-consumer-terms”target=”_ blank”> explicital ept out . Για όσους συναινούν, ο Anthropic επεκτείνει επίσης σημαντικά την περίοδο διατήρησης των δεδομένων του, από τις προηγούμενες 30 ημέρες έως πέντε χρόνια. Τα δεδομένα από τις αλληλεπιδράσεις του πραγματικού κόσμου παρέχουν κρίσιμες γνώσεις στις οποίες οι απαντήσεις είναι πιο χρήσιμες και ακριβείς. Για παράδειγμα, ένας κώδικας εντοπισμού σφαλμάτων προγραμματιστή με το Claude προσφέρει πολύτιμα σήματα που βελτιώνουν τις μελλοντικές επιδόσεις του μοντέλου σε παρόμοια καθήκοντα. Αντικατοπτρίζει μια ευρύτερη τάση της βιομηχανίας, όπου η προεπιλεγμένη συλλογή δεδομένων έχει γίνει ο κανόνας για τα προϊόντα AI που αντιμετωπίζουν οι καταναλωτές. Η Google ανακοίνωσε πρόσφατα μια παρόμοια πολιτική εξαίρεσης για τους Gemini, που θα τεθεί σε ισχύ στις 2 Σεπτεμβρίου. Η πολιτική αυτή είναι παρόμοια ευρεία, καλύπτοντας αρχεία, φωτογραφίες, βίντεο, βίντεο και ακόμη και στιγμιότυπα με στιγμιότυπα που οι χρήστες κάνουν ερωτήσεις. Ομοίως, η εφαρμογή AI της Meta, που ξεκίνησε τον Απρίλιο του 2025, θυμάται επίσης τις συνομιλίες των χρηστών από προεπιλογή για να εξατομικεύσει τις απαντήσεις και βρέθηκε ότι καταγράφει ευαίσθητες λεπτομέρειες που συνάγονται από τις συνομιλίες. Τα νομικά προηγούμενα όρια
Αυτός ο άξονας σε ολόκληρο τον κλάδο έχει αντιμετωπιστεί με σημαντική αντίσταση από τους υποστηρικτές της ιδιωτικής ζωής και έχει προκαλέσει νομικές προκλήσεις. Οι επικριτές υποστηρίζουν ότι αυτά τα συστήματα εξαίρεσης έχουν σχεδιαστεί για να αποθαρρύνουν τους χρήστες από την προστασία των δεδομένων τους. Ο Ben Winters της Ομοσπονδίας Καταναλωτών της Αμερικής ονομάζεται τέτοιες γνωστοποιήσεις και επιλογές”Οι αποκαλύψεις και οι επιλογές των καταναλωτών γύρω από τις ρυθμίσεις απορρήτου είναι γελοία κακές.”Τον Ιανουάριο του 2025, κατατέθηκε μια αγωγή κατηγορίας-δράσης εναντίον του LinkedIn, κατηγορώντας την για τη χρήση ιδιωτικών μηνυμάτων inmail από τους συνδρομητές premium για να εκπαιδεύσει τα μοντέλα AI, φέρεται να παραβιάζει τους αποθηκευμένους νόμους περί επικοινωνίας. Αυτός ο κυβερνώντος ανησυχούν εμπειρογνώμονες για την προστασία της ιδιωτικής ζωής όπως ο Jay Edelson, ο οποίος προειδοποίησε:”Η ιδέα ότι έχετε μια δέσμη δικηγόρων που πρόκειται να κάνουν ό, τι είναι με ορισμένα από τα πιο ευαίσθητα δεδομένα για τον πλανήτη… θα πρέπει να κάνουν όλοι ανήσυχοι”. Πολλοί αισθάνονται ότι η ισορροπία είναι απενεργοποιημένη, με τον Justin Brookman των αναφορών καταναλωτών να σημειώνουν:”Η ιδέα ενός πράκτορα είναι ότι εργάζεται για λογαριασμό μου-όχι για να προσπαθήσει να με χειριστεί σε αυτές τις μετατοπίσεις των άλλων.”Ο Anthropic δηλώνει ρητά τη νέα πολιτική εξαίρεσης του δεν ισχύει για τις εμπορικές προσφορές του Οι εταιρείες προσφέρουν ισχυρότερες εγγυήσεις απορρήτου και διαχωρισμό δεδομένων για την πληρωμή επιχειρηματικών πελατών, οι οποίοι χειρίζονται ευαίσθητες εταιρικές πληροφορίες και απαιτούν αυστηρότερους ελέγχους. Αυτό δημιουργεί ένα σύστημα δύο επιπέδων όπου οι καθημερινοί χρήστες αντιμετωπίζονται ως πόρος για την κατάρτιση μοντέλων.
Καθώς το AI γίνεται πιο ενσωματωμένο στην καθημερινή ζωή, αυτό το χάσμα πιθανότατα θα τροφοδοτήσει περαιτέρω συζήτηση σχετικά με τη δικαιοσύνη και τη συγκατάθεση. Ως ένας ερευνητής από το Πανεπιστήμιο της Οξφόρδης, Caroline Green, σημείωσε:”Υπάρχει ένα κομμάτι ενός προβλήματος όταν πρόκειται για την ανάπτυξη του AI, όπου η ηθική και οι άνθρωποι είναι μια δεύτερη σκέψη, αντί για το σημείο εκκίνησης. Δικαίωμα για αυτούς,”Αλλά για πολλούς, οι προεπιλεγμένες ρυθμίσεις λένε μια διαφορετική ιστορία.