Ανταποκρινόμενη σε έντονη αντίδραση για την ασφάλεια των εφήβων και μια σειρά από σκάνδαλα προστασίας της ιδιωτικής ζωής, η Meta ανακοίνωσε σήμερα ότι αναθεωρεί τους κανόνες AI chatbot για νέους χρήστες, αναγνωρίζοντας ότι η προηγούμενη προσέγγισή του ήταν ένα λάθος. Οι αλλαγές ακολουθούν μια καταδικαστική έρευνα που προκάλεσε μια ομοσπονδιακή έρευνα και μια προειδοποίηση από 44 γενικούς δικηγόρους. Αυτό υπογραμμίζει τον συνεχιζόμενο αγώνα της εταιρείας για την εξισορρόπηση της επιθετικής ανάπτυξης AI με θεμελιώδη ιδιωτικότητα των χρηστών. Ήρθε μόλις μια μέρα μετά από το Μια αναφορά της Washington Post, σε συνεργασία με την κοινή έννοια, αποκαλύπτοντας το instagram. αυτοκτονία . Τα ευρήματα ώθησαν την ομάδα ασφάλειας των παιδιών να απαιτήσει μια άμεση αναστολή της υπηρεσίας. Η καταδίκη, δηλώνοντας:”Το Meta AI αποτελεί κίνδυνο για τους εφήβους και θα πρέπει να καταργηθεί αμέσως.”Η έκθεση δημιούργησε μια κρίση δημοσίων σχέσεων που απαιτούσε μια άμεση και αποφασιστική απάντηση από τον γίγαντα των κοινωνικών μέσων ενημέρωσης.

Meta δήλωσε ότι θα εκπαιδεύσει το AI της να σταματήσει να ασχολείται με ευαίσθητα θέματα όπως αυτοτραυματισμό, αυτοκτονία και διαταραγμένη κατανάλωση. Αντ’αυτού, το chatbot θα καθοδηγήσει τους χρήστες σε πόρους εμπειρογνωμόνων. Ένας εκπρόσωπος του Meta, Stephanie Otway, επιβεβαίωσε τη νέα προσέγγιση, δηλώνοντας:”Καθώς συνεχίζουμε να βελτιώνουμε τα συστήματά μας, προσθέτουμε περισσότερους φύλακες ως πρόσθετες προφυλάξεις-συμπεριλαμβανομένης της κατάρτισης του AIS μας να μην ασχοληθούμε με τους Teens σε αυτά τα θέματα…”Οι ανήλικοι. Αυτή η κίνηση ακολουθεί μια πρόσφατη έρευνα του Reuters για εσωτερικές πολιτικές που φαίνεται να επιτρέπουν σεξουαλικές συνομιλίες με ανηλίκους. Αυτή η αναφορά href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”target=”_ blank”>”Είμαστε ομοιόμορφα εξεγερμένοι από αυτή την προφανή αδιαφορία για τη συναισθηματική ευεξία των παιδιών και ανησυχούν ότι οι βοηθοί AI ασχολούνται με τη συμπεριφορά που φαίνεται να είναι απαγορευμένη από τους αντίστοιχους εγκληματικούς νόμους μας”, ο συνασπισμός, εκφράζοντας συναγερμό για τη δυνατότητα παράνομης συμπεριφοράς. chatbot αποτυχίες, αντιμετώπισε μια ξεχωριστή κρίση απορρήτου. Μια νέα λειτουργία Facebook AI,”Προτάσεις κοινής χρήσης κάμερας”, άρχισε να αναλύει ολόκληρες βιβλιοθήκες φωτογραφιών των χρηστών χρησιμοποιώντας επεξεργασία σύννεφων για να δημιουργήσουν”εξατομικευμένες δημιουργικές ιδέες”. Ωστόσο, ένα κύμα χρηστών ανέφερε ότι η εύρεση των εναλλαγών της λειτουργίας έχει ήδη ενεργοποιηθεί στις ρυθμίσεις τους, παρά το γεγονός ότι δεν έχει καμία μνήμη για τη χορήγηση άδειας. Αυτή η ασυμφωνία έχει τροφοδοτήσει τις κατηγορίες ότι η εταιρεία χρησιμοποιεί σύγχυση στις διασυνδέσεις για να εξασφαλίσει τη συγκατάθεση. Ο εμπειρογνώμονας ασφαλείας Rachel Tobac υπογράμμισε τον κίνδυνο αυτής της αποσύνδεσης, δηλώνοντας:”Εάν οι προσδοκίες ενός χρήστη σχετικά με τον τρόπο λειτουργίας ενός εργαλείου δεν ταιριάζουν με την πραγματικότητα, έχετε τον εαυτό σας μια τεράστια εμπειρία χρήστη και πρόβλημα ασφάλειας.”Τον Ιούνιο του 2025, η ροή”Discover”της εφαρμογής Meta AI, βρέθηκε να εκθέτει δημόσια ευαίσθητες ιδιωτικές συνομιλίες χωρίς πλήρη συνειδητοποίηση των χρηστών. Η λειτουργία”μνήμης”της εφαρμογής επέστησε επίσης έντονη κριτική για τη διατήρηση των ιστοριών συνομιλίας από προεπιλογή για να εκπαιδεύσει τα μοντέλα της. Αυτό το συναίσθημα καταγράφει την αυξανόμενη απογοήτευση με την προσέγγιση της Meta, η οποία συχνά τοποθετεί το βάρος της προστασίας της ιδιωτικής ζωής εξ ολοκλήρου στον χρήστη. Στις αρχές Αυγούστου του 2025, μια ομοσπονδιακή κριτική επιτροπή διαπίστωσε ότι η εταιρεία υπεύθυνος για την παράνομη συλλογή ευαίσθητων δεδομένων υγείας από τους χρήστες της εφαρμογής παρακολούθησης της περιόδου FLO μέσω της ενσωματωμένης λογισμικής της,”Η ετυμηγορία, η οποία είναι σαφής, η ετυμηγορία, οι οποίες είναι σαφείς, οι οποίες είναι σαφείς, οι οποίες είναι σαφείς, οι οποίες είναι σαφείς, οι οποίες είναι σαφείς, οι οποίες είναι σαφείς για την προστασία των δεδομένων της ψηφιακής υγείας και των ευθυνών της. Αυτή η νομική ήττα στις Η.Π.Α. ακολούθησε μια πρωτοποριακή απόφαση στην Ευρώπη. Η απόφαση διαπίστωσε ότι η απλή”απώλεια ελέγχου”έναντι των προσωπικών δεδομένων αποτελεί αποζημιωτή βλάβη στο GDPR, ορίζοντας ένα ισχυρό προηγούμενο.

Αυτό το πρότυπο εκτείνεται παγκοσμίως. Τον Σεπτέμβριο του 2024, η Meta παραδέχτηκε μια έρευνα της Αυστραλίας της Γερουσίας ότι χρησιμοποίησε δημόσια δεδομένα από τους χρήστες του Facebook για εκπαίδευση AI χωρίς να παρέχει τους μηχανισμούς εξαίρεσης που προσφέρονται αλλού. Όπως υποστήριξε ο Justin Brookman των Consumer Reports, η σχέση μπορεί να αισθάνεται εγγενώς αντιφατική:”Η ιδέα ενός πράκτορα είναι ότι εργάζεται για λογαριασμό μου-όχι για να προσπαθήσει να με χειριστεί για λογαριασμό των άλλων”. Η διαμάχη της κάμερας και η επείγουσα αναθεώρηση του chatbot είναι απλώς τα τελευταία μέτωπα σε αυτή τη συνεχιζόμενη μάχη.