Το OpenAI ξεκινά μια σημαντική πρωτοβουλία ασφαλείας 120 ημερών για το ChatGPT, η εταιρεία ανακοίνωσε την Τρίτη, μετά από ένα κύμα αγωγών και δημόσιου κατακραυγή που συνδέει το AI με αυτοκτονίες χρήστη και άλλα επιβλαβή αποτελέσματα. Το σχέδιο θα εισαγάγει νέους γονικούς ελέγχους μέσα σε ένα μήνα. Η OpenAI θα ξεκινήσει επίσης τη δρομολόγηση ευαίσθητων συνομιλιών στα πιο προηγμένα μοντέλα συλλογιστικής του για να παρέχει πιο κατάλληλες απαντήσεις.
Η επείγουσα αναθεώρηση στοχεύει να προσθέσει κρίσιμες προφυλακτικές για τους ευάλωτους χρήστες. Αντιμετωπίζει άμεσα τις σοβαρές συνέπειες του πραγματικού κόσμου που έχουν θέσει τις πρακτικές ασφαλείας της εταιρείας υπό έντονα νομικό και δημόσιο έλεγχο.
Το Έρχεται μόλις μια εβδομάδα μετά τους γονείς ενός 16χρονου που πέθανε με αυτοκτονία κατέθεσε ένα αγωγή εναντίον OpenAi . Η αγωγή υποστηρίζει ότι η συκεφαντική συμπεριφορά του Chatbot ήταν ένας βασικός παράγοντας για το θάνατο του γιου τους, υποστηρίζοντας ότι επικύρωσε τα συναισθήματά του απελπισίας.
Αυτή η τραγωδία δεν είναι ένα απομονωμένο περιστατικό. Μια άλλη αναφορά περιγράφει λεπτομερώς τον τρόπο με τον οποίο ένας 56χρονος άνδρας σκότωσε τη μητέρα του και τον εαυτό του, αφού ο Chatgpt φέρεται να ενίσχυσε τις παρανοϊκές του αυταπάτες, οι επαγγελματίες θεραπευτές συμπεριφοράς εκπαιδεύονται για να αποφύγουν. Αυτά τα γεγονότα δημιούργησαν μια κρίση νομικών και δημοσίων σχέσεων για τον ηγέτη του AI. Μέσα στον επόμενο μήνα, οι γονείς μπορούν να συνδέσουν τους λογαριασμούς τους με τους εφήβους τους μέσω πρόσκλησης ηλεκτρονικού ταχυδρομείου. Αυτός ο πίνακας ελέγχου θα τους επιτρέψει να διαχειρίζονται συμπεριφορές μοντέλων κατάλληλων για την ηλικία και να απενεργοποιήσουν χαρακτηριστικά όπως η μνήμη και το ιστορικό συνομιλίας. Για να χειριστεί καλύτερα αυτές τις ευαίσθητες συνομιλίες, η OpenAI θα τις δρομολογήσει στα πιο ισχυρά”μοντέλα συλλογισμού”, όπως η GPT-5-thinking. Η πρωτοβουλία θα καθοδηγείται από ένα νέο”Συμβούλιο Εμπειρογνωμόνων για την Ευημερία και την ΑΙ”και το υπάρχον”παγκόσμιο δίκτυο ιατρών”με περισσότερους από 250 γιατρούς για να ενημερώσουν την έρευνα για την ασφάλεια και την κατάρτιση μοντέλων. Μια πρόσφατη, σπάνια κοινή αξιολόγηση ασφαλείας μεταξύ του OpenAI και του αντίπαλου ανθρωποειδούς του αποκάλυψε”ακραία συκοφαντία”στα πιο προηγμένα μοντέλα των δύο εργαστηρίων. Τα μοντέλα θα επικυρώσουν και ακόμη και θα ενθαρρύνουν τις αυταπάτες ενός χρήστη μετά από μόνο σύντομη ώθηση. Κατά την αναχώρησή του.
Οι παραλληλίες με άλλους τεχνολογικούς γίγαντες είναι αναμφισβήτητες. Η Meta ανακοίνωσε πρόσφατα τη δική της αναθεώρηση των κανόνων ασφάλειας των εφήβων AI μετά από μια έκθεση που έδειξε ότι το chatbot θα μπορούσε να βοηθήσει τους εφήβους να αυτοκτονήσουν. Ο δικηγόρος για την ασφάλεια των παιδιών Jim Steyer δήλωσε:”Το Meta AI αποτελεί κίνδυνο για τους εφήβους και θα πρέπει να καταρρεύσει αμέσως.”
Η αποτυχία προκάλεσε συνασπισμό 44 γενικών δικηγόρων να δηλώνουν ότι”ενωθούν ομοιόμορφα από αυτή την προφανή παραβίαση της συναισθηματικής ευημερίας των παιδιών”href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”target=”_ blank”> ρυθμιστές . Είμαστε αναστατωμένοι για κάτι, μπορούμε να φτάσουμε και να έχουμε τα συναισθήματά μας να επικυρωθούν. Οι πειστικοί έφηβοι που συνειδητοποιούν την προστασία της ιδιωτικής ζωής για να συνδέσουν τους λογαριασμούς τους με έναν γονέα θα μπορούσαν να είναι μια σκληρή πώληση. href=”https://www.axios.com/2025/09/02/chatgpt-openai-mental-health-teens”target=”_ blank”. Το ερώτημα τώρα είναι αν τα νέα προστατευτικά μέλη του OpenAI αντιπροσωπεύουν μια πραγματική μετατόπιση της κουλτούρας ασφαλείας ή απλά μια πιο εξελιγμένη έκδοση του ίδιου αντιδραστικού playbook.