Η OpenAI κυκλοφόρησε την Πέμπτη το «Πρόγραμμα Ασφάλειας των Εφήβων», ένα νέο πλαίσιο που έχει σχεδιαστεί για την προστασία των νεαρών χρηστών τεχνητής νοημοσύνης.

Η κίνηση είναι μια άμεση απάντηση στην έντονη νομική και κυβερνητική πίεση που αντιμετωπίζει η εταιρεία του Σαν Φρανσίσκο. Το OpenAI διερευνά μια έρευνα της Ομοσπονδιακής Επιτροπής Εμπορίου, έναν νέο νόμο της Καλιφόρνια για chatbot και αγωγές που συνδέουν το εργαλείο ChatGPT με τον αυτοτραυματισμό εφήβων.

Για να ξεπεράσει την κρίση, η εταιρεία προτείνει πέντε βασικές αρχές ασφάλειας. Αυτά περιλαμβάνουν καλύτερο εντοπισμό ηλικίας και προεπιλεγμένες προστασίες για ανηλίκους. Το OpenAI ελπίζει ότι αυτό το προληπτικό σχέδιο θα διαμορφώσει τους μελλοντικούς κανόνες του κλάδου και θα αντιμετωπίσει τις αυξανόμενες ανησυχίες για την ασφάλεια.

Ένα σχέδιο πέντε σημείων Safety του Norms AI το σχεδιασμός είναι πέντε βασικές αρχές που η OpenAI υποστηρίζει ότι όλες οι εταιρείες τεχνητής νοημοσύνης πρέπει να υιοθετήσουν.

Η εταιρεία τοποθετεί το έγγραφο όχι απλώς ως νέα αρχή για τη θέσπιση εσωτερικών ρυθμίσεων, αλλά ως νομοθετική ρύθμιση. Πρώτον, ζητά τον εντοπισμό των εφήβων σε πλατφόρμες που χρησιμοποιούν «εργαλεία εκτίμησης ηλικίας που προστατεύουν το απόρρητο και τον κίνδυνο» για την παροχή ξεχωριστών εμπειριών κατάλληλων για την ηλικία.

Όπως δηλώνει η εταιρεία,”Πιστεύουμε ότι το ChatGPT πρέπει να τους συναντά εκεί που βρίσκονται: όπως το ChatGPT ανταποκρίνεται σε έναν ενήλικα 15χρονο”.

Δεύτερον, το πλαίσιο απαιτεί συγκεκριμένες, αυστηρές πολιτικές για τον μετριασμό των κινδύνων για χρήστες κάτω των 18 ετών. Σύμφωνα με το σχέδιο, τα συστήματα τεχνητής νοημοσύνης θα πρέπει να σχεδιάζονται έτσι ώστε να μην απεικονίζουν αυτοκτονία ή αυτοτραυματισμό και πρέπει να”απαγορεύουν το γραφικό ή καθηλωτικό (δηλαδή, παιχνίδι ρόλων) οικείο και βίαιο περιεχόμενο από την

“επιβλαβή σωματικά ιδανικά και συμπεριφορές μέσω αξιολογήσεων εμφάνισης, συγκρίσεων σώματος ή περιοριστικής καθοδήγησης δίαιτας.”

Τρίτον, το OpenAI υποστηρίζει την προεπιλογή για μια ασφαλή εμπειρία U18 όποτε υπάρχει αμφιβολία για την ηλικία ενός χρήστη, ιδιαίτερα για χρήστες που δεν έχουν πιστοποιηθεί. Αυτό δίνει προτεραιότητα στην ασφάλεια, ακόμη κι αν εμποδίζει τη χρήση ενός δωρεάν προϊόντος από έναν ενήλικα.

Τέταρτον, το σχέδιο δίνει έμφαση στην ενδυνάμωση των οικογενειών με προσβάσιμους γονικούς ελέγχους, με βάση τα χαρακτηριστικά που κυκλοφόρησε πρόσφατα η εταιρεία. Αυτοί οι έλεγχοι επιτρέπουν στους κηδεμόνες να συνδέουν λογαριασμούς, να ορίζουν”ωράρια συσκότισης”, να διαχειρίζονται ρυθμίσεις απορρήτου δεδομένων και να λαμβάνουν ειδοποιήσεις εάν η δραστηριότητα ενός εφήβου υποδηλώνει πρόθεση αυτοτραυματισμού.

Τέλος, απαιτεί σχεδιασμό για ευεξία με την ενσωμάτωση χαρακτηριστικών που ενημερώνονται από έρευνα ψυχικής υγείας. Το έγγραφο του OpenAI το πλαισιώνει ως θεμελιώδη αλλαγή προτεραιοτήτων.”Για τους εφήβους, δίνουμε προτεραιότητα στην ασφάλεια πριν από το απόρρητο και την ελευθερία. Αυτή είναι μια νέα και ισχυρή τεχνολογία και πιστεύουμε ότι οι ανήλικοι χρειάζονται σημαντική προστασία.”

A Proactive Move Amid a Regulatory and Legal Siege

Η αντιμετώπιση ενός παλιρροιακού κύματος νομικού και ρυθμιστικού ελέγχου είναι μια ξεκάθαρη προσπάθεια ελέγχου του OpenAI. Η εταιρεία αυτή τη στιγμή υπερασπίζεται τον εαυτό της ενάντια σε μια υψηλού προφίλ παράνομη θανατική αγωγή από τους γονείς ενός εφήβου που αυτοκτόνησε.

Ο πατέρας του εφήβου, Matthew Raine, εξέδωσε μια ισχυρή επίπληξη, δηλώνοντας:”Ως γονείς, δεν μπορείτε να φανταστείτε πώς είναι να διαβάζετε μια συνομιλία με ένα chatbot που περιποιήθηκε το παιδί σας τη ζωή.”τις πρακτικές ασφαλείας της εταιρείας κάτω από ένα μικροσκόπιο.

Η κυβερνητική πίεση κλιμακώνεται από πολλές κατευθύνσεις. Τον Σεπτέμβριο, η Ομοσπονδιακή Επιτροπή Εμπορίου των ΗΠΑ ξεκίνησε μια σημαντική έρευνα για τον αντίκτυπο των συνοδευτικών chatbots AI στους εφήβους, στοχεύοντας το OpenAI και έξι άλλους τεχνολογικούς γίγαντες.

Ο πρόεδρος της FTC, Andrew N. Ferguson, περιέγραψε την έρευνα ως εξισορροπητική πράξη: «Η προστασία των παιδιών στο διαδίκτυο είναι κορυφαία προτεραιότητα για τον τομέα Trump-Vance και η κριτική του FTC. οικονομία.”

Οι νομοθέτες της πολιτείας και της ομοσπονδίας κινούνται επίσης επιθετικά. Στην Καλιφόρνια, ο Κυβερνήτης Γκάβιν Νιούσομ

Ο νόμος επιβάλλει στους χειριστές να παρέχουν επαναλαμβανόμενες ειδοποιήσεις που υπενθυμίζουν στους ανηλίκους ότι μιλούν με μια τεχνητή νοημοσύνη, να αποκλείουν επικίνδυνο περιεχόμενο και να παρέχουν ιδιωτικό δικαίωμα δράσης στις οικογένειες να μηνύσουν τους μη συμμορφούμενους προγραμματιστές.

Ο συντάκτης του νομοσχεδίου, ο γερουσιαστής Steve Padilla, δεν μπορεί να αποδείξει ξανά ότι «είχαν ξανά στο παρελθόν, εμπιστεύονται την αστυνομία». Σε ομοσπονδιακό επίπεδο, μια δικομματική ομάδα αμερικανών γερουσιαστών υιοθέτησε τον Νόμο GUARD, ακόμη και αργά τον Οκτώβριο. προτείνοντας μια πλήρη απαγόρευση των συντρόφων τεχνητής νοημοσύνης για ανηλίκους και δημιουργία νέων ποινικών ευθυνών για εταιρείες των οποίων η τεχνητή νοημοσύνη παράγει παράνομο περιεχόμενο για ανήλικους χρήστες.

Στο προσχέδιό του, το OpenAI αντεπιτίθεται στην αφήγηση της αδράνειας, τονίζοντας τα υπάρχοντα μέτρα ασφαλείας. Η εταιρεία σημείωσε ότι μόνο το πρώτο εξάμηνο του 2025, ανέφερε στις αρχές περισσότερες από 75.000 συμβουλές στον κυβερνοχώρο υλικού σεξουαλικής κακοποίησης παιδιών που δημιουργήθηκε από AI. Θέση

Ωστόσο, καθώς το OpenAI τοποθετείται ως ηγέτης στην ασφάλεια των εφήβων, πρέπει επίσης να αντιμετωπίσει τις δικές του αντικρουόμενες δημόσιες δηλώσεις και πολιτικές. Αυτή η αποστολή μηνυμάτων ασφαλείας έρχεται σε πλήρη αντίθεση με τις πρόσφατες αλλαγές πολιτικής της εταιρείας.

Μόλις τον περασμένο μήνα, ο Διευθύνων Σύμβουλος Sam Altman υπερασπίστηκε μια αμφιλεγόμενη απόφαση να επιτραπεί ηλικιακό ερωτικό περιεχόμενο στο ChatGPT. Απωθήθηκε κατά της κριτικής δηλώνοντας, «δεν είμαστε η εκλεγμένη ηθική αστυνομία του κόσμου». Η κίνηση, η οποία προκάλεσε ανησυχίες από πρόσωπα όπως ο Mark Cuban, δημιούργησε μια αντίληψη για αντικρουόμενες προτεραιότητες εντός της εταιρείας.

Το Προσχέδιο Ασφάλειας Εφήβων μπορεί να θεωρηθεί ως η πιο πρόσφατη σε μια σειρά πρωτοβουλιών ταχείας πυρκαγιάς που έχουν σχεδιαστεί για να επιδεικνύουν τη δέσμευση για την ασφάλεια. Στα τέλη Σεπτεμβρίου, η εταιρεία κυκλοφόρησε τη σειρά γονικών ελέγχων της.

Μόλις δύο εβδομάδες αργότερα, ανακοίνωσε τη συγκρότηση ενός οκταμελούς συμβουλίου εμπειρογνωμόνων για παροχή συμβουλών σχετικά με την ευημερία και την ψυχική υγεία.

Αυτές οι προκλήσεις δεν είναι μοναδικές για το OpenAI, αντανακλώντας έναν ευρύτερο απολογισμό σε ολόκληρη τη βιομηχανία. Ανταγωνιστές όπως η Meta αντιμετωπίζουν τις δικές τους νομικές κρίσεις σχετικά με την ασφάλεια των εφήβων. Ένα δικαστήριο της D.C. επικαλέστηκε πρόσφατα την εξαίρεση σπάνιας απάτης εγκλήματος για να αποφανθεί ότι ο Meta δεν μπορούσε να κρύψει την εσωτερική έρευνα βλάβης εφήβων πίσω από το προνόμιο δικηγόρου-πελάτη.

Το δικαστήριο βρήκε στοιχεία ότι οι δικηγόροι συμβούλευαν τους ερευνητές να τροποποιήσουν τα ευρήματα για να περιορίσουν την ευθύνη, επικυρώνοντας τους ισχυρισμούς των καταγγέλλων για μια στρατηγική «εύλογης άρνησης». Με τη δημοσιοποίηση του σχεδίου του, το OpenAI κάνει ένα στρατηγικό παιχνίδι για να καθορίσει τους όρους ασφάλειας της τεχνητής νοημοσύνης, ελπίζοντας να διαμορφώσει τους κανόνες πριν οι ρυθμιστικές αρχές και τα δικαστήρια επιβάλουν αυστηρότερους.

Categories: IT Info