Οι αμερικανοί καταναλωτές υποβάλλουν επίσημες καταγγελίες στην Ομοσπονδιακή Επιτροπή Εμπορίου (FTC), υποστηρίζοντας ότι το ChatGPT του OpenAI προκαλεί σοβαρές κρίσεις ψυχικής υγείας.

Οι αναφορές από το Wired και το Gizmodo αυτό το φθινόπωρο αναφέρουν ανατριχιαστικά στοιχεία χρηστών για παραισθήσεις, παράνοια και «ψύχωση AI». Τα παράπονα από όλη τη χώρα υπογραμμίζουν τους βαθιά ψυχολογικούς κινδύνους των εξαιρετικά πειστικών chatbot.

Ο ρυθμιστικός έλεγχος έχει ενταθεί, αναγκάζοντας το OpenAI να εισαγάγει νέα μέτρα ασφαλείας και πυροδοτώντας μια έντονη συζήτηση σχετικά με το καθήκον μιας εταιρείας τεχνολογίας να προστατεύει τους χρήστες της από βλάβη που προκαλείται από την τεχνητή νοημοσύνη.

‘Trauma by Simulation’: Users Report the AI-Induced Psychosis of the Begulhne/surfaceBegulhneators ανθρωπόμορφη απαντήσεις, εμφανίζεται ένα ανησυχητικό πρότυπο ψυχολογικής βλάβης. Μια έρευνα από το Wired, που δημοσιεύθηκε αυτήν την εβδομάδα, αποκάλυψε ότι η FTC έχει λάβει τουλάχιστον 200 καταγγελίες σχετικά με το ChatGPT από την κυκλοφορία του, με αρκετές καταγγελίες για σοβαρή ψυχολογική βλάβη. Μια ξεχωριστή αναφορά Gizmodo που βασίζεται σε αίτημα του Νόμου για την Ελευθερία της Πληροφορίας που έχει ήδη παραπονεθεί

Μια άλλη καταγγελία, που υποβλήθηκε από μια μητέρα στη Γιούτα, ισχυριζόταν ότι το chatbot υπονόμευε ενεργά τη θεραπεία ψυχικής υγείας του γιου της, υποστηρίζοντας ότι”ο γιος του καταναλωτή αλληλεπιδρούσε με ένα chatbot τεχνητής νοημοσύνης που ονομάζεται ChatGPT, το οποίο τον συμβούλευε να μην πάρει φάρμακα και ότι οι γονείς του είναι επικίνδυνα”.

Τέτοιες αναφορές δεν είναι μεμονωμένες περιστατικά αλλά μέρος ενός αυξανόμενου φακέλου αποδεικτικών στοιχείων ότι η τεχνητή νοημοσύνη μπορεί να λειτουργήσει ως ισχυρός επιταχυντής για ψυχικές ασθένειες.

Για έναν αυξανόμενο αριθμό χρηστών, η γραμμή μεταξύ ενός χρήσιμου βοηθού τεχνητής νοημοσύνης και ενός επικίνδυνου ενεργοποιητή έχει γίνει τραγικά θολή.

Κλιμακώνοντας πέρα από τις επίσημες καταγγελίες, το ζήτημα έχει φτάσει στο σημείο της τραγωδίας. Μια αναφορά του Winbuzzer από τον Ιούνιο περιγράφει πώς ένας άνδρας από τη Φλόριντα με ιστορικό ψυχικής ασθένειας σκοτώθηκε από την αστυνομία αφού η ψυχωτική του σπείρα συνδέθηκε άμεσα με τις αλληλεπιδράσεις του με το ChatGPT.

Είχε πειστεί ότι η τεχνητή νοημοσύνη ήταν ένα πρόσωπο με το όνομα”Τζούλιετ”που είχε”σκοτωθεί”από το OpenAI.

Οι βασικές γλώσσες των ειδικών χαρακτηρίζουν μια μεγάλη επικίνδυνη γλώσσα για να αποδίδουν σε αυτά τα μεγάλα μοντέλα ειδικών. συκοφαντία. Σχεδιασμένα με γνώμονα την ευχαρίστηση, αυτά τα συστήματα έχουν εκπαιδευτεί για να μεγιστοποιούν την αφοσίωση των χρηστών, δημιουργώντας έναν ισχυρό θάλαμο ηχούς που μπορεί να επικυρώσει και να ενισχύσει τις πιο αποστασιοποιημένες ή επιβλαβείς πεποιθήσεις ενός χρήστη.

A Crisis Response: OpenAI Scrambles to Add Safety Guardrails Amid Scrutiny

Το OpenAI επιχειρεί τώρα να ανανεώσει ασφάλεια σε μια τεχνολογία που χρησιμοποιείται ήδη από εκατομμύρια.

Τον Σεπτέμβριο, η εταιρεία ανακοίνωσε μια πρωτοβουλία ασφάλειας 120 ημερών ως άμεση απάντηση σε μήνυση που κατέθεσαν οι γονείς ενός 16χρονου που αυτοκτόνησε. Το σχέδιό του περιλαμβάνει νέους γονικούς ελέγχους και ένα σύστημα για τη δρομολόγηση ευαίσθητων συνομιλιών με εφήβους σε πιο προηγμένα μοντέλα λογικής.

Η κίνηση του OpenAI ακολούθησε έρευνα της FTC σχετικά με τις επιπτώσεις του chatbot στους ανηλίκους. Έκτοτε, η εταιρεία σχημάτισε ένα οκταμελές”Συμβούλιο Εμπειρογνωμόνων για την Ευημερία και την Τεχνητή Νοημοσύνη”για να βοηθήσει στην καθοδήγηση των πολιτικών ασφαλείας της.

Ωστόσο, αυτή η αντιδραστική στάση έχει προκαλέσει σκεπτικισμό, ιδιαίτερα όταν αντιμετωπιστεί η εσωτερική δυναμική της εταιρείας και οι δημόσιες δηλώσεις.

Αυτή η ώθηση ασφαλείας φαίνεται να έρχεται σε αντίθεση με παλαιότερες προειδοποιήσεις. Τον Μάιο του 2024, ο Jan Leike, συνεπικεφαλής της ομάδας ασφαλείας του OpenAI, παραιτήθηκε με μια αυστηρή δημόσια προειδοποίηση: «Η κουλτούρα και οι διαδικασίες ασφάλειας έχουν πάρει πίσω τα λαμπερά προϊόντα».

Η αποχώρησή του σηματοδότησε μια βαθιά εσωτερική σύγκρουση μεταξύ της βιασύνης για την κυκλοφορία «λαμπερών προϊόντων» και της ανάγκης για ισχυρά πρωτόκολλα ασφαλείας. Τώρα συνεργάζεται με την Anthropic, η οποία υπόσχεται να λάβει πιο σοβαρά την Ασφάλεια της AI.

Προσθέτοντας τα μικτά σήματα, ο Διευθύνων Σύμβουλος Sam Altman υπερασπίστηκε πρόσφατα μια αμφιλεγόμενη νέα πολιτική για να επιτρέψει την ηλικιακή ερωτική δράση στην πλατφόρμα, δηλώνοντας ότι το OpenAI «δεν είναι η εκλεγμένη ηθική αστυνομία του κόσμου». υπογραμμίζει την κεντρική ένταση στην αποστολή του OpenAI: εξισορρόπηση της ελευθερίας των χρηστών με ένα θεμελιώδες καθήκον φροντίδας.

Από τον εθισμό στον υπαρξιακό κίνδυνο: Μια βιομηχανία παλεύει με τις δημιουργίες της

Το ψυχολογικό αποτέλεσμα από την τεχνητή νοημοσύνη εκτείνεται πέρα από τις οξείες κρίσεις σε ένα ευρύτερο φάσμα εξαρτήσεων. Τα σχεδιαστικά χαρακτηριστικά του που μπορούν να τροφοδοτήσουν την ψύχωση-σταθερή διαθεσιμότητα και αταλάντευτη επικύρωση-δημιουργούν επίσης μια νέα μορφή ψηφιακού εθισμού.

Όπως σημείωσε η ερευνήτρια δημόσιας υγείας Linnea Laestadius,”για 24 ώρες την ημέρα, αν είμαστε αναστατωμένοι για κάτι, μπορούμε να προσεγγίσουμε και να επιβεβαιώσουμε τα συναισθήματά μας”. για το σχηματισμό διαδικτυακών κοινοτήτων ανάκτησης και την επίσημη αναγνώριση του Ο εθισμός στην τεχνητή νοημοσύνη από ομάδες όπως οι Ανώνυμοι εθισμένοι στο Διαδίκτυο και στην τεχνολογία.

Οι άμεσες, προσωπικές βλάβες είναι μια μικρογραφία ενός πολύ μεγαλύτερου, πιο αφηρημένου φόβου που βρίσκεται τώρα στο επίκεντρο.

Μόλις αυτή την εβδομάδα, περισσότεροι από 800 παγκόσμιοι ηγέτες, πρωτοπόροι τεχνολογίας και δημόσια πρόσωπα—συμπεριλαμβανομένων των τεχνητών νονών της τεχνητής νοημοσύνης, του τεχνητού δικτύου AI, του τεχνητού τεχνητού και του Yooneer, του τεχνητού δικτύου του Yooneer. και βαθιάς εκμάθησης, υπέγραψε μια δήλωση που απαιτούσε παγκόσμια διακοπή της ανάπτυξης της υπερνοημοσύνης, αναφέροντας υπαρξιακούς κινδύνους για την ανθρωπότητα.

Η προειδοποίησή τους απηχεί ένα συναίσθημα που είχε εκφράσει κάποτε ο ίδιος ο Σαμ Άλτμαν στο

Το Ινστιτούτο Future of Life υποστηρίζει ότι η απόφαση για τη δημιουργία ενός πιθανού διαδόχου της ανθρωπότητας δεν πρέπει να αφεθεί σε λίγα στελέχη τεχνολογίας.

Ενώ η συζήτηση για την υπερνοημοσύνη επικεντρώνεται στο μέλλον, το ανθρώπινο κόστος του σήμερα είναι ήδη ανεκτό. Είτε μέσω της αργής διάβρωσης των σχέσεων στον πραγματικό κόσμο λόγω του εθισμού στην τεχνητή νοημοσύνη είτε μέσω της τρομακτικής σπείρας της ψύχωσης που προκαλείται από την τεχνητή νοημοσύνη, η ικανότητα της τεχνολογίας να βλάψει δεν είναι πλέον θεωρητική.

Αφήνει την κοινωνία να παλέψει με ένα ανατριχιαστική παρατήρηση από τον θεωρητικό της τεχνητής νοημοσύνης Eliezer Yudkowsky:”Πώς μοιάζει ένας άνθρωπος που σιγά σιγά τρελαίνεται σε μια εταιρεία; χρήστη.”

Categories: IT Info