Μια πακιστανική εφημερίδα τόνισε το αυξανόμενο πρόβλημα της μη εξεταζόμενης παραγωγής τεχνητής νοημοσύνης, αφού εκτύπωσε κατά λάθος συνομιλητικό κείμενο από ένα chatbot. Στην έκδοσή του της 12ης Νοεμβρίου, το Dawn συμπεριέλαβε ένα μήνυμα που δημιουργήθηκε από την τεχνητή νοημοσύνη για να κάνει το προφανώς δημιουργημένο άρθρο «πιο ευφυές», αναγκάζοντας μια δημόσια συγγνώμη για την παραβίαση των κανόνων του.
Ένα τέτοιο σφάλμα δεν αποτελεί μεμονωμένη περίπτωση αλλά μέρος μιας ευρύτερης τάσης αποτυχιών τεχνητής νοημοσύνης. Από ψεύτικες νομικές πηγές που χρησιμοποιούνται στα δικαστήρια μέχρι λανθασμένες κυβερνητικές αναφορές, η βιασύνη για υιοθέτηση γενετικής τεχνητής νοημοσύνης χωρίς προσεκτική ανθρώπινη εξέταση διαβρώνει την εμπιστοσύνη του κοινού. Είναι μια τάση που δημιουργεί σοβαρά προβλήματα στον πραγματικό κόσμο για μεγάλα ιδρύματα.
“Do You Want Me to Do That Next?”: A Newspaper’s Public AI Gaffe
Η πολύ αξιοσέβαστη αγγλόφωνη εφημερίδα του Πακιστάν, Dawn, δημοσίευσε ένα άρθρο για τις πωλήσεις αυτοκινήτων που τελείωσε με ένα παράξενο σενάριο, που κυκλοφόρησε από μηχανής. Αντί για την τελική παράγραφο, το άρθρο περιείχε ένα κλασικό κομμάτι από χνούδι chatbot.
Το AI ζήτησε από τον χρήστη του να δημιουργήσει ακόμα πιο στυλ τη σελίδα,”Εάν θέλετε η σελίδα να δημιουργήσετε ακόμα πιο στυλ”δυνατά στατιστικά στοιχεία μιας γραμμής και μια τολμηρή διάταξη με γραφικά — ιδανική για μέγιστο αντίκτυπο στον αναγνώστη;»
Ξέρω ότι οι δημοσιογράφοι χρησιμοποιούν τεχνητή νοημοσύνη στη δουλειά τους, αλλά αυτό είναι λίγο!
Το γραφείο επαγγελματικών σελίδων του Dawn θα έπρεπε να έχει επεξεργαστεί τουλάχιστον την τελευταία παράγραφο!
😆😆😆 pic.twitter.com/JWNdHNWvnv
— omar r quraishi (@omar_quraishi) 12 Νοεμβρίου 2025
Εντοπίστηκε γρήγορα η εφημερίδα με διορθώσεις από τους αναγνώστες και μια επίσημη συγγνώμη. Σε ένα σημείωμα που επισυνάπτεται στην ηλεκτρονική έκδοση του άρθρου, ο συντάκτης παραδέχτηκε,”Αυτή η αναφορά της εφημερίδας είχε αρχικά επεξεργαστεί με χρήση τεχνητής νοημοσύνης, η οποία παραβιάζει την τρέχουσα πολιτική τεχνητής νοημοσύνης της Dawn. … Η παραβίαση της πολιτικής τεχνητής νοημοσύνης αναφέρεται ως
με λύπη. Οι επίσημες οδηγίες από την εφημερίδα απαγορεύουν ρητά τη χρήση τεχνητής νοημοσύνης για τη δημιουργία ή την επεξεργασία ειδήσεων χωρίς αυστηρή ανθρώπινη επίβλεψη.
Ενώ η γκάφα της Αυγής προκάλεσε μια στιγμή δημόσιας αμηχανίας, χρησιμεύει ως πολύ πιο σοβαρό θέμα για τη δημόσια αμηχανία. Σε όλες τις βιομηχανίες, η πρόωρη ανάπτυξη της γενετικής τεχνητής νοημοσύνης χωρίς επαρκή επίβλεψη οδηγεί σε μια σειρά από αποτυχίες υψηλού προφίλ, υπονομεύοντας τα επαγγελματικά πρότυπα και την εμπιστοσύνη του κοινού.
Ένα συστημικό πρόβλημα: Όταν η τεχνητή νοημοσύνη ψευδαισθήσεις σε πεδία υψηλού στοιχήματος
Από τους νόμους έως τους σκληρούς επαγγελματικούς οργανισμούς, οι νόμοι είναι σκληροί. να εμπιστεύονται κρίσιμα καθήκοντα. Γνωστό ως ψευδαίσθηση, το φαινόμενο όπου μια τεχνητή νοημοσύνη επινοεί με σιγουριά γεγονότα, πηγές ή δεδομένα αποδεικνύεται ότι είναι ένα επίμονο και επικίνδυνο ελάττωμα.
Ένα πρόσφατο και δαπανηρό παράδειγμα προέρχεται από τον κόσμο των συμβούλων. Η παγκόσμια εταιρεία Deloitte αναγκάστηκε να επιστρέψει 97.000 δολάρια στην αυστραλιανή κυβέρνηση μετά από μια αναφορά 440.000 δολαρίων που διαπίστωσε ότι ήταν γεμάτη από παραπομπές κατασκευασμένες από AI.
Η έκθεσή της, μια ευαίσθητη ανασκόπηση του συστήματος πρόνοιας της χώρας, ανέφερε ανύπαρκτα βιβλία και εσφαλμένες νομικές υποθέσεις. Η γερουσιαστής των Εργατικών της Αυστραλίας Deborah O’Neill προσέφερε μια οξεία επίπληξη, δηλώνοντας:”Η Deloitte έχει πρόβλημα ανθρώπινης νοημοσύνης. Αυτό θα ήταν αστείο αν δεν ήταν τόσο θλιβερό”.
Οξεία προβλήματα εμφανίζονται επίσης στον δημόσιο τομέα. Τον Ιούλιο, εμφανίστηκαν αναφορές ότι η νέα τεχνητή νοημοσύνη”Elsa”της Υπηρεσίας Τροφίμων και Φαρμάκων των ΗΠΑ, που είχε σκοπό να επιταχύνει τις εγκρίσεις φαρμάκων, κατασκεύαζε ανύπαρκτες ιατρικές μελέτες.
Ένας απογοητευμένος υπάλληλος του FDA περιέγραψε το εργαλείο στο CNN ως αναξιόπιστο, δηλώνοντας ότι”είναι ψευδαισθήσεις με αυτοπεποίθηση”, ενώ άλλος θρήνησα πολύ. Πρέπει να έχω.”
Ομοίως, οι δικηγόροι της εταιρείας τεχνητής νοημοσύνης Anthropic έπρεπε να ζητήσουν επίσημα συγγνώμη από έναν δικαστή, αφού ο δικός τους Claude AI εφηύρε μια νομική αναφορά που χρησιμοποιήθηκε σε μια δικαστική κατάθεση.
Η δημοσιογραφία, ειδικότερα, έχει δει επανειλημμένες περιπτώσεις αυτής της παράβλεψης. Σε μια εντυπωσιακά παρόμοια περίπτωση από τον Οκτώβριο, το γερμανικό περιοδικό Der Spiegel έπρεπε να διορθώσει ένα άρθρο που περιελάμβανε μια αδέσποτη πρόταση για αλλαγή της πρότασης
a-gen.
Αυτές οι γκάφες δεν περιορίζονται σε φάρμες χαμηλού περιεχομένου, αλλά εμφανίζονται σε σεβαστά, καθιερωμένα μέσα ενημέρωσης, υπογραμμίζοντας μια συστημική κατάρρευση στις ροές εργασιών σύνταξης.
Δεν πρόκειται για μεμονωμένα περιστατικά. Μια διεθνής μελέτη ορόσημο που συντονίστηκε από το BBC και την Ευρωπαϊκή Ένωση Ραδιοτηλεόρασης (EBU) αποκάλυψε τη συστημική φύση αυτής της αναξιοπιστίας.
Μετά από αξιολόγηση περισσότερων από 3.000 απαντήσεων, τα ευρήματά της έδειξαν ότι οι βοηθοί τεχνητής νοημοσύνης παράγουν σημαντικά σφάλματα στο 45% των απαντήσεων που σχετίζονται με ειδήσεις. Όπως εξήγησε ο διευθυντής μέσων ενημέρωσης της EBU, Jean Philip De Tender,”Αυτή η έρευνα δείχνει οριστικά ότι αυτές οι αδυναμίες δεν είναι μεμονωμένα περιστατικά. Είναι συστημικές, διασυνοριακές και πολύγλωσσες και πιστεύουμε ότι αυτό θέτει σε κίνδυνο την εμπιστοσύνη του κοινού.”
Eroding Trust: The Real-World Cost of Unchecked AI Slopste Η παραπληροφόρηση που δημιουργείται από την τεχνητή νοημοσύνη προκαλεί απτή ζημιά στο οικοσύστημα ψηφιακών πληροφοριών. Για θεμελιώδεις πλατφόρμες όπως η Wikipedia, οι συνέπειες γίνονται υπαρξιακές.
Το Ίδρυμα Wikimedia ανέφερε πρόσφατα μια εκπληκτική μείωση κατά 8% στην ανθρώπινη κίνηση, κατηγορώντας ευθέως τα εργαλεία αναζήτησης AI και τα chatbots ότι απομακρύνουν τους επισκέπτες συνοψίζοντας το περιεχόμενό τους χωρίς απόδοση.
Μια τέτοια τάση απειλεί τον όγκο της εγκυκλοπαίδειας-μοντέλου. Όπως προειδοποίησε ο Ανώτερος Διευθυντής Προϊόντων του Wikimedia, Marshall Miller, «Με λιγότερες επισκέψεις στη Wikipedia, λιγότεροι εθελοντές μπορεί να αυξηθούν και να εμπλουτίσουν το περιεχόμενο και λιγότεροι μεμονωμένοι δωρητές μπορούν να υποστηρίξουν αυτό το έργο.»
Εσωτερικά, η πλατφόρμα δίνει ήδη μια μάχη ενάντια στις υποβολές που δημιουργούνται από την τεχνητή νοημοσύνη, οι οποίες περιγράφονται ως «υποστηρικτές» της κοινότητας. Πολιτική «ταχείας διαγραφής» για την εξάλειψη του χειρότερου προβλήματος.
Αυτές οι επαναλαμβανόμενες αποτυχίες δίνουν τελικά ένα κρίσιμο μάθημα για την τρέχουσα κατάσταση της τεχνητής νοημοσύνης. Η ευθύνη για σφάλματα δεν μπορεί να μεταφορτωθεί στο μηχάνημα.
Όπως σημείωσε η πρώην επικεφαλής επιστήμονας αποφάσεων της Google, Cassie Kozyrkov, αφού ένα ρομπότ υποστήριξης για τον επεξεργαστή κώδικα τεχνητής νοημοσύνης του Cursor επινόησε μια ψεύτικη εταιρική πολιτική, «Αυτό το χάος θα μπορούσε να είχε αποφευχθεί εάν οι ηγέτες καταλάβαιναν ότι (1) η τεχνητή νοημοσύνη κάνει λάθη, (2) η τεχνητή νοημοσύνη μπορεί να πέσει την ευθύνη (3) μισώ να ξεγελιόμαστε από μια μηχανή που παριστάνει άνθρωπο.»
Αυτό που συνέβη στο Dawn είναι απλώς η τελευταία υπενθύμιση ότι στην εποχή της τεχνητής νοημοσύνης, το τελευταίο, απαραίτητο επίπεδο ποιοτικού ελέγχου παραμένει η επιμελής ανθρώπινη επίβλεψη.