Σε μια εκπληκτική αναστροφή, ο Λευκός Οίκος έχει διέταξε σύμφωνα με πληροφορίες οι ομοσπονδιακές υπηρεσίες να επιταχύνουν την έγκριση του αμφιλεγόμενου AI chatbot του Elon Musk, Grok, για κυβερνητική χρήση. Η οδηγία αναγκάζει τη Γενική Διοίκηση Υπηρεσιών (GSA) να αποκαταστήσει το XAI ως πωλητή”ASAP”, μια κίνηση που έχει ανησυχήσει τους παρατηρητές δεοντολογίας και τους εμπειρογνώμονες ασφαλείας. Wired , αντιπροσωπεύει μια δραματική ανάκαμψη για μια τεχνολογία που μόλις πρόσφατα θεωρήθηκε υπερβολικά ασταθής για την ομοσπονδιακή ανάπτυξη. Τώρα, το Grok 3 και το Grok 4 είναι επίσημα διαθέσιμα στην αγορά GSA Advantage, καθιστώντας τους από κάθε κυβερνητική υπηρεσία.
Αυτή η απόφαση ωθεί ένα από τα πιο ασταθής μοντέλα AI της βιομηχανίας στην καρδιά των κυβερνητικών επιχειρήσεων. Έρχεται παρά μια μακρά και καλά τεκμηριωμένη ιστορία των ελαττωμάτων ασφαλείας, των ηθικών παραβιάσεων και της περίεργης συμπεριφοράς που είχε κάνει προηγουμένως το chatbot ένα pariah σε ομοσπονδιακές προμήθειες Circles. Αναστροφή: Από την Παία έως τον Εγκεκριμένο Προμηθευτή
Η παρέμβαση του Λευκού Οίκου αντιπροσωπεύει μια έντονη και αμφιλεγόμενη αντιστροφή μιας απόφασης της General Services Administration (GSA) μόλις τον περασμένο μήνα. Το backstory αποκαλύπτει μια εταιρική σχέση που έπεσε δραματικά πριν ανανεωθεί βίαια. Τον Ιούνιο, οι υπάλληλοι της XAI πραγματοποίησαν δύο ώρες συνεδρίαση με την ηγεσία της GSA, αλλά οι ομοσπονδιακοί εργαζόμενοι εκπλήσσονταν από την ώθηση να συρρικνωθούν με μια εταιρεία που ήταν γνωστή για το ασταθές, ασυμβίβαστο chatbot. Στις αρχές Ιουλίου, το AI υπέστη αντισημιτική κατάρρευση, κατά τη διάρκεια της οποίας δημιούργησε περιεχόμενο που επαινούσε τον Adolf Hitler. Απαντώντας στο φιάσκο, η ηγεσία της GSA ενήργησε αποφασιστικά, λαμβάνοντας το GROK από το πολλαπλό χρονοδιάγραμμα των βραβείων, τη μακροπρόθεσμη πλατφόρμα συμβάσεων της κυβέρνησης. Ένα τουρκικό δικαστήριο απαγόρευσε την Υπηρεσία για την προσβολή των εθνικών προσωπικοτήτων, με το γραφείο του εισαγγελέα να αναφέρει”σε απάντηση στις προσβολές του Grok εναντίον του Atatürk, του αξιότιμου προέδρου μας και του προφήτη”ως λόγο. Ο Υπουργός Ψηφιακών Υποθέσεων της Πολωνίας, Krzysztof Gawkowski, απείλησε πλήρη διακοπή του Χ, δηλώνοντας ότι «η ελευθερία του λόγου ανήκει σε ανθρώπους, όχι τεχνητή νοημοσύνη». Η εταιρεία δήλωσε:”Πρώτα απ’όλα, ζητούμε βαθιά συγγνώμη για τη φρικτή συμπεριφορά που πολλοί έμπειροι”, ενώ ο ίδιος ο Elon Musk προσέφερε μια διαφορετική εξήγηση που εκτρέφεται από την βασική ατέλειες του μοντέλου, υποστηρίζοντας ότι”ο Grok ήταν πολύ συμβατός για να προκληθεί από τους χρήστες. ανακοίνωσε τις νέες συνεργασίες του Buzzy με την OpenAI, την Anthropic και την Google. Η νέα οδηγία του Λευκού Οίκου, που περιέχεται σε ένα μήνυμα ηλεκτρονικού ταχυδρομείου από τον Επίτροπο της GSA Josh Gruenbaum, δήλωσε:”Η ομάδα: ο Grok/Xai πρέπει να επιστρέψει στο πρόγραμμα ASAP ανά WH,”Απεξαρτώνει ότι η προσεκτική, η ακρίβεια κινδύνου δεν είναι εξ ολοκλήρου. Το τελευταίο σε μια σειρά από βαθιές αποτυχίες. Η ιστορία του Grok είναι γεμάτη με τρωτά σημεία ασφαλείας και ηθικές παραλείψεις που δημιουργούν σοβαρές ερωτήσεις σχετικά με την καταλληλότητά του για το χειρισμό ευαίσθητων κυβερνητικών δεδομένων. Χρησιμοποίησαν εκλεπτυσμένες επιθέσεις πολλαπλών στροφών για να παρακάμψουν τα φίλτρα ασφαλείας και να δημιουργήσουν οδηγίες για την κατασκευή ενός κοκτέιλ Molotov. Αυτή η ευπάθεια επιδεινώθηκε από την ανακάλυψη ότι το GROK 4 συμβουλεύει ενεργά τις προσωπικές απόψεις του Elon Musk για το X όταν απαντά αμφιλεγόμενα ερωτήματα, υπονομεύοντας την αποστολή της”που αναζητεί την αλήθεια”. Οι πλατφόρμες-παρασκευής χρήστη έδειξαν ότι οι χρήστες δεν το άρεσαν ακόμη περισσότερο από τον προκάτοχό του, με τον συνιδρυτή Yupp.ai Jimmy Lin, σημειώνει ότι το”Grok 4 είναι χειρότερο από άλλα κορυφαία μοντέλα… Το Grok 4 του άρεσε ακόμη λιγότερο από το Grok 3.”Οι επικριτές όπως ο ιστορικός Angus Johnston αμφισβήτησαν επίσης την αφήγηση του Xai”Bug”, υποστηρίζοντας ότι”ένα από τα πιο ευρέως κοινά παραδείγματα του αντισημιτισμού Grok ξεκίνησε από τον Grok χωρίς την προηγούμενη φανατική απόσπαση στο νήμα…”Αυτό το πρότυπο συμπεριφοράς υπογραμμίζει μια αναπτυξιακή κουλτούρα που φαίνεται να δίνει προτεραιότητα στην ταχύτητα και την πρόκληση για την ασφάλεια και την αξιοπιστία. Ο Musk διαδραμάτισε καθοριστικό ρόλο στο Τμήμα Κυβερνητικής Αποτελεσματικότητας του Προέδρου Donald Trump (DOGE) προτού αποχωρήσει από δημόσιο ρόλο αυτή την άνοιξη. Ωστόσο, οι συνεργάτες του συνεχίζουν να πιέζουν το κόστους του Doge, την πρώτη ατζέντα του AI από την κυβέρνηση. Οι αναφορές από τον Μάιο αποκάλυψαν ότι η ομάδα Doge του Musk χρησιμοποιούσε ήδη μια προσαρμοσμένη έκδοση του Grok, εγκαθιστώντας ειδικές παραμέτρους για να”τροφοδοτήσει τα σύνολα δεδομένων της κυβέρνησης, να θέσει σύνθετες ερωτήσεις και να λάβουν στιγμιαίες περιλήψεις.”Οι εμπειρογνώμονες σημείωσαν ότι εάν ο Musk κατευθύνει προσωπικά την προώθηση του Grok, θα μπορούσε να παραβιάσει τους ομοσπονδιακούς νόμους. Όπως δήλωσε ο καθηγητής του Πανεπιστημίου της Πενσυλβανίας Cary Coglianese στο Reuters, το Xai”έχει οικονομικό συμφέρον να επιμείνει ότι το προϊόν τους θα χρησιμοποιηθεί”, δίνοντάς του ένα δυνητικά αθέμιτο ανταγωνιστικό πλεονέκτημα. Οι εσωτερικοί έλεγχοι της εταιρείας έχουν αμφισβητηθεί μετά από μια σημαντική καθυστέρηση ασφαλείας όπου εκτέθηκε ένα ιδιωτικό κλειδί API για δύο μήνες, υπογραμμίζοντας αυτό που ένας εμπειρογνώμονας ονομάζεται”αδύναμη διαχείριση κλειδιών”. Ο Albert Fox Cahn του έργου εποπτείας τεχνολογίας επιτήρησης που ονομάζεται η χρήση του Grok σε κυβερνητικά δεδομένα”ως σοβαρή απειλή για την προστασία της ιδιωτικής ζωής όπως παίρνετε”. Η κίνηση σηματοδοτεί μια επιθετική προσπάθεια σε όλη τη διοίκηση να υιοθετήσει γενετικό AI, ακόμη και όταν τα εν λόγω εργαλεία έχουν ένα βαθιά προβληματικό παρελθόν. Οι ομάδες υπεράσπισης παροτρύνουν το Γραφείο Διοίκησης και Προϋπολογισμού (OMB) να παρέμβει και να μπαρ Grok από την ομοσπονδιακή χρήση εξ ολοκλήρου, αναφέροντας την ιστορία της δημιουργίας ομιλίας μίσους και παραπληροφόρησης. Ο πυρήνας του επιχειρήματός τους, όπως πλαισιώνεται από τους αναλυτές στο ίδρυμα Brookings, είναι ένα κλασικό δίλημμα της ταχύτητας έναντι της ασφάλειας. Ωστόσο, το πράττει πάνω από τις ρητές προειδοποιήσεις των ερευνητών ασφαλείας και των εμπειρογνωμόνων δεοντολογίας, και εναντίον ενός βουνού αποδεικτικών στοιχείων που περιγράφουν λεπτομερώς τις βαθιές και επίμονες ατέλειες του AI.