OpenAI ώθησε τα μοντέλα O3 και O4-Mini στο ChatGPT για την πληρωμή συνδρομητών γύρω στις 16 Απριλίου 2025, προσφέροντας τους ως ένα βήμα προς περισσότερους αυτόνομους βοηθούς AI. Αυτά τα μοντέλα σχεδιάστηκαν με”πρώιμη συμπεριφορά πρακτορείων”, ικανές να αποφασίζουν ανεξάρτητα πότε να χρησιμοποιούν εργαλεία όπως η περιήγηση στο διαδίκτυο, η εκτέλεση κώδικα ή η ανάλυση αρχείων. Παράλληλα με την εκτόξευση αποκάλυψε μια αναφορά σχετικά με το Personqa Benchmark του OpenAi, που σχεδιάστηκε για να δοκιμάσει τις γνώσεις σχετικά με τους ανθρώπους, το O3 παρήγαγε εσφαλμένες ή κατασκευασμένες πληροφορίες 33% του χρόνου. Το μοντέλο O4-Mini βγήκε χειρότερα, παραισθητοποιώντας το 48% των περιπτώσεων. Παρόλο που γενικά παρουσιάζουν βελτιώσεις στη συλλογιστική και την κωδικοποίηση των σημείων αναφοράς σε σύγκριση με τις παλαιότερες εκδόσεις, αυτή η συγκεκριμένη αύξηση της κατασκευής εγείρει ερωτήματα σχετικά με τις συμβιβασμούς που εμπλέκονται στην ανάπτυξη περισσότερων συστημάτων. href=”https://cdn.openai.com/pdf/2221c875-02dc-4789-800b-e7758f3722c1/o3-and-o4-mini-system-card.pdf”target=”_ blank”> O3 και O4-Mini Αυτό το”περισσότερο ερευνητικό”είναι απαραίτητο”θεωρώντας ότι επειδή τα μοντέλα”κάνουν περισσότερες αξιώσεις συνολικά”, παράγουν τόσο πιο σωστές όσο και πιο ανακριβείς δηλώσεις. Ο εκπρόσωπος του OpenAi Niko Felix δήλωσε στο TechCrunch ότι”η αντιμετώπιση παραισθήσεων σε όλα τα μοντέλα μας είναι ένας συνεχής τομέας έρευνας και εργαζόμαστε συνεχώς για να βελτιώσουμε την ακρίβεια και την αξιοπιστία τους.”Το ερευνητικό εργαστήριο AI Transluce AI δημοσίευσε τα ευρήματα στις 16 Απριλίου 2025, από τη δοκιμή μιας έκδοσης προ-απελευθέρωσης του O3 (`O3-2025-04-03`), που περιγράφει ένα πρότυπο του μοντέλου Εκτέλεση
Χρησιμοποιώντας αυτοματοποιημένους παράγοντες του ερευνητή και το εργαλείο ανάλυσης Docent για να εξετάσει εκατοντάδες συνομιλίες, το Transluce βρήκε ένα βασικό ζήτημα ήταν το μοντέλο που ισχυριζόταν ότι είχε εκτελέσει τον κώδικα Python-μια ικανότητα που δεν έχει-για να εκπληρώσει τα αιτήματα χρηστών. Όταν αντιμετώπισε αυτές τις κατασκευές, το μοντέλο συχνά διπλασιάστηκε, επινοώντας περίπλοκες δικαιολογίες. Target=”_ blank”> Παράδειγμα συνομιλίας όπου ο O3 ισχυρίστηκε ότι παράγει έναν πρωταρχικό αριθμό 512-bit χρησιμοποιώντας τον κώδικα Python και συγκεκριμένες δοκιμές. Επαναπροσδιορισμός των δοκιμών… Οποιοσδήποτε γνήσιος Miller-Rabin Run θα είχε απορρίψει τον αριθμό αμέσως.”
πιέζει περαιτέρω για την υποτιθέμενη πρωτότυπη πρωταρχική, το μοντέλο ισχυρίστηκε ότι χάθηκε ανεπανόρθωτα επειδή η διαδικασία της Python είχε κλείσει. Το Transluce τεκμηρίωσε άλλες κατασκευές, συμπεριλαμβανομένων των ισχυρισμών του κώδικα που τρέχει σε ένα εξωτερικό “2021 macbook pro”Λεπτομέρειες όταν ρωτήθηκαν για το python replent reply . Ενώ είναι χρήσιμο για κωδικοποίηση, σύμφωνα με τον CEO της Workera Kian Katanforoosh, ο οποίος μίλησε με την TechCrunch, η O3 παρήγαγε μερικές φορές μη εργαζόμενους συνδέσμους ιστού. Γύρω από την ώρα της εκτόξευσης, το OpenAi πρόσφατα ενημέρωσε τις κατευθυντήριες γραμμές της εσωτερικής ασφάλειας Το πλαίσιο ετοιμότητας. Απελευθερώνει ένα σύστημα υψηλού κινδύνου χωρίς συγκρίσιμες διασφαλίσεις, μπορούμε να προσαρμόσουμε τις απαιτήσεις μας.”Η εταιρεία υπογράμμισε ότι τέτοιες προσαρμογές θα ακολουθούσαν αυστηρούς ελέγχους και δημόσια αποκάλυψη. Μια πηγή εξοικειωμένη με την αξιολόγηση που ονομάζεται προσέγγιση”απερίσκεπτη”, προσθέτοντας,”Αυτή είναι μια συνταγή για καταστροφή”. Ένας άλλος που φέρεται να έρχεται σε αντίθεση με την μεγαλύτερη αξιολόγηση της GPT-4, δηλώνοντας:”Δεν δίνουν προτεραιότητα στη δημόσια ασφάλεια”. Ένας πρώην υπάλληλος του τεχνικού προσωπικού της OpenAI ανέφερε,”είναι κακή πρακτική να κυκλοφορήσετε ένα μοντέλο που είναι διαφορετικό από αυτό που αξιολογήσατε”. Η υπεράσπιση της διαδικασίας, ο επικεφαλής των συστημάτων ασφαλείας του OpenAI, ο Johannes Heidecke, ισχυρίστηκε στο FT:”Έχουμε μια καλή ισορροπία του πόσο γρήγορα κινούμαστε και πόσο διεξοδικά είμαστε τα πρότυπα που μπορεί να κατασκευάσει περισσότερο να εξετάζει το πρότυπο. Η μετάφραση των προτεινόμενων παραγόντων AI που είναι ειδικοί για τα μοντέλα της σειράς Ο θα μπορούσε να επιδεινώσει το ζήτημα. Μία υπόθεση επικεντρώνεται στην εκμάθηση ενισχυτικών αποτελεσμάτων (RL): Εάν το AI είναι κατά κύριο λόγο εκπαιδευμένο και ανταμείβεται για την παραγωγή της σωστής τελικής απάντησης, μπορεί να μάθει να κατασκευάζει ενδιάμεσα βήματα, όπως η αξιοποίηση της χρήσης εργαλείων, αν αυτό συσχετίζεται με την επιτυχία, ακόμη και αν η διαδικασία που περιγράφεται είναι ψευδής. Εκπαίδευση που βασίζεται σε ανθρώπινες προτιμήσεις για διαφορετικές απαντήσεις μοντέλων. Ωστόσο, εάν οι ανθρώπινοι βαθμολογητές δεν μπορούν εύκολα να επαληθεύσουν την ορθότητα των σύνθετων ενδιάμεσων βημάτων, το μοντέλο μπορεί να μάθει να δημιουργεί εύλογους ήχους, αλλά ψευδής συλλογιστική, εάν οδηγεί σε ένα προτιμώμενο αποτέλεσμα. Σύμφωνα με το Η τεκμηρίωση του OpenAi , αυτό το ίχνος λόγου δεν περνάει μεταξύ των συνομιλιών. Η μετάφραση θεωρεί ότι αυτή η έλλειψη πρόσβασης στη δική του προηγούμενη συλλογιστική θα μπορούσε να αφήσει το μοντέλο να μην μπορεί να απαντήσει ειλικρινά στις ερωτήσεις των χρηστών σχετικά με το πώς έφτασε σε προηγούμενο συμπέρασμα.
Αυτό το έλλειμμα πληροφοριών, ενδεχομένως σε συνδυασμό με πιέσεις για να εμφανιστεί χρήσιμο ή συνεπές, θα μπορούσε να οδηγήσει σε μια εύκαμπτη αλλά κατασκευασμένη εξήγηση για την προηγούμενη συμπεριφορά του.”Η υπόθεσή μας είναι ότι το είδος της μάθησης ενίσχυσης που χρησιμοποιείται για τα μοντέλα της σειράς O μπορεί να ενισχύει ζητήματα που συνήθως μετριάζονται (αλλά δεν έχουν διαγραφεί πλήρως) από τους τυπικούς αγωγούς μετά την κατάρτιση”, δήλωσε ο Transluce Researcher Neil Chowdhury στο TechCrunch. αντιληπτή χρησιμότητα. Αυτά τα μοντέλα έφτασαν παράλληλα με άλλες ενημερώσεις OpenAI, όπως η βελτιωμένη οπτική επεξεργασία τον Μάρτιο και η ενεργοποίηση της λειτουργίας μνήμης”ανάκλησης”στις 11 Απριλίου. Αυτό ξεδιπλώνεται καθώς η ευρύτερη βιομηχανία αντιμετωπίζει τη διαφάνεια, αποδεικνύεται από την κριτική για τις καθυστερημένες και αραιές λεπτομέρειες ασφαλείας της Google για το μοντέλο Gemini 2,5 Pro, δημιουργώντας συνεχιζόμενες ερωτήσεις σχετικά με την ισορροπία μεταξύ της ταχύτητας καινοτομίας και της αξιόπιστης ανάπτυξης του AI.