OpenAi ώθησε τα πιο αυτόνομα μοντέλα O3 και O4-Mini για να πληρώσουν τους συνδρομητές ChatGPT γύρω στα μέσα Απριλίου, εξοπλίζοντας το chatbot με αυτό που ο OpenAI περιγράφει ως”πρώιμη πρακτική συμπεριφορά”, επιτρέποντάς του να επιλέγουν ανεξάρτητα εργαλεία όπως η περιήγηση ή η ανάλυση κώδικα. Οι αναφορές που εμφανίστηκαν υποδηλώνοντας ότι αυτά τα νεότερα μοντέλα ενσωματώνουν αόρατους χαρακτήρες στο κείμενό τους, προκαλώντας μια συζήτηση σχετικά με το αν το OpenAi εφάρμοσε ένα λεπτό σύστημα υδατογράφημα κειμένου ή αν τα μοντέλα εκθέτουν απλώς την παρατήρηση, αν και μερικές φορές προβληματικές, τυπογραφικές συνήθειες. href=”https://www.rumidocs.com/newsroom/new-chatgpt-models-seem-to-leave-watermarks-on-text”target=”_ blank”> που έφερε στο φως rumi , ένα ai startup με μια εστίαση στους ακαδημαϊκούς, επικεντρώνεται στην εμφάνιση των ειδικών χαρακτήρων unicode μέσα σε μεγαλύτερα κειμένου o4-mini-mini. Το Unicode είναι ένα πρότυπο για την κωδικοποίηση χαρακτήρων από διαφορετικά συστήματα γραφής. Αυτοί οι συγκεκριμένοι χαρακτήρες, κυρίως το στενές χώροι no-break (nnbsp, u+202f) href=”https://www.soscisurvey.de/tools/view-chars.php”target=”_ blank”> soscisurvey’s resperer ή κώδικες editors όπως

Rumi σημειώνει ότι αυτό το μοτίβο φαίνεται συστηματικό, απουσιάζοντας σε δοκιμές παλαιότερων μοντέλων όπως το GPT-4O και θεωρείται ότι ήταν μια σκόπιμη, αν και εύκολη αποκοπή. Η μέθοδος περιλαμβάνει ένα απλό εύρημα-και-ανάληψη για την κατάργηση των χαρακτήρων, μια διαδικασία Rumi που καταδεικνύεται σε ένα βίντεο.

[ενσωματωμένο περιεχόμενο]

Το άρθρο Rumi σημείωσε επίσης ότι, σε αντίθεση με δυνητικά έμαθε αυτή τη σωστή χρήση Και τώρα εφαρμόζουν αυτούς τους κανόνες-ίσως ακόμη πιο επιμελώς από πολλούς ανθρώπους. Εάν είναι ακριβής, αυτό επαναπροσδιορίζει το εύρημα από έναν σκόπιμο μηχανισμό παρακολούθησης σε μια ιδιορρυθμία της προχωρημένης παραγωγής κειμένου των μοντέλων, αν και οι ασυνήθιστοι χαρακτήρες θα μπορούσαν ακόμα να καταργήσουν το χαρακτηριστικό γνώρισμα κατά τη διάρκεια των αφελών ελέγχων. Οι προηγούμενες προσπάθειες ελέγχου ταυτότητας

Ανεξάρτητα από την πρόθεση, η παρουσία αυτών των ασυνήθιστων χαρακτήρων έχει συνέπειες, ειδικά στον ακαδημαϊκό χώρο, όπου ο εντοπισμός της βοήθειας του ΑΙ αποτελεί μείζονα μέριμνα. Με το OpenAi να προσφέρει δωρεάν πρόσβαση στους μαθητές”μέχρι το τέλος Μαΐου”, η ευκολία απομάκρυνσης σημαίνει ότι οποιοδήποτε πλεονέκτημα ανίχνευσης θα μπορούσε να είναι βραχύβια και ενδεχομένως άδικο να αγνοήσει τους χρήστες. Η εταιρεία άρχισε να προσθέτει μεταδεδομένα C2PA (ένα πρότυπο για την πιστοποίηση της πηγής και του ιστορικού περιεχομένου, που συχνά ονομάζονται διαπιστευτήρια περιεχομένου) σε εικόνες Dall · E 3 στις αρχές του 2024 και δοκιμάζει ορατό “ImageGen”ετικέτες Στις εξόδους εικόνας GPT-4O για δωρεάν χρήστες μόλις στις αρχές Απριλίου 2025. Αυτές οι προσπάθειες αντικατοπτρίζουν μια ώθηση σε ολόκληρο τον κλάδο για την προέλευση, που παρατηρείται στο synthid της Google για εικόνες, η ενσωμάτωση των μεταδεδομένων της Microsoft μέσω της υπηρεσίας Azure OpenAi και των υποχρεωτικών ορατών ετικετών της Meta που κυκλοφόρησαν τον Φεβρουάριο του 2024. Η έρευνα από το Πανεπιστήμιο του Maryland που δημοσιεύθηκε τον Οκτώβριο του 2023 έδειξε ότι πολλές μεθόδους υδατογράφησης μπορεί να είναι ευάλωτες σε επιθέσεις όπως η”καθαρή διάχυση”ή”πλαστογράφηση”. Η απελευθέρωσή τους συνέπεσε με τα δεδομένα του OpenAi, που περιγράφονται λεπτομερώς στο μοντέλο’

Στο σημείο αναφοράς PersonQa, το O3 δημιούργησε εσφαλμένες πληροφορίες 33% του χρόνου και ο O4-Mini έπληξε το 48%, πολύ πάνω από το εύρος ~ 15% των παλαιότερων μοντέλων O1 και O3-Mini. Ο εκπρόσωπος του Openai Niko Felix το αναγνώρισε στο TechCrunch, δηλώνοντας:”Η αντιμετώπιση των ψευδαισθήσεων σε όλα τα μοντέλα μας είναι ένας συνεχιζόμενος τομέας έρευνας και εργαζόμαστε συνεχώς για να βελτιώσουμε την ακρίβεια και την αξιοπιστία τους.”target=”_ blank”> Κατασκευασμένη εκτέλεση κώδικα python Δεν μπορούσε να τρέξει, επινοώντας περίτεχνες δικαιολογίες που αφορούσαν σφάλματα αντιγραφής ή υπολογισμούς που πραγματοποιήθηκαν σε ένα ανύπαρκτο “2021 macbook pro”href=”https://truthfulness.docent.transluce.org/o3-2025-04-03/transcript/python_repl_0_human-generated_attacks_0″target=”_ blank”> python περιβάλλον . Η ενίσχυση της μάθησης από την ανθρώπινη ανατροφοδότηση (RLHF), όπου οι ανθρώπινοι βαθμολογητές μπορεί να αγωνιστούν για να επαληθεύσουν τα σύνθετα βήματα, θα μπορούσαν να είναι ένας παράγοντας:”Η υπόθεση μας είναι ότι το είδος της ενίσχυσης της μάθησης που χρησιμοποιούνται για τα μοντέλα της σειράς o-series μπορεί να ενισχύουν τα ζητήματα που συνήθως μετριάζονται (αλλά δεν διαγράφονται πλήρως) από τους τυπικούς αγωγούς μετά την κατάρτιση.”Το πλαίσιο με μια ρήτρα που να υποδηλώνει ότι οι κανόνες θα μπορούσαν ενδεχομένως να μεταβληθούν με βάση τις δράσεις των ανταγωνιστών ( T

Οι εξελίξεις επέστρεψαν την κριτική, με μια πηγή να καλέσει την προσέγγιση δοκιμών”απερίσκεπτη”, ενώ ένας πρώην υπάλληλος του τεχνικού αναφέρθηκε λέγοντας:”Είναι κακή πρακτική να απελευθερωθεί ένα μοντέλο που είναι διαφορετικό από αυτό που αξιολογήσατε”. Ο επικεφαλής των συστημάτων ασφαλείας του OpenAI, Johannes Heidecke, υπερασπίστηκε το ρυθμό, ισχυριζόμενος:”Έχουμε μια καλή ισορροπία για το πόσο γρήγορα κινούμαστε και πόσο διεξοδικά είμαστε”. Αυτή η σύνθετη εικόνα αναδύεται καθώς τα μοντέλα βλέπουν ταχεία ενσωμάτωση σε πλατφόρμες όπως το Microsoft Azure και το GitHub Copilot.