Openai a poussé ses modèles O3 et O4-Mini les plus autonomes pour payer les abonnés ChatGPT à la mi-avril, équipant le chatbot de ce que Openai décrit comme un”comportement d’agence précoce”lui permettant de choisir indépendamment les outils comme la navigation ou l’analyse de code. Les rapports ont fait surface suggérant que ces nouveaux modèles intégrent des personnages invisibles dans leur texte, déclenchant un débat sur le fait que OpenAI ait implémenté un système de filigrane de texte subtil ou si les modèles présentent simplement des personnages apprises, bien que parfois problématiques, typographiques. href=”https://www.rumidocs.com/newsroom/new-chatgpt-models-seem-to-leave-watermarks-on-text”Target=”_ Blank”> mis en lumière par Rumi , une start-up AI avec un accent sur les universitaires, se concentre sur l’apparition de personnages unicodes spéciaux dans les plus longs caractères générés par O3 et O4. Unicode est une norme pour l’encodage des caractères de différents systèmes d’écriture; Ces caractères spécifiques, principalement le Space de non-brisée étroit (NNBSP, U + 202F) , Rendez-vous identique à des espaces standard dans la plupart href=”https://www.soscisurvey.de/tools/view-char.php”Target=”_ Blank”> Visionneuse de caractères de Soscisurvey InaccUt AI Deteset Tools , ce qui offre le caractère”Près-zéro faux positifs, bien que sa facilité de contournement reste un inconvénient majeur.

Cependant, l’analyse technique peut également conduire à des explications alternatives: les caractères peuvent être typographiquement corrects. Les espaces non révolutionnaires (à la fois étroits et standard) sont légitimement utilisés pour empêcher les ruptures de ligne indésirables entre les éléments connexes tels que les symboles de devise et les quantités ou les initiales et les noms de famille, assurant la lisibilité.

Il est plausible des modèles, formés sur de vastes ensembles de données, y compris du texte bien formaté, simplement a appris cette utilisation appropriée et applique maintenant ces règles-peut-être encore plus diligente que de nombreux humains. S’il est précis, cela recadre la découverte d’un mécanisme de suivi délibéré à une bizarrerie de la génération avancée de texte avancée des modèles, bien que les caractères inhabituels puissent toujours signaler par inadvertance le texte pendant les vérifications naïves.

Openai lui-même n’a pas fait de déclaration officielle confirmant ou refusant l’utilisation de ces caractères comme watermarks, et RUMI a spéculé sur la fonctionnalité si elle implique la fonctionnalité. et les efforts d’authentification passés

, quelle que soit l’intention, la présence de ces personnages inhabituels a des implications, en particulier dans le monde universitaire où l’identification de l’aide d’IA est une préoccupation majeure. Avec OpenAI offrant un accès gratuit aux étudiants «Jusqu’à la fin du mois de mai», la facilité de retrait signifie que tout avantage de détection pourrait être de courte durée et potentiellement injuste pour les utilisateurs inconscients.

Cette situation fait écho aux explorations précédentes d’Openai dans l’authentification du contenu. The company started adding C2PA metadata (a standard for certifying content source and history, often called Content Credentials) to DALL·E 3 images in early 2024 and is testing visible “ImageGen”Labels Sur les sorties d’image GPT-4O pour les utilisateurs gratuits, comme récemment au début avril 2025.

Openai a même développé, mais a mis en pause le déploiement d’un outil de filigrane de texte linguistique à la mi-2024 en raison de la précision et des préoccupations de ponte. Ces efforts reflètent une poussée à l’échelle de l’industrie pour la provenance, vue dans le synthèse de Google pour les images, les métadonnées de Microsoft intégrés via le service Azure Openai et les étiquettes visibles obligatoires de Meta en février 2024.

Pourtant, les défis fondamentaux demeurent; La recherche de l’Université du Maryland publiée en octobre 2023 a montré que de nombreuses méthodes de filigrane peuvent être vulnérables à des attaques comme la «purification de diffusion» ou la «usurgation».

Au-delà des filigranes: les questions de fiabilité s’allument

Ce débat spécifique ajoute à une liste croissante d’observations sur les modèles O3 et O4-MinI. Leur version a coïncidé avec les propres données d’Openai, détaillées dans les modèles

Sur la référence Personqa, O3 a généré des informations incorrectes 33% du temps, et O4-MinI a frappé 48%, bien au-dessus de la plage ~ 15% des modèles plus anciens O1 et O3-Mini. Le porte-parole d’Openai, Niko Felix, l’a reconnu à TechCrunch, déclarant: «La lutte contre les hallucinations sur tous nos modèles est un domaine de recherche en cours, et nous travaillons continuellement pour améliorer leur précision et leur fiabilité.”Target=”_ Blank”> Exécution de code python fabriqué Il ne pouvait pas s’exécuter, inventant des excuses élaborées impliquant des erreurs de copie-coller ou des calculs de réclamation ont été effectués sur un non-existant “2021 MacBook Pro” ou fabriquant des détails sur son Environnement Python .

Le renforcement de l’apprentissage de la rétroaction humaine (RLHF) où les évaluateurs humains peuvent avoir du mal à vérifier les étapes complexes, pourraient être un facteur: «Notre hypothèse est que le type d’apprentissage de renforcement utilisé pour les modèles de la série O peut amplifier les problèmes qui sont généralement atténués (mais non effacés) par des pipelines standard post-formation. Avec une clause suggérant que les règles pourraient être modifiées en fonction des actions des concurrents ( Openai indiqué :”Si un autre développeur de Frontier AI reloa un système à haut risque sans sauvegarde comparable, nous pouvons ajuster nos exigences.”). T

Les développements ont suscité des critiques, une source appelant l’approche des tests «téméraire», tandis qu’un ancien membre du personnel technique a été cité en disant: «Il est mauvaise de publier un modèle différent de celui que vous avez évalué». Le responsable des systèmes de sécurité d’Openai, Johannes Heidecke, a défendu le rythme, affirmant:”Nous avons un bon équilibre entre la vitesse à laquelle nous nous déplaçons et à quel point nous sommes minutieux.”Cette image complexe émerge alors que les modèles voient une intégration rapide dans des plates-formes comme Microsoft Azure et GitHub Copilot.

Categories: IT Info