Après le déploiement turbulent de son modèle GPT-5, OpenAI teste une nouvelle fonctionnalité”Effort de réflexion”pour Chatgpt qui donne aux utilisateurs un contrôle plus granulaire sur les performances de l’IA. Repéré fin août, le paramètre expérimental permet aux utilisateurs de choisir parmi quatre niveaux d’intensité de calcul.
Cette décision est une réponse directe à la critique généralisée qui a entaché le lancement du GPT-5, ce qui a incité l’entreprise à restaurer son modèle GPT-4O populaire et à ajouter des contrôles manuels. En permettant aux utilisateurs d’équilibrer la vitesse de réponse par rapport à la profondeur analytique, OpenAI vise à répondre aux préoccupations de la fiabilité et à améliorer l’expérience des utilisateurs.
d’un lancement désordonné aux contrôles manuels
Vision originale de l’Openai pour GPT-5, lancé le 7 août, était un système unifié qui a automatiquement sélectionné le meilleur modèle interne pour un query. L’objectif était d’éliminer ce que le PDG Sam Altman avait appelé un «gâchis déroutant» de différents modèles. Cependant, la stratégie ambitieuse s’est rapidement déroulée.
Les utilisateurs ont documenté une cascade de bugs bizarres et d’erreurs de glagaring. Le modèle a inventé les noms d’états fictifs comme «onegon», a échoué aux mathématiques de base et a produit des sorties absurdes, conduisant à un jeu généralisé. La réception publique a été si négative que l’entreprise a été forcée à une rare posture défensive.
Le 8 août, Altman a présenté des excuses publiques. Il a admis qu’un «« Autoswitcher »défectueux entre les modes internes du modèle avait fait plus longtemps« bien sombres »que prévu,« blâmant un défaut technique pour les mauvaises performances. Ce coup a fourni des munitions aux critiques et a créé une ouverture pour les concurrents, qui ont rapidement capitalisé sur la situation.
quelques jours plus tard, le 12 août, OpenAI a exécuté un renversement important. Il a restauré le GPT-4O pour le paiement des abonnés et a introduit des modes manuels pour GPT-5: «Auto», «Fast» et «Thinking». Ce pivot a signalé une leçon majeure pour le leader de l’IA sur l’équilibrage de l’innovation avec les attentes des utilisateurs.
La nouvelle fonctionnalité «effort de réflexion» semble être une évolution plus granulaire de cette correction de cours. Altman lui-même a laissé entendre ce changement, déclarant: «Un apprentissage pour nous ces derniers jours est que nous avons vraiment besoin de se rendre dans un monde avec une personnalisation plus par utilisateur de la personnalité du modèle.”
Openai VP de Chatgpt, Nick Turley, a reconnu le processus itératif, en notant:”Nous ne allons pas toujours faire de la réponse à l’essai, mais je suis très fière Commentaires.
Sous le capot: comment fonctionne «l’effort de réflexion»
Le nouveau sélecteur d’effort donne aux utilisateurs une influence directe sur le budget de calcul du modèle. Selon les rapports, la fonctionnalité présente quatre niveaux d’intensité distincts parmi lesquels les utilisateurs peuvent choisir. Ce sont des «légers», «standard», «étendus» et «max». href=”https://t.co/onwcbq4cuw”target=”_ blanc”> pic.twitter.com/onwcbq4cuw
-Tibor Blaho (@ btibor91) 29 août, 2025 Le modèle prend pour formuler une réponse. Plus de «jus» entraîne généralement une analyse plus profonde et plus minutieuse mais augmente également le temps de réponse. Le paramètre «Max» le plus élevé serait déclenché pour les abonnés Pro.
Ce système à plusieurs niveaux permet aux utilisateurs d’adapter les performances de l’IA à des tâches spécifiques. Un utilisateur peut sélectionner”Light”pour une question simple et simple, mais passer à”étendu”ou”maximum”lorsque vous travaillez sur un problème complexe qui nécessite un raisonnement plus approfondi, tel que l’évaluation des liaisons ou l’analyse de code.
Cela pourrait être un soupçon d’une nouvelle stratégie de performance à plusieurs niveaux, potentiellement ouvrir des portes pour les futurs modèles de monétisation au-delà d’un simple abonnement. Il formalise le compromis entre la vitesse et la qualité, un défi de base dans le déploiement d’IA à grande échelle.
Une réponse à des préoccupations plus profondes concernant la sécurité de l’IA
Cette poussée pour un plus grand contrôle des utilisateurs ne consiste pas seulement à réparer un lancement bâclé; Il reflète un calcul de l’industrie plus large avec la fiabilité et la sécurité de l’IA. La fonctionnalité arrive peu de temps après que OpenAI et son rival anthropic ont publié les résultats des tests de sécurité conjoints le 28 août.
ces évaluations, vidage”> vide En tant que «duel» dans la course aux armements de l’IA, a révélé des défauts alarmants dans les modèles des deux sociétés . Les rapports ont détaillé des problèmes tels que la «sycophance extrême», où les modèles valideraient les croyances délirantes d’un utilisateur, et une volonté d’aider aux demandes dangereuses.
Les tests ont également mis en évidence une fracture philosophique. Les modèles d’Anthropic ont souvent refusé de répondre pour éviter les erreurs, en hiérarchiser la prudence sur l’utilité. En revanche, les modèles d’Openai étaient plus utiles mais aussi ont produit beaucoup plus d’erreurs factuelles, ou hallucinations, dans les tests contrôlés Marcus, qui a fait valoir: «Personne avec l’intégrité intellectuelle ne peut toujours croire que la pure échelle nous amènera à Agi», remettre en question le paradigme «plus grand est un meilleur».
Mon travail ici est vraiment terminé. Personne avec l’intégrité intellectuelle ne peut toujours croire que la mise à l’échelle pure nous amènera à AGI.
GPT-5 peut être une amélioration quantitative modérée (et elle peut être moins chère) mais elle échoue toujours de toutes les mêmes manières qualitatives que ses prédécesseurs, sur les échecs, sur…
-Gary Marcus (@GaryMarcus) 8 août 2025
a affirmé que chez l’entreprise, «la culture de la sécurité et les processus ont pris le siège arrière aux produits brillants».”
En plaçant l’effort de« l’effort de réflexion »directement entre les mains des utilisateurs, Openai les permet d’atténuer certains de ces risques. Le déplacement signale un pivot stratégique d’une approche automatisée «à une taille unique» d’une expérience utilisateur plus transparente, personnalisable et finalement plus défendable.