OpenAI fait face à de vives critiques de la part des développeurs concernant sa politique qui exige une vérification d’identité gouvernementale pour accéder à ses modèles d’API avancés comme GPT-5.
La réaction est centrée sur le refus d’OpenAI de rembourser les crédits prépayés aux utilisateurs peu disposés à fournir des données personnelles. Les développeurs se retrouvent avec des fonds bloqués sur la plateforme, incapables d’utiliser les services pour lesquels ils ont payé.
Alors qu’OpenAI cite la sécurité comme raison du changement, sa position rigide de non-remboursement est qualifiée de service client médiocre. La décision d’OpenAI met en évidence une tendance croissante du secteur vers la vérification des utilisateurs, suscitant de nouveaux débats sur la confidentialité et l’avenir de l’accès anonyme à de puissants outils d’IA.
Payez d’abord, vérifiez plus tard : politique de non-remboursement. Sparks Outrage
Pour les développeurs qui pré-chargé leurs comptes avec des fonds pour expérimenter des modèles de pointe, la porte de vérification soudaine ressemblait à un appât et un changement.
Un utilisateur de Hacker News, a détaillé le expérience frustrante. Après avoir acheté des crédits spécifiquement pour utiliser GPT-5, ils ont été bloqués par la nouvelle exigence.
“J’ai crédité mon compte OpenAI API avec des crédits, puis il s’avère que je dois passer par un processus de vérification… J’ai donc demandé un remboursement et on m’a dit que les remboursements sont contraires à leur politique.”
Le refus du remboursement a laissé au développeur des crédits inutilisables et l’a incité à contester les frais et passez au concurrent chinois DeepSeek.
La position d’OpenAI est soutenue par ses conditions d’utilisation officielles. Selon ses conditions de crédit de service, mises à jour pour la dernière fois en juillet 2025, la société maintient une politique stricte concernant les fonds versés pour son API.
“Toutes les ventes de services, y compris les ventes de services prépayés, sont définitives. Les crédits de service ne sont pas remboursables, sauf lorsque la loi l’exige, et expirent un an après la date d’achat ou d’émission s’ils ne sont pas utilisés…”
Bien que juridiquement claire, la clause a été critiquée comme anti-consommateur lorsque associé à une nouvelle exigence d’accès qui n’était pas en place au moment de l’achat pour beaucoup.
Un autre utilisateur de Hacker News a commenté:”Cela semble absolument être un service client épouvantable de ne pas émettre de remboursement dans ce cas… À quoi pense OpenAI ?”
Citant la nécessité d’atténuer les abus, la documentation d’aide officielle explique la justification derrière le nouvel obstacle.”La vérification de l’organisation aide à prévenir les utilisations dangereuses tout en continuant à mettre des capacités avancées d’IA à la disposition de la communauté des développeurs au sens large.”
Cependant, cette politique n’était pas une surprise totale, mais plutôt un changement stratégique planifié. La société préparait déjà le terrain pour un tel système en avril, notant qu’une page d’assistance avait été mise à jour pour décrire un processus potentiel d’« organisation vérifiée » pour les futurs modèles avancés.
La récente mise en œuvre semble être la réalisation de ce plan à long terme, synchronisée avec la plus grande disponibilité de ses modèles les plus récents et les plus puissants.
La fin de l’anonymat ? OpenAI rejoint la tendance des contrôles d’identité obligatoires
Déclenchant un débat plus large sur l’identité numérique et la confidentialité, la décision d’OpenAI est considérée par beaucoup comme faisant partie d’une tendance troublante du secteur. Exiger qu’un compte de développement logiciel soit lié à une pièce d’identité gouvernementale réelle touche au cœur de la valeur de l’anonymat d’Internet, qui est de longue date reconnue sur Internet.
Un commentateur sur Hacker News a déploré l’abandon d’un Web plus pseudonyme.
“Internet était autrefois un domaine de pseudos et d’alter ego. L’anonymat était chéri parce qu’il nous protégeait contre des maux (alors) principalement imaginaires. Maintenant que ces derniers les maux existent… nous apprenons aux enfants à renoncer à leur anonymat. pas sans fondement. Une discussion distincte sur le même forum a expliqué comment Google utilise désormais l’IA pour estimer l’âge des utilisateurs, bloquant l’accès au contenu et exigeant des permis de conduire ou des passeports d’adultes, ce qui le signale à tort comme mineurs.
En tant qu’utilisateur dans cette discussion”C’est un précédent inquiétant. Les lois sur la vérification de l’âge étaient censées protéger les mineurs, et non obliger chaque adulte à remettre une pièce d’identité gouvernementale juste pour lire du contenu.”
Très probablement, cette poussée est motivée par une réglementation naissante comme la loi européenne sur l’IA, obligeant les plateformes à mettre en œuvre de manière préventive des contrôles plus stricts.
Une stratégie contradictoire : courtiser la confiance des entreprises tout en les aliénant. Développeurs
La position dure d’OpenAI envers les développeurs individuels contraste avec sa récente offensive de charme visant les grandes entreprises clientes et la base d’utilisateurs plus large. Au cours de la semaine dernière seulement, l’entreprise a pris plusieurs mesures de grande envergure pour établir des relations plus profondes et basées sur la confiance.
Elle a acquis l’interface d’IA native Mac Sky pour mieux intégrer ChatGPT dans les flux de travail de bureau et a lancé « Company Knowledge », une fonctionnalité conçue pour connecter en toute sécurité ChatGPT aux données internes sensibles de l’entreprise.
Les deux initiatives ont été construites sur un message de confiance et une intégration transparente.
Une approche double : rassurer les entreprises tout en imposant des conditions rigides et non remboursables aux petits développeurs – suggère une priorisation stratégique des comptes de grande valeur. Simultanément, la société réalise des investissements massifs en capital pour assurer sa place de fournisseur fondamental d’IA.
Elle travaillerait avec Oracle sur un plan de dette record de 38 milliards de dollars pour financer l’expansion de son projet de centre de données « Stargate ».
Dans le contexte d’un financement aussi colossal, le refus de rembourser des montants relativement faibles de crédits API semble particulièrement sourd.
Ce timing fait également suite à un effort majeur visant à consolider sa plate-forme en tant qu’écosystème de référence pour le développement de l’IA.
Après le lancement de son API GPT-5 en août, la société a organisé un Dev Day début octobre pour annoncer l’accès à l’API pour ses puissants Modèle GPT-5 Pro et nouvelles boîtes à outils comme AgentKit, conçues pour simplifier la création d’agents IA.
En attirant les développeurs avec de nouveaux outils puissants, puis en mettant en œuvre une porte de vérification restrictive sans politique de remboursement flexible, OpenAI risque d’aliéner la communauté dont elle a besoin pour créer une plateforme prospère.