Le PDG d’OpenAI, Sam Altman, défend la nouvelle politique polarisante de son entreprise visant à autoriser le contenu érotique limité à l’âge sur ChatGPT. Dans des articles sur X cette semaine, Altman a repoussé une vague de critiques, déclarant qu’OpenAI n’est « pas la police morale élue du monde ».
Il a présenté la décision comme une mesure visant à « traiter les utilisateurs adultes comme des adultes », annulant les règles plus strictes mises en place après un procès pour la sécurité des utilisateurs. Ce changement de politique a suscité de vives critiques de la part de défenseurs de la sécurité et de personnalités comme Mark Cuban, qui se demandent si la limitation de l’âge peut vraiment fonctionner.
Cette décision signale un changement philosophique important pour OpenAI, donnant la priorité à la liberté des utilisateurs pour les adultes plutôt qu’au maintien d’une plate-forme uniformément aseptisée.
Altman a fait valoir qu’à mesure que l’IA fait de plus en plus partie intégrante de la vie quotidienne, la flexibilité est essentielle. Dans un article sur X, il a expliqué: « À mesure que l’IA devient plus importante dans la vie des gens, permettre aux gens d’utiliser l’IA comme ils le souhaitent est une partie importante de notre mission », tout en rassurant sur le fait que la protection des mineurs et des personnes en crise resterait solide. Cette position s’est heurtée à une opposition immédiate et énergique. L’homme d’affaires Mark Cuban a exprimé ses inquiétudes quant à l’exécution et à l’impact sociétal de cette politique.”Je ne vois pas comment OpenAI peut vieillir Gate avec suffisamment de succès”, a-t-il écrit sur X, ajoutant que”nous ne savons tout simplement pas encore à quel point les LLM peuvent créer une dépendance.”
Tout d’abord. Je ne dis pas que nous devrions l’interdire. J’ai dit que c’était une erreur. Cela nuira à l’activité d’OpenAI
2ème : je le répète. Il ne s’agit pas de porno. Il s’agit d’enfants qui développent des « relations » avec un LLM qui pourraient les mener dans un certain nombre de directions très personnelles.… https://t.co/zoo7XCzYbK
— Mark Cuban (@ban) 15 octobre 2025
Le pivot est particulièrement remarquable compte tenu de la précédente position publique d’Altman. Dans un podcast d’août, il a exprimé sa fierté de résister à des tentations telles que l’ajout d’un « avatar de robot sexuel » à ChatGPT, en le présentant comme une concentration sur les objectifs à long terme plutôt que sur les indicateurs de croissance à court terme.
Cette dernière décision suggère une évolution significative dans sa réflexion sur le sujet.
Cette réaction négative met en évidence la tension centrale dans le développement de l’IA : équilibrer l’innovation avec le potentiel d’utilisation abusive. La défense d’OpenAI repose sur l’idée qu’elle ne devrait pas imposer un cadre moral unique à sa base d’utilisateurs mondiale.
Altman a affirmé: « nous ne sommes pas la police morale élue du monde », positionnant l’entreprise comme un fournisseur de technologie neutre plutôt que comme un arbitre de contenu.
Ok, ce tweet sur les changements à venir de ChatGPT a explosé sur le plan érotique bien plus que je ne le pensais ! Ce n’était censé être qu’un exemple de notre volonté d’accorder plus de liberté d’utilisation aux adultes. Voici un effort pour mieux le communiquer :
Comme nous l’avons dit plus tôt, nous sommes… https://t.co/OUVfevokHE
— Sam Altman (@sama) 15 octobre 2025
Un net revirement suite au procès pour sécurité des utilisateurs
La décision d’autoriser l’érotisme constitue un renversement radical des politiques adoptées le mois dernier. En septembre 2025, OpenAI a introduit des restrictions plus strictes sur le comportement de ChatGPT, en particulier dans les conversations sensibles. Cela faisait suite à une plainte déposée en août par les parents d’un jeune de 16 ans décédé par suicide.
La plainte alléguait que le chatbot avait validé et encouragé les « pensées les plus nocives et les plus autodestructrices » de l’adolescent. À l’époque, OpenAI avait reconnu que ses systèmes « ne se comportaient pas comme prévu ».
L’avocat de la famille, Jay Edelson, était sceptique quant aux promesses de l’entreprise, déclarant: « plutôt que de prendre des mesures d’urgence pour mettre hors ligne un produit dangereux connu, OpenAI a fait de vagues promesses de faire mieux. »
Cette histoire rend le tournant actuel d’autant plus controversé. Les critiques affirment qu’en assouplissant les règles sur le contenu si peu de temps après un procès lié à une tragédie, OpenAI donne la priorité à l’engagement plutôt qu’à son engagement déclaré en faveur de la sécurité. L’entreprise insiste sur le fait qu’elle a depuis mis en œuvre de nouveaux outils pour atténuer les risques graves pour la santé mentale.
Une épidémie de contenu explicite généré par l’IA à l’échelle de l’industrie
Le débat politique d’OpenAI est le dernier point d’éclair dans une crise à l’échelle de l’industrie concernant la prolifération du matériel explicite généré par l’IA. Le problème s’étend aux principales plates-formes technologiques et est devenu un défi sociétal et réglementaire important.
En août 2025, la xAI d’Elon Musk a été critiquée lorsqu’il a été découvert que son outil Grok Imagine créait des deepfakes nus non sollicités de Taylor Swift. L’incident, détaillé pour la première fois par The Verge, a souligné avec quelle facilité les outils d’IA générative peuvent être exploités pour créer des images intimes non consensuelles (NCII).
De même, Meta fait face à un procès massif de 359 millions de dollars de la part des producteurs de films pour adultes. La plainte, déposée en juillet 2025, allègue que la société a piraté des milliers de films protégés par le droit d’auteur pour entraîner son IA de génération vidéo, soulignant les pratiques controversées d’acquisition de données qui alimentent le boom de l’IA.
L’OpenAI elle-même n’est pas à l’abri des problèmes de qualité des données qui permettent d’accéder à des contenus problématiques. Plus tôt cette année, des chercheurs ont découvert que la bibliothèque de jetons chinoise utilisée pour entraîner son modèle phare GPT-4o était fortement polluée par du spam et des expressions pornographiques en raison d’un filtrage de données inadéquat.
Le problème des faux nus générés par l’IA s’intensifie depuis des années. Dès septembre 2023, des rapports ont fait état de faux nus réalistes de mineurs circulant dans les écoles espagnoles. Ce problème de longue date a suscité des appels à des mesures législatives, comme le Take It Down Act, et une pression accrue de la Maison Blanche pour que les entreprises technologiques s’autoréglementent.