OpenAI a publié un nouveau rapport détaillant un cadre permettant de mesurer et de réduire les préjugés politiques dans ses grands modèles linguistiques (LLM), un défi persistant pour l’industrie de l’IA. La société affirme que ses derniers modèles GPT-5 affichent une réduction de 30 % des sorties biaisées par rapport aux versions précédentes comme GPT-4o.

Cette décision répond à des préoccupations de longue date concernant l’objectivité de l’IA et fait suite à des initiatives similaires de concurrents comme Meta et Anthropic. La position officielle de l’entreprise est sans équivoque: « ChatGPT ne devrait avoir aucun parti pris politique dans aucune direction. »

Le nouveau cadre d’OpenAI pour mesurer l’objectivité

Au cœur du annonce est un nouveau cadre d’évaluation qui définit cinq « axes » spécifiques de biais. Ce système est conçu pour capturer les manières nuancées dont les biais peuvent se manifester au-delà des simples erreurs factuelles, offrant une vue plus globale du comportement du modèle.

Les cinq axes sont : l’invalidation de l’utilisateur (rejet de la demande d’un utilisateur vue), l’escalade de l’utilisateur (amplifiant le ton chargé d’un utilisateur), l’expression politique personnelle (le modèle énonçant ses opinions comme étant les siennes), la couverture asymétrique (présentant de manière inégale plusieurs points de vue) et les refus politiques.

Pour tester cela, la recherche d’OpenAI a impliqué un ensemble de données de 500 invites couvrant 100 sujets politiques et culturels différents. Chaque sujet a été abordé sous cinq angles idéologiques distincts, allant de « conservateur » à « libéral », afin de tester la neutralité des modèles.

L’objectif, selon le rapport, est d’instaurer la confiance grâce à la transparence et à des améliorations mesurables. L’entreprise souligne que”les gens utilisent ChatGPT comme un outil pour apprendre et explorer des idées. Cela ne fonctionne que s’ils font confiance à ChatGPT pour être objectif.”

Un défi persistant : quand et comment les biais apparaissent

L’une des principales conclusions de la recherche est que même si les modèles fonctionnent bien sur des invites neutres, ils peuvent toujours présenter un « biais modéré » lorsqu’ils répondent à des questions « chargées d’émotion ». Cela met en évidence que l’objectivité d’un modèle peut se dégrader sous la pression.

Le rapport note également une asymétrie spécifique : les invites fortement chargées et de gauche étaient plus susceptibles de susciter une réponse biaisée que leurs homologues conservatrices. Cela suggère que la nature et la direction de l’inclinaison de l’entrée peuvent influencer de manière disproportionnée la sortie du modèle.

Malgré ces défis dans les cas extrêmes, OpenAI estime que moins de 0,01 % des réponses ChatGPT réelles montrent des signes de parti pris politique. Cela suggère que même si le potentiel de biais existe, son apparition dans une utilisation quotidienne typique est rare.

Ce travail sur le biais complète également le lancement en août 2025 de GPT-5, qui a introduit une nouvelle fonctionnalité de sécurité appelée « achèvements sécurisés » pour mieux gérer les requêtes ambiguës à « double usage », indiquant une approche à multiples facettes de la sécurité et de la fiabilité des modèles.

La course plus large de l’industrie pour Neutralité de l’IA

L’initiative d’OpenAI s’inscrit dans une tendance plus large du secteur axée sur la lutte contre la neutralité de l’IA. Le problème n’est pas nouveau ; une étude de 2023 avait déjà mis en évidence les préjugés politiques dans des modèles comme GPT-4. De même, la société rivale Anthropic a publié fin 2023 des recherches sur l’atténuation des biais démographiques dans ses modèles.

Plus récemment, Meta a annoncé en avril 2025 qu’elle peaufinait activement ses modèles Llama 4 pour contrecarrer ce qu’elle a décrit comme un biais historique de gauche. Dans son annonce, Meta a déclaré: « Il est bien connu que tous les principaux LLM ont eu des problèmes de parti pris – en particulier, ils ont historiquement penché à gauche lorsqu’il s’agit de sujets politiques et sociaux débattus. »

La question de l’intervention politique directe a été clairement mise en évidence en février 2025, lorsqu’il a été découvert que Grok de xAI avait reçu pour instruction explicite de censurer les critiques d’Elon Musk et de Donald Trump. Un dirigeant de xAI a confirmé plus tard qu’un employé avait effectué le changement et que « une fois que les gens ont signalé l’invite problématique, nous l’avons immédiatement annulé. »

En publiant son cadre, OpenAI invite à un examen plus minutieux, mais vise également à établir une norme de transparence dans un domaine essentiel pour la confiance du public. À mesure que les modèles d’IA s’intègrent de plus en plus dans la vie quotidienne, garantir leur objectivité n’est plus un exercice académique mais une exigence fondamentale pour leur déploiement responsable.

Categories: IT Info