Un journal pakistanais a souligné le problème croissant des résultats non vérifiés de l’IA après avoir imprimé par erreur un texte bavard provenant d’un chatbot. Dans son édition du 12 novembre, Dawn a inclus un message généré par l’IA pour rendre l’article manifestement généré”plus vif”, forçant à présenter des excuses publiques pour avoir enfreint ses propres règles.
Une telle erreur n’est pas un cas isolé mais fait partie d’une tendance plus large d’échecs de l’IA. Qu’il s’agisse de fausses sources juridiques utilisées devant les tribunaux ou de rapports gouvernementaux erronés, la ruée vers l’adoption de l’IA générative sans examen humain minutieux érode la confiance du public. C’est une tendance qui crée de graves problèmes concrets pour les grandes institutions.
« Voulez-vous que je fasse ça ensuite ? » : la gaffe publique d’un journal en matière d’IA
Le très respecté journal pakistanais de langue anglaise, Dawn, a publié un article sur les ventes d’automobiles qui se terminait par un étrange post-scriptum généré automatiquement. Au lieu d’un paragraphe de conclusion, l’article présentait un morceau classique de chatbot.
L’IA a demandé à son utilisateur: « Si vous le souhaitez, je peux également créer une version « style première page » encore plus vive avec des statistiques percutantes sur une ligne et une mise en page audacieuse, prête pour l’infographie, parfaite pour impact maximal sur le lecteur. Voulez-vous que je fasse cela ensuite ? »
Je sais que les journalistes utilisent l’IA dans leur travail, mais c’est un peu trop !
Le bureau des pages professionnelles de Dawn aurait dû au moins modifier le dernier paragraphe !
😆😆😆 pic.twitter.com/JWNdHNWvnv
— omar r quraishi (@omar_quraishi) 12 novembre 2025
Repérée rapidement par les lecteurs, la gaffe s’est rapidement répandue en ligne, obligeant le journal à publier un rectificatif et des excuses formelles. Dans une note annexée à la version en ligne de l’article, le rédacteur a admis :”Ce rapport de journal a été initialement édité à l’aide de l’IA, ce qui constitue une violation de la politique actuelle de Dawn en matière d’IA. … La violation de la politique en matière d’IA est regrettée.”
Une enquête sur l’incident serait en cours. Les directives officielles du journal interdisent explicitement l’utilisation de l’IA pour générer ou éditer des reportages sans une surveillance humaine rigoureuse.
Bien que la gaffe de Dawn ait provoqué un moment d’embarras public, elle sert de symbole puissant pour un problème beaucoup plus profond et plus conséquent. Dans tous les secteurs, le déploiement prématuré de l’IA générative sans supervision adéquate conduit à une série d’échecs très médiatisés, sapant les normes professionnelles et la confiance du public.
Un problème systémique : lorsque l’IA hallucine dans des domaines à enjeux élevés
Dans les domaines professionnels allant du droit à la santé publique, les organisations découvrent à leurs dépens qu’on ne peut pas faire confiance à de grands modèles de langage pour accomplir des tâches critiques. Connu sous le nom d’hallucination, le phénomène par lequel une IA invente avec confiance des faits, des sources ou des données s’avère être un défaut persistant et dangereux.
Un exemple récent et coûteux vient du monde du conseil. La société mondiale Deloitte a été contrainte de rembourser 97 000 dollars au gouvernement australien après qu’un rapport de 440 000 dollars qu’elle a produit s’est révélé criblé de citations fabriquées par l’IA.
Son rapport, une étude sensible du système de protection sociale du pays, citait des livres inexistants et citait mal des affaires juridiques. La sénatrice travailliste australienne Deborah O’Neill a vivement réprimandé:”Deloitte a un problème d’intelligence humaine. Cela serait risible si ce n’était pas si lamentable.”
Des problèmes aigus apparaissent également dans le secteur public. En juillet, des rapports ont révélé que la nouvelle IA « Elsa » de la Food and Drug Administration des États-Unis, destinée à accélérer l’approbation des médicaments, fabriquait plutôt des études médicales inexistantes. Les avocats de la société d’IA Anthropic ont dû présenter des excuses formelles à un juge après que leur propre Claude AI ait inventé une citation légale utilisée dans un dossier judiciaire.
Le journalisme, en particulier, a été témoin de cas répétés de cet oubli. Dans un cas étonnamment similaire datant d’octobre, le magazine allemand Der Spiegel a dû corriger un article qui contenait une phrase parasite générée par l’IA proposant de changer le ton du texte.
Ces erreurs ne se limitent pas à des fermes de contenu de bas niveau, mais apparaissent dans des médias respectés et établis, mettant en évidence une rupture systémique dans les flux de travail éditoriaux.
Ce ne sont pas des incidents isolés. Une étude internationale historique coordonnée par la BBC et l’Union européenne de radiodiffusion (UER) a révélé la nature systémique de ce manque de fiabilité.
Après avoir évalué plus de 3 000 réponses, ses résultats ont montré que les assistants IA produisent des erreurs significatives dans 45 % des réponses liées à l’actualité. Comme l’explique Jean Philip De Tender, directeur des médias de l’UER,”Cette étude montre de manière concluante que ces défaillances ne sont pas des incidents isolés. Ils sont systémiques, transfrontaliers et multilingues, et nous pensons que cela met en danger la confiance du public.”
Éroder la confiance : le coût réel d’une dérive incontrôlée de l’IA
Un flot constant de désinformations générées par l’IA inflige des dommages tangibles à l’écosystème de l’information numérique. Pour les plateformes fondamentales comme Wikipédia, les conséquences deviennent existentielles.
La Fondation Wikimedia a récemment signalé une baisse surprenante de 8 % du trafic humain, accusant directement les outils de recherche IA et les chatbots de siphonner les visiteurs en résumant son contenu sans attribution.
Une telle tendance menace le modèle bénévole de l’encyclopédie. Comme l’a prévenu Marshall Miller, directeur principal des produits de Wikimédia : « Avec moins de visites sur Wikipédia, moins de bénévoles peuvent développer et enrichir le contenu, et moins de donateurs individuels peuvent soutenir ce travail. » donner une leçon critique sur l’état actuel de l’IA. La responsabilité des erreurs ne peut pas être transférée à la machine.
Comme l’a noté Cassie Kozyrkov, ancienne scientifique en chef de Google, après qu’un robot de support pour l’éditeur de code Cursor AI ait inventé une fausse politique d’entreprise :”Ce gâchis aurait pu être évité si les dirigeants avaient compris que (1) l’IA fait des erreurs, (2) l’IA ne peut pas assumer la responsabilité de ces erreurs (elle vous incombe donc) et (3) les utilisateurs détestent être trompés par une machine se faisant passer pour un humain.”
Quoi Ce qui s’est passé à Dawn n’est que le dernier rappel en date qu’à l’ère de l’IA, le dernier niveau indispensable de contrôle qualité reste une surveillance humaine diligente.