Een Pakistaanse krant heeft het groeiende probleem van niet-gecontroleerde AI-uitvoer benadrukt nadat deze per ongeluk spraakzame tekst van een chatbot had afgedrukt. In de editie van 12 november nam Dawn een door AI gegenereerde boodschap op om het duidelijk gegenereerde artikel ‘snappier’ te maken, waardoor een publieke verontschuldiging werd afgedwongen voor het overtreden van zijn eigen regels.

Een dergelijke fout staat niet op zichzelf, maar maakt deel uit van een bredere trend van AI-fouten. Van nep-juridische bronnen die in de rechtbank worden gebruikt tot gebrekkige overheidsrapporten: de haast om generatieve AI te adopteren zonder zorgvuldige menselijke beoordeling ondermijnt het vertrouwen van het publiek. Het is een trend die serieuze, reële problemen voor grote instellingen creëert.

“Wil je dat ik dat nu doe?”: de publieke AI-gaffe van een krant

De zeer gerespecteerde Engelstalige krant Dawn van Pakistan publiceerde een artikel over autoverkoop dat eindigde met een bizar, machinaal gegenereerd naschrift. In plaats van een slotparagraaf bevatte het artikel een klassiek stukje chatbot-pluis.

De AI vroeg de gebruiker:”Als je wilt, kan ik ook een nog vlottere versie in’voorpaginastijl’maken met pittige statistieken van één regel en een gewaagde, infographic-ready lay-out-perfect voor maximale lezersimpact. Wil je dat ik dat vervolgens doe?“

Ik weet dat journalisten AI gebruiken in hun werk, maar dit is een beetje veel!

Het bureau van Dawn Business Pages had op zijn minst de laatste paragraaf moeten bewerken!

😆😆😆 pic.twitter.com/JWNdHNWvnv

— omar r quraishi (@omar_quraishi) 12 november 2025

De blunder werd snel opgemerkt door de lezers en verspreidde zich snel online, waardoor de krant gedwongen werd een correctie en een formele verontschuldiging uit te brengen. In een opmerking bij de online versie van het artikel gaf de redacteur toe:”Dit krantenbericht is oorspronkelijk bewerkt met behulp van AI, wat in strijd is met het huidige AI-beleid van Dawn…. De schending van het AI-beleid wordt betreurd.”

Er wordt naar verluidt een onderzoek naar het incident uitgevoerd. Officiële richtlijnen van de krant verbieden expliciet het gebruik van AI om nieuwsverhalen te genereren of te bewerken zonder streng menselijk toezicht.

Hoewel de blunder van Dawn voor een moment van publieke schaamte zorgde, dient het als een krachtig symbool voor een veel diepere en meer consequente kwestie. In alle sectoren leidt de voortijdige inzet van generatieve AI zonder adequaat toezicht tot een reeks spraakmakende mislukkingen, die de professionele standaarden en het vertrouwen van het publiek ondermijnen.

Een systemisch probleem: wanneer AI hallucineert op gebieden waar veel op het spel staat

Op alle vakgebieden, van recht tot volksgezondheid, ontdekken organisaties op harde wijze dat grote taalmodellen niet kunnen worden vertrouwd met cruciale taken. Het fenomeen waarbij een AI zelfverzekerd feiten, bronnen of gegevens verzint, bekend als hallucinatie, blijkt een hardnekkige en gevaarlijke fout te zijn.

Een recent en kostbaar voorbeeld komt uit de advieswereld. Het mondiale bedrijf Deloitte werd gedwongen 97.000 dollar terug te betalen aan de Australische overheid nadat bleek dat een rapport van 440.000 dollar dat het had opgesteld, vol stond met door AI verzonnen citaten.

Het rapport, een gevoelig overzicht van het socialezekerheidsstelsel van het land, citeerde niet-bestaande boeken en verkeerd geciteerde rechtszaken. De Australische Labour-senator Deborah O’Neill uitte een scherpe berisping en zei:”Deloitte heeft een probleem met de menselijke intelligentie. Dit zou lachwekkend zijn als het niet zo betreurenswaardig was.”

Acute problemen doen zich ook voor in de publieke sector. In juli kwamen er berichten naar voren dat de nieuwe “Elsa” AI van de Amerikaanse Food and Drug Administration, bedoeld om de goedkeuring van geneesmiddelen te versnellen, in plaats daarvan niet-bestaande medische onderzoeken verzon.

Een gefrustreerde FDA-medewerker beschreef de tool tegenover CNN als onbetrouwbaar en stelde dat het ‘vol vertrouwen hallucineert’, terwijl een ander klaagde: ‘Ik verspil veel extra tijd alleen al vanwege de verhoogde waakzaamheid die ik moet hebben.’

Op dezelfde manier, Advocaten van het AI-bedrijf Anthropic moesten zich formeel verontschuldigen bij een rechter nadat hun eigen Claude AI een juridisch citaat had uitgevonden dat werd gebruikt in een rechtszaak.

Vooral in de journalistiek zijn herhaaldelijk voorbeelden van dit toezicht gezien. In een opvallend vergelijkbaar geval uit oktober moest het Duitse tijdschrift Der Spiegel een artikel corrigeren dat een verdwaalde, door AI gegenereerde zin bevatte waarin werd aangeboden de toon van de tekst te veranderen.

Deze blunders zijn niet beperkt tot low-tier content farms maar verschijnen in gerespecteerde, gevestigde mediakanalen, wat een systematische storing in de redactionele workflows benadrukt.

Dit zijn geen geïsoleerde incidenten. Een baanbrekend internationaal onderzoek, gecoördineerd door de BBC en de European Broadcasting Union (EBU), bracht de systemische aard van deze onbetrouwbaarheid aan het licht.

Na evaluatie van meer dan 3.000 reacties bleek uit de bevindingen dat AI-assistenten significante fouten produceren in 45% van de nieuwsgerelateerde antwoorden. Zoals EBU Media Director Jean Philip De Tender uitlegde:”Dit onderzoek toont onomstotelijk aan dat deze tekortkomingen geen geïsoleerde incidenten zijn. Ze zijn systemisch, grensoverschrijdend en meertalig, en wij zijn van mening dat dit het vertrouwen van het publiek in gevaar brengt.”

Vertrouwen uithollen: de werkelijke kosten van ongecontroleerde AI-slop

Een gestage stroom van door AI gegenereerde desinformatie brengt tastbare schade toe aan het digitale informatie-ecosysteem. Voor fundamentele platforms zoals Wikipedia worden de gevolgen existentieel.

De Wikimedia Foundation rapporteerde onlangs een verrassende daling van 8% in het menselijk verkeer, waarbij AI-zoekhulpmiddelen en chatbots rechtstreeks de schuld kregen voor het overhevelen van bezoekers door de inhoud ervan samen te vatten zonder bronvermelding.

Een dergelijke trend bedreigt het door vrijwilligers aangestuurde model van de encyclopedie. Zoals Wikimedia’s Senior Product Director, Marshall Miller, waarschuwde: “Met minder bezoeken aan Wikipedia kunnen minder vrijwilligers de inhoud laten groeien en verrijken, en kunnen minder individuele donoren dit werk ondersteunen.”

Intern voert het platform al een strijd tegen door AI gegenereerde inzendingen, die een vrijwilliger omschreef als een “existentiële bedreiging”, wat de gemeenschap ertoe aanzette een beleid van ‘snelle verwijdering’ te hanteren om het ergste van de slordig te verwijderen.

Deze herhaalde mislukkingen uiteindelijk een kritische les geven over de huidige stand van zaken op het gebied van AI. De verantwoordelijkheid voor fouten kan niet op de machine worden afgewenteld.

Zoals voormalig hoofdbeslissingswetenschapper van Google, Cassie Kozyrkov, opmerkte nadat een ondersteuningsbot voor de Cursor AI-code-editor een nepbedrijfsbeleid had bedacht:”Deze puinhoop had voorkomen kunnen worden als leiders begrepen dat (1) AI fouten maakt, (2) AI geen verantwoordelijkheid kan nemen voor die fouten (dus het is jouw verantwoordelijkheid), en (3) gebruikers er een hekel aan hebben om misleid te worden door een machine die zich voordoet als een mens.”

Wat er gebeurde bij Dawn is eenvoudigweg de laatste herinnering dat in het tijdperk van AI de laatste, onmisbare laag van kwaliteitscontrole ijverig menselijk toezicht blijft.

Categories: IT Info