En pakistansk avis har fremhevet det økende problemet med ukontrollert AI-utgang etter at den ved en feiltakelse skrev ut chattende tekst fra en chatbot. I sin 12. november-utgave inkluderte Dawn en AI-generert melding for å gjøre den åpenbart genererte artikkelen «snappiere», og fremtvang en offentlig unnskyldning for å ha brutt sine egne regler.

En slik feil er ikke et isolert tilfelle, men en del av en bredere trend med AI-feil. Fra falske juridiske kilder brukt i retten til mangelfulle myndighetsrapporter, svekker hastverket med å ta i bruk generativ AI uten nøye menneskelig vurdering offentlighetens tillit. Det er en trend som skaper alvorlige, virkelige problemer for store institusjoner.

“Do You Want Me to Do That Next?”: A Newspaper’s Public AI Gaffe

Pakistans høyt respekterte engelskspråklige avis, Dawn, publiserte en artikkel om bilsalg som endte med et bisarrt, maskingenerert etterskrift. I stedet for et avsluttende avsnitt, inneholdt artikkelen et klassisk stykke chatbot-fluff.

AI-en spurte brukeren sin:”Hvis du vil, kan jeg også lage en punch-side-versjon med statistikk og frontlinje”en dristig, infografisk-klar layout – perfekt for maksimal leserpåvirkning. Vil du at jeg skal gjøre det neste?

Dawn Business Pages desk burde i det minste ha redigert det siste avsnittet!

😆😆😆 pic.twitter.com/JWNdHNWvnv

— omar r quraishi (@omar_quraishi) 12. november 2025

Oppdaget raskt av lesere, og avisen ble oppdaget for raskt å korrigere spørsmålet på nett, og en feilretting på nett. unnskyldning. I et notat vedlagt nettversjonen av artikkelen, innrømmet redaktøren:”Denne avisrapporten ble opprinnelig redigert ved bruk av AI, som er i strid med Dawns gjeldende AI-policy. … Brudd på AI-policyen er rapportert. i gang. Offisielle retningslinjer fra avisen forbyr eksplisitt bruk av kunstig intelligens for å generere eller redigere nyhetssaker uten streng menneskelig tilsyn.

Mens Dawn-gaffet ga et øyeblikk av offentlig forlegenhet, fungerer det som et potensielt viktigere symbol og mer følgelig symbol. På tvers av bransjer fører for tidlig utplassering av generativ AI uten tilstrekkelig tilsyn til en rekke høyprofilerte feil, som undergraver profesjonelle standarder og offentlig tillit.

Et systemisk problem: Når AI hallusinerer i høyinnsatsfelt

På tvers av fagfelt fra juss til folkehelse, kan ikke organisasjoner oppdage kritiske oppgavemodeller med vanskelige oppgaver. Kjent som hallusinasjon, har fenomenet der en kunstig intelligens selvsikkert finner opp fakta, kilder eller data, vist seg å være en vedvarende og farlig feil.

Et nylig og kostbart eksempel kommer fra konsulentverdenen. Det globale firmaet Deloitte ble tvunget til å refundere 97 000 dollar til den australske regjeringen etter at en rapport på 440 000 dollar den produserte ble funnet å være full av AI-fabrikerte sitater.

Rapporten, en sensitiv gjennomgang av landets velferdssystem, siterte ikke-eksisterende bøker og feilsiterte juridiske saker. Den australske Labour-senatoren Deborah O’Neill ga en skarp irettesettelse og sa:”Deloitte har et menneskelig intelligensproblem. Dette ville vært latterlig hvis det ikke var så beklagelig.”

Akutt problemer dukker også opp i offentlig sektor. I juli dukket det opp rapporter om at U.S. Food and Drug Administrations nye «Elsa» AI, som hadde til hensikt å øke hastigheten på legemiddelgodkjenningen, i stedet fabrikerte ikke-eksisterende medisinske studier.

En frustrert FDA-ansatt beskrev verktøyet til CNN som upålitelig, og uttalte at det «hallusinerer selvsikkert», mens en annen beklaget mye av tiden, «jeg beklaget mye over den ekstra tiden. må ha.»

Tilsvarende måtte advokater for AI-firmaet Anthropic formelt be om unnskyldning til en dommer etter at deres egen Claude AI fant opp en juridisk henvisning brukt i en rettssak.

Spesielt journalistikk har sett gjentatte tilfeller av denne forglemmelsen. I en slående lik sak fra oktober måtte det tyske magasinet Der Spiegel korrigere en artikkel som inkluderte en feil AI-generert setning som tilbød å endre tekstens tone er ikke begrenset til lavt innhold.

men dukker opp i respekterte, etablerte medier, og fremhever et systemisk sammenbrudd i redaksjonelle arbeidsflyter.

Dette er ikke isolerte hendelser. En landemerke internasjonal studie koordinert av BBC og European Broadcasting Union (EBU) avslørte den systemiske karakteren av denne upåliteligheten.

Etter å ha evaluert over 3000 svar, viste funnene at AI-assistenter produserer betydelige feil i 45 % av nyhetsrelaterte svar. Som EBUs mediedirektør Jean Philip De Tender forklarte,”Denne forskningen viser definitivt at disse feilene ikke er isolerte hendelser. De er systemiske, grenseoverskridende og flerspråklige, og vi mener at dette setter offentlig tillit i fare.”

Eroding Trust: The Real-World Cost of Unchecked AI Slop

påføre det digitale informasjonsøkosystemet konkret skade. For grunnleggende plattformer som Wikipedia, blir konsekvensene eksistensielle.

Wikimedia Foundation rapporterte nylig en oppsiktsvekkende nedgang på 8 % i menneskelig trafikk, og beskyldte direkte AI-søkeverktøy og chatboter for å ha tatt bort besøkende ved å oppsummere innholdet uten attribusjon.

En slik trend truer den leksikondrevne modellen for frivillig arbeid. Som Wikimedias seniordirektør for produkt, Marshall Miller, advarte: «Med færre besøk på Wikipedia, kan færre frivillige vokse og berike innholdet, og færre individuelle givere kan støtte dette arbeidet.»

Internt kjemper plattformen allerede en kamp mot AI-genererte bidrag, som en frivillig beskrev som en «eksisterende trussel om å vedta sletting» den verste av pytten.

Disse gjentatte feilene gir til slutt en kritisk leksjon om den nåværende tilstanden til AI. Ansvar for feil kan ikke overføres til maskinen.

Som tidligere Googles sjefsbeslutningsforsker Cassie Kozyrkov bemerket etter at en støtterobot for Cursor AI-koderedigereren oppfant en falsk selskapspolicy,”Dette rotet kunne vært unngått hvis ledere forsto at (1) AI gjør feil, (2) AI kan ikke ta ansvar for at de tar feil (3) brukere kan ikke ta ansvar for (3) brukere. av en maskin som utgir seg for å være et menneske.»

Det som skjedde ved Dawn er ganske enkelt den siste påminnelsen om at i AIs tidsalder forblir det siste, uunnværlige laget av kvalitetskontroll flittig menneskelig tilsyn.

Categories: IT Info