En pakistansk tidning har lyft fram det växande problemet med obevakad AI-utdata efter att den av misstag skrivit ut chattig text från en chatbot. I sin 12 november-utgåva inkluderade Dawn ett AI-genererat meddelande för att göra den uppenbart genererade artikeln”snappare”, vilket tvingar fram en offentlig ursäkt för att ha brutit mot sina egna regler.
Ett sådant fel är inte ett isolerat fall utan en del av en bredare trend av AI-misslyckanden. Från falska juridiska källor som används i domstol till bristfälliga regeringsrapporter, bråttom att införa generativ AI utan noggrann mänsklig granskning urholkar allmänhetens förtroende. Det är en trend som skapar allvarliga, verkliga problem för stora institutioner.
“Do You Want Me To Do That Next?”: A Newspaper’s Public AI Gaffe
Pakistans högt respekterade engelskspråkiga tidning, Dawn, publicerade en artikel om bilförsäljning som slutade med ett bisarrt, maskingenererat eftermanus. Istället för ett avslutande stycke innehöll artikeln ett klassiskt stycke chatbot-fluff.
AI:n frågade sin användare:”Om du vill, kan jag även skapa en punch-side-version med en front-line-version”. en djärv, infografisk layout – perfekt för maximal läsareffekt. Vill du att jag ska göra det härnäst?”
Jag vet att journalister använder AI i sitt arbete, men det här är lite mycket!
Dawn Business Pages-skrivbordet borde åtminstone ha redigerat det sista avsnittet!
😆😆😆 pic.twitter.com/JWNdHNWvnv
— omar r quraishi (@omar_quraishi) 12 november 2025
Spottades snabbt av läsare, ett problem som snabbt spreds av läsare, ett problem på nätet och en snabb korrigering av tidningen. ursäkt. I en anteckning som fogats till onlineversionen av artikeln medgav redaktören ,”Denna tidningsrapport redigerades ursprungligen med AI, vilket strider mot Dawns nuvarande AI-policy. pågår. Officiella riktlinjer från tidningen förbjuder uttryckligen att använda AI för att generera eller redigera nyhetsartiklar utan rigorös mänsklig tillsyn.
Medan Dawn-gafflen gav ett ögonblick av allmän förlägenhet, fungerar den som en viktigare fråga och mer följdriktig symbol för en mycket mer följdriktig symbol. Över hela branscher leder den förtida implementeringen av generativ AI utan adekvat övervakning till en rad uppmärksammade misslyckanden, som undergräver professionella standarder och allmänhetens förtroende.
Ett systemproblem: När AI hallucinerar i höginsatsområden
Över yrkesområden från juridik till folkhälsan kan organisationer inte upptäcka de svåra uppgifterna som har svårt att lita på. Känt som hallucination, har fenomenet där en AI med säkerhet uppfinner fakta, källor eller data visat sig vara ett ihållande och farligt fel.
Ett färskt och kostsamt exempel kommer från konsultvärlden. Det globala företaget Deloitte tvingades återbetala 97 000 USD till den australiensiska regeringen efter att en rapport på 440 000 USD som den producerade visade sig vara fylld av AI-tillverkade citat.
Dess rapport, en känslig granskning av landets välfärdssystem, citerade icke-existerande böcker och felciterade rättsfall. Den australiensiska Labour-senatorn Deborah O’Neill erbjöd en skarp tillrättavisning och sa:”Deloitte har ett mänskligt intelligensproblem. Det här skulle vara skrattretande om det inte var så beklagligt.”
Akuta problem dyker också upp i den offentliga sektorn. I juli dök det upp rapporter om att U.S. Food and Drug Administrations nya”Elsa”AI, avsedd att påskynda läkemedelsgodkännanden, istället tillverkade obefintliga medicinska studier.
En frustrerad FDA-anställd beskrev verktyget för CNN som opålitligt och sa att det”hallucinerar självsäkert”, medan en annan sörjde mycket för att jag bara beklagade den extra tid, måste ha.”
På liknande sätt var advokater för AI-företaget Anthropic tvungna att formellt be om ursäkt till en domare efter att deras egen Claude AI uppfann ett juridiskt citat som användes i en domstolsanmälan.
I synnerhet journalistik har sett upprepade fall av denna förbiseende. I ett slående liknande fall från oktober var den tyska tidskriften Der Spiegel tvungen att korrigera en artikel som innehöll en herrelös AI-genererad mening som erbjöd sig att ändra textens tonfall är inte begränsade till att innehållet är lågt.
men dyker upp i respekterade, etablerade medier, vilket visar på ett systemiskt sammanbrott i redaktionella arbetsflöden.
Detta är inte isolerade incidenter. En landmärke internationell studie koordinerad av BBC och European Broadcasting Union (EBU) avslöjade den systemiska karaktären av denna opålitlighet.
Efter att ha utvärderat över 3 000 svar visade resultaten att AI-assistenter producerar betydande fel i 45 % av nyhetsrelaterade svar. Som EBU:s mediachef Jean Philip De Tender förklarade,”Denna forskning visar definitivt att dessa brister inte är isolerade incidenter. De är systemiska, gränsöverskridande och flerspråkiga, och vi tror att detta äventyrar allmänhetens förtroende.”
Undra förtroende: The Real-World Cost of Unchecked AI Slop
påtaglig skada på det digitala informationsekosystemet. För grundläggande plattformar som Wikipedia blir konsekvenserna existentiella.
Wikimedia Foundation rapporterade nyligen om en häpnadsväckande 8 % nedgång i människotrafik, och skyllde direkt på AI-sökverktyg och chatbotar för att ha smutsat bort besökare genom att sammanfatta dess innehåll utan tillskrivning.
En sådan trend hotar encyklopedins frivilliga modell. Som Wikimedias Senior Director of Product, Marshall Miller, varnade:”Med färre besök på Wikipedia kan färre volontärer växa och berika innehållet, och färre enskilda givare kan stödja detta arbete.”
Internt utkämpar plattformen redan en kamp mot AI-genererade bidrag, som en volontär beskrev som ett”existerande hot mot att ta bort”communityn för att ta bort det det värsta av sloppet.
Dessa upprepade misslyckanden ger i slutändan en kritisk läxa om det aktuella tillståndet för AI. Ansvaret för fel kan inte överföras till maskinen.
Som tidigare Googles chefsbeslutsforskare Cassie Kozyrkov noterade efter att en supportbot för Cursor AI-kodredigeraren uppfann en falsk företagspolicy,”Den här röran kunde ha undvikits om ledarna förstod att (1) AI gör misstag, (2) AI kan inte ta ansvar för (3) användare kan inte ta ansvar för (3) misstag. av en maskin som poserar som en människa.”
Det som hände vid Dawn är helt enkelt den senaste påminnelsen om att i AI:s tidsålder förblir det sista, oumbärliga lagret av kvalitetskontroll en flitig mänsklig tillsyn.