Një gazetë pakistaneze ka nxjerrë në pah problemin në rritje të prodhimit të inteligjencës artificiale të paverifikuar pasi gabimisht printoi tekst bisedues nga një chatbot. Në edicionin e tij të 12 nëntorit, Dawn përfshiu një mesazh të krijuar nga AI për ta bërë artikullin e krijuar dukshëm”më të shkathët”, duke detyruar një falje publike për shkeljen e rregullave të veta.

Një gabim i tillë nuk është një rast i izoluar, por pjesë e një tendence më të gjerë të dështimeve të AI. Nga burimet e rreme ligjore të përdorura në gjykatë e deri te raportet me të meta të qeverisë, nxitimi për të miratuar AI gjeneruese pa shqyrtim të kujdesshëm njerëzor po gërryen besimin e publikut. Është një prirje që krijon probleme serioze të botës reale për institucionet kryesore.

“A do që unë ta bëj atë më pas?”: Gafa publike e AI-së së një gazete

Gazeta pakistaneze shumë e respektuar në gjuhën angleze, Dawn, botoi një artikull mbi shitjet e makinave që përfundoi me një shkrim të çuditshëm, të çuditshëm. Në vend të një paragrafi përmbyllës, artikulli paraqiste një pjesë klasike të pushit të chatbot-it.

Inteligjenca artificiale e pyeti përdoruesin e saj,”Nëse dëshironi një version më të stilit të faqes,”I-Cansnapp”Statistikat e mprehta me një rresht dhe një plan urbanistik i guximshëm, i gatshëm për infografik—perfekt për ndikim maksimal tek lexuesi?“

E di që gazetarët po përdorin AI në punën e tyre, por kjo është pak!

Tavolina e faqeve të biznesit të Agimit duhet të ketë të paktën të redaktuar paragrafin e fundit!

😆😆😆 pic.twitter.com/JWNdHNWvnv

— omar r quraishi (@omar_quraishi) 12 nëntor 2025

Gazeta që shpërndahet shpejt për lexuesit në internet dhe një falje zyrtare. Në një shënim të bashkangjitur versionit online të artikullit, redaktori pranoi,”Ky raport i gazetës fillimisht u redaktua duke përdorur AI, e cila është në kundërshtim me politikën aktuale të Dawn për AI. … Shkelja e politikës së AI është raportuar për një incident

për keqardhje”. Udhëzimet zyrtare nga gazeta ndalojnë në mënyrë eksplicite përdorimin e inteligjencës artificiale për të gjeneruar ose modifikuar lajme pa mbikëqyrje rigoroze njerëzore.

Ndërsa gafja”Agimi”siguroi një moment sikleti publik, ai shërben si një problem shumë më i thellë për publikun. Në të gjithë industritë, vendosja e parakohshme e inteligjencës artificiale gjeneruese pa mbikëqyrje adekuate po çon në një sërë dështimesh të profilit të lartë, duke minuar standardet profesionale dhe besimin e publikut.

Një problem sistematik: Kur AI halucinon në fusha me aksione të larta

Nëpërmjet ligjeve në fusha të mëdha të shëndetit publik, modele të vështira për t’u përdorur nga ligjet në fushën e shëndetit publik, besohen me detyra kritike. I njohur si halucinacion, fenomeni ku një AI shpik me besim fakte, burime ose të dhëna, rezulton të jetë një e metë e vazhdueshme dhe e rrezikshme.

Një shembull i kohëve të fundit dhe i kushtueshëm vjen nga bota e konsulencës. Firma globale Deloitte u detyrua t’i kthente 97,000 dollarë qeverisë australiane, pasi një raport prej 440,000 dollarësh që ajo prodhoi u zbulua se ishte i mbushur me citate të fabrikuara nga AI.

Raporti i saj, një rishikim i ndjeshëm i sistemit të mirëqenies së vendit, citonte libra joekzistues dhe raste ligjore të keqcituara. Senatorja laburiste australiane Deborah O’Neill ofroi një qortim të ashpër, duke thënë:”Deloitte ka një problem me inteligjencën njerëzore. Kjo do të ishte për të qeshur nëse nuk do të ishte kaq për të ardhur keq.”

Probleme akute po shfaqen gjithashtu në sektorin publik. Në korrik, dolën raporte se AI i ri”Elsa”i Administratës së Ushqimit dhe Barnave të SHBA-së, që synonte të përshpejtonte miratimet e barnave, në vend të kësaj po fabrikonte studime mjekësore që nuk ekzistonin.

Një punonjës i frustruar i FDA e përshkroi mjetin për CNN si të pabesueshëm, duke thënë se”halucinon me besim”, ndërsa një tjetër kohë u ankua shumë për vigjilencën. Duhet ta kem.“

Në mënyrë të ngjashme, avokatët e firmës së AI Anthropic duhej t’i kërkonin zyrtarisht falje një gjyqtari pasi Claude AI e tyre shpiku një citim ligjor të përdorur në një dosje gjyqësore.

Gazetaria, në veçanti, ka parë raste të përsëritura të kësaj mbikëqyrjeje. Në një rast çuditërisht të ngjashëm nga tetori, revistës gjermane Der Spiegel iu desh të korrigjonte një artikull që përfshinte një ofertë të devijuar për të ndryshuar AIs AI-t.

Këto gabime nuk kufizohen në ferma me përmbajtje të ulët, por po shfaqen në media të respektuara dhe të njohura, duke theksuar një ndarje sistematike në rrjedhat e punës editoriale.

Këto nuk janë incidente të izoluara. Një studim ndërkombëtar historik i koordinuar nga BBC dhe Unioni Evropian i Transmetimeve (EBU) zbuloi natyrën sistematike të kësaj mosbesueshmërie.

Pas vlerësimit të mbi 3000 përgjigjeve, gjetjet e tij treguan se asistentët e AI prodhojnë gabime të rëndësishme në 45% të përgjigjeve të lidhura me lajmet. Siç shpjegoi drejtori i EBU-së, Jean Philip De Tender,”Ky hulumtim tregon përfundimisht se këto dështime nuk janë incidente të izoluara. Ato janë sistematike, ndërkufitare dhe shumëgjuhëshe, dhe ne besojmë se kjo rrezikon besimin e publikut.”

Grooding Trust: The Real-World Cost of Pachecked AI Sloped of >

Keqinformimi i gjeneruar nga AI po shkakton dëme të prekshme në ekosistemin e informacionit dixhital. Për platformat themelore si Wikipedia, pasojat po bëhen ekzistenciale.

Fondacioni Wikimedia raportoi së fundmi një rënie befasuese prej 8% në trafikun njerëzor, duke fajësuar drejtpërdrejt mjetet e kërkimit të AI dhe chatbot-et për largimin e vizitorëve duke përmbledhur përmbajtjen e saj pa atribut.

Një prirje e tillë kërcënon volumin e modelit të enciklopedisë. Siç paralajmëroi Drejtori i Lartë i Produkteve të Wikimedia-s, Marshall Miller,”Me më pak vizita në Wikipedia, më pak vullnetarë mund të rriten dhe pasurojnë përmbajtjen dhe më pak donatorë individualë mund ta mbështesin këtë punë.”

Brenda, platforma tashmë po lufton një betejë kundër paraqitjeve të krijuara nga AI, të cilat përshkruhen si një”kërcënim ekzistues”, i cili një”prodhues e miraton komunitetin”. Politika e”fshirjes së shpejtë”për të hequr më të keqen.

Këto dështime të përsëritura përfundimisht japin një mësim kritik për gjendjen aktuale të AI. Përgjegjësia për gabimet nuk mund të shkarkohet në makinë.

Siç vuri në dukje ish-shkencëtarja kryesore e vendimmarrjes e Google, Cassie Kozyrkov pasi një robot mbështetës për redaktuesin e kodit AI të Cursor shpiku një politikë të rreme të kompanisë,”Kjo rrëmujë mund të ishte shmangur nëse udhëheqësit e kuptonin se (1) AI bën gabime, (2) AI bën gabime (2) urrej të mashtrohet nga një makinë që paraqitet si njeri.“

Ajo që ndodhi në Agim është thjesht rikujtuesi më i fundit se në epokën e AI, shtresa e fundit dhe e domosdoshme e kontrollit të cilësisë mbetet mbikëqyrja e zellshme njerëzore.