Një gazetë pakistaneze ka nxjerrë në pah problemin në rritje të prodhimit të inteligjencës artificiale të paverifikuar pasi gabimisht printoi tekst bisedues nga një chatbot. Në edicionin e tij të 12 nëntorit, Dawn përfshiu një mesazh të krijuar nga AI për ta bërë artikullin e krijuar dukshëm”më të shkathët”, duke detyruar një falje publike për shkeljen e rregullave të veta.
Një gabim i tillë nuk është një rast i izoluar, por pjesë e një tendence më të gjerë të dështimeve të AI. Nga burimet e rreme ligjore të përdorura në gjykatë e deri te raportet me të meta të qeverisë, nxitimi për të miratuar AI gjeneruese pa shqyrtim të kujdesshëm njerëzor po gërryen besimin e publikut. Është një prirje që krijon probleme serioze të botës reale për institucionet kryesore.
“A do që unë ta bëj atë më pas?”: Gafa publike e AI-së së një gazete
Gazeta pakistaneze shumë e respektuar në gjuhën angleze, Dawn, botoi një artikull mbi shitjet e makinave që përfundoi me një shkrim të çuditshëm, të çuditshëm. Në vend të një paragrafi përmbyllës, artikulli paraqiste një pjesë klasike të pushit të chatbot-it.
Inteligjenca artificiale e pyeti përdoruesin e saj,”Nëse dëshironi një version më të stilit të faqes,”I-Cansnapp”Statistikat e mprehta me një rresht dhe një plan urbanistik i guximshëm, i gatshëm për infografik—perfekt për ndikim maksimal tek lexuesi?“
E di që gazetarët po përdorin AI në punën e tyre, por kjo është pak!
Tavolina e faqeve të biznesit të Agimit duhet të ketë të paktën të redaktuar paragrafin e fundit!
😆😆😆 pic.twitter.com/JWNdHNWvnv
— omar r quraishi (@omar_quraishi) 12 nëntor 2025
Gazeta që shpërndahet shpejt për lexuesit në internet dhe një falje zyrtare. Në një shënim të bashkangjitur versionit online të artikullit, redaktori pranoi,”Ky raport i gazetës fillimisht u redaktua duke përdorur AI, e cila është në kundërshtim me politikën aktuale të Dawn për AI. … Shkelja e politikës së AI është raportuar për një incident
për keqardhje”. Udhëzimet zyrtare nga gazeta ndalojnë në mënyrë eksplicite përdorimin e inteligjencës artificiale për të gjeneruar ose modifikuar lajme pa mbikëqyrje rigoroze njerëzore.
Ndërsa gafja”Agimi”siguroi një moment sikleti publik, ai shërben si një problem shumë më i thellë për publikun. Në të gjithë industritë, vendosja e parakohshme e inteligjencës artificiale gjeneruese pa mbikëqyrje adekuate po çon në një sërë dështimesh të profilit të lartë, duke minuar standardet profesionale dhe besimin e publikut.
Një problem sistematik: Kur AI halucinon në fusha me aksione të larta
Nëpërmjet ligjeve në fusha të mëdha të shëndetit publik, modele të vështira për t’u përdorur nga ligjet në fushën e shëndetit publik, besohen me detyra kritike. I njohur si halucinacion, fenomeni ku një AI shpik me besim fakte, burime ose të dhëna, rezulton të jetë një e metë e vazhdueshme dhe e rrezikshme.
Një shembull i kohëve të fundit dhe i kushtueshëm vjen nga bota e konsulencës. Firma globale Deloitte u detyrua t’i kthente 97,000 dollarë qeverisë australiane, pasi një raport prej 440,000 dollarësh që ajo prodhoi u zbulua se ishte i mbushur me citate të fabrikuara nga AI.
Raporti i saj, një rishikim i ndjeshëm i sistemit të mirëqenies së vendit, citonte libra joekzistues dhe raste ligjore të keqcituara. Senatorja laburiste australiane Deborah O’Neill ofroi një qortim të ashpër, duke thënë:”Deloitte ka një problem me inteligjencën njerëzore. Kjo do të ishte për të qeshur nëse nuk do të ishte kaq për të ardhur keq.”
Probleme akute po shfaqen gjithashtu në sektorin publik. Në korrik, dolën raporte se AI i ri”Elsa”i Administratës së Ushqimit dhe Barnave të SHBA-së, që synonte të përshpejtonte miratimet e barnave, në vend të kësaj po fabrikonte studime mjekësore që nuk ekzistonin.
Një punonjës i frustruar i FDA e përshkroi mjetin për CNN si të pabesueshëm, duke thënë se”halucinon me besim”, ndërsa një tjetër kohë u ankua shumë për vigjilencën. Duhet ta kem.“
Në mënyrë të ngjashme, avokatët e firmës së AI Anthropic duhej t’i kërkonin zyrtarisht falje një gjyqtari pasi Claude AI e tyre shpiku një citim ligjor të përdorur në një dosje gjyqësore.
Gazetaria, në veçanti, ka parë raste të përsëritura të kësaj mbikëqyrjeje. Në një rast çuditërisht të ngjashëm nga tetori, revistës gjermane Der Spiegel iu desh të korrigjonte një artikull që përfshinte një ofertë të devijuar për të ndryshuar AI
s AI-t.Këto gabime nuk kufizohen në ferma me përmbajtje të ulët, por po shfaqen në media të respektuara dhe të njohura, duke theksuar një ndarje sistematike në rrjedhat e punës editoriale.
Këto nuk janë incidente të izoluara. Një studim ndërkombëtar historik i koordinuar nga BBC dhe Unioni Evropian i Transmetimeve (EBU) zbuloi natyrën sistematike të kësaj mosbesueshmërie.
Pas vlerësimit të mbi 3000 përgjigjeve, gjetjet e tij treguan se asistentët e AI prodhojnë gabime të rëndësishme në 45% të përgjigjeve të lidhura me lajmet. Siç shpjegoi drejtori i EBU-së, Jean Philip De Tender,”Ky hulumtim tregon përfundimisht se këto dështime nuk janë incidente të izoluara. Ato janë sistematike, ndërkufitare dhe shumëgjuhëshe, dhe ne besojmë se kjo rrezikon besimin e publikut.”