Një studim ndërkombëtar historik i publikuar të martën zbulon se asistentët kryesorë të AI nuk janë një burim i besueshëm për lajme, me gabime të rëndësishme të gjetura në 45% të përgjigjeve të tyre ndaj ngjarjeve aktuale.
Hulumtimi, i koordinuar nga Unioni Evropian i Transmetimeve (EBU) dhe BBC, identifikoi të meta sistemike në të gjitha platformat kryesore.
Problemi i dobët i modeleve me ndihmimin më të madh të Google tregoi se mini-problemet më të mëdha me ndihmimin e modeleve Gemini ishte ndihmesa më e madhe e Google. çështjet në 76% të përgjigjeve të tij.
Raporti paralajmëron se këto dështime rrezikojnë besimin e publikut, pasi organizatat e lajmeve shpeshherë janë të lidhura me informacione të gabuara ose të shtrembëruara me AI. rreziku i reputacionit.
Një problem sistematik, shumëgjuhësh
Në 14 gjuhë dhe 18 vende, përshkruajë gjendjen aktuale gjenerimi i lajmeve. Duke përfshirë 22 organizata mediatike të shërbimit publik, duke përfshirë NPR në SHBA dhe CBC në Kanada, hulumtimi përfaqëson më të madhin në llojin e tij.
Gazetarët vlerësuan mbi 3,000 përgjigje nga ChatGPT, Copilot, Gemini dhe Perplexity, duke arritur në përfundimin se çështjet janë të rrënjosura thellë-pothuajse gjysma e të gjithave. 45%—përmbante të paktën një çështje të rëndësishme. Këto probleme varionin nga pasaktësitë faktike deri te prezantimet mashtruese të informacionit.
Drejtori i medias i EBU, Jean Philip De Tender, theksoi gravitetin e gjetjeve.
“Ky hulumtim tregon përfundimisht se këto dështime nuk janë incidente të izoluara. Ato janë sistematike, ndërkufitare dhe shumëgjuhëshe dhe ne besojmë se kjo rrezikon besimin e publikut.”
Një mosbesueshmëri e tillë e përhapur nuk është thelbësore.
Dështimet e burimit dhe’Citimet ceremoniale’dalin si çështje thelbësore
Shpimi i të dhënave zbulon burimin si fajtorin kryesor. Një 31% mahnitëse e të gjitha përgjigjeve kishin probleme domethënëse me mënyrën se si ata i atribuonin informacionin, duke përfshirë dhënien e citimeve të munguara, të pasakta ose tërësisht të fabrikuara.
Gemini i Google ishte një performues i dobët, me probleme të rëndësishme që rëndonin 76% të përgjigjeve të tij.
Burimi i tij ishte veçanërisht i dobët se dyfishi i 7% të tij, me një normë gabimi prej 7%. konkurrentët.
Analistët nga Yle e Finlandës vuri në dukje një taktikë të zakonshme nëpër platforma:”Shumë përgjigje përmbajnë ato që mund të quhen”citime ceremoniale”-referenca të shtuara për të krijuar një përshtypje të një kërkimi të plotë, por që në fakt nuk i mbështesin pretendimet e deklaruara kur kontrollohen.”
Këto atribuime të rreme e bëjnë pothuajse të pamundur për përdoruesit të verifikojnë informacionin.
që përmbajnë gabime të rëndësishme si fakte të vjetruara ose Detaje”halucinative”.
Këto gjetje janë në përputhje me një tendencë më të gjerë të industrisë së pabesueshmërisë së AI, e parë në dështimet e fundit të profilit të lartë si një raport i Deloitte për qeverinë australiane që përmbante citate ligjore të fabrikuara nga AI dhe një integrim të AI të Google Gmail që manipulonte përmbajtjen e emaileve.
Si Lajmet Reputationale3 Roh.
Markë Besimi
Për markat e besuara të lajmeve, aksionet janë veçanërisht të larta. Një studim i veçantë i BBC/Ipsos i publikuar së bashku me raportin kryesor zbulon një boshllëk perceptues shqetësues: gati 5 tashmë i besojnë njerëzve të saktë nën AI. përmbledhjet e lajmeve.
Kur këto përmbledhje janë me të meta, audienca fajëson si ofruesin e AI dhe organizatën e lajmeve të cituar si burim.
Ky keqpërdorim krijon një kërcënim të drejtpërdrejtë të reputacionit për integritetin gazetaresk. Parathënia e raportit ofron një vlerësim të hapur:”Asistentët e AI nuk janë ende një mënyrë e besueshme për të hyrë dhe konsumuar lajmet.”
Problemi shtohet nga toni i sigurt dhe autoritar që adoptojnë asistentët, i cili lehtë mund të mashtrojë përdoruesit. Një sjellje e tillë i bën jehonë shqetësimeve nga vlerësimet e mëparshme të sigurisë ndër-laboratorike që zbuluan se modelet e AI shpesh shfaqin”sikofanti ekstreme”ose një ndjenjë të pafituar autoriteti.
Në përgjigje të këtyre çështjeve sistematike, EBU dhe BBC po bëjnë thirrje për një dialog formal me kompanitë e teknologjisë për të vendosur standarde më të mira për sigurinë, saktësinë dhe transparencën
href=”https://www.bbc.co.uk/aboutthebbc/documents/news-integrity-in-ai-assistants-toolkit.pdf”target=”_blank”>“Integriteti i lajmeve në Instrumentet e Asistentëve të AI” për t’u ofruar zhvilluesve udhëzime vepruese.
Drejtori i Programit të BBC Generative për Peter Archer, Peter Archer, Generative për BBC, theksoi një qasje bashkëpunuese, duke deklaruar:”Pavarësisht disa përmirësimeve, është e qartë se ka ende probleme të rëndësishme me këta asistentë. Ne duam që këto mjete të kenë sukses dhe jemi të hapur për të punuar me kompanitë e AI për të ofruar për audiencën.”
Ndërsa asistentët e AI bëhen një portë gjithnjë e më e zakonshme drejt informacionit, sigurimi i besueshmërisë së tyre nuk është më vetëm një sfidë e shëndetshme e informacionit