Uno studio internazionale di riferimento pubblicato martedì rivela che i principali assistenti di intelligenza artificiale non sono una fonte affidabile di notizie, con errori significativi rilevati nel 45% delle loro risposte agli eventi attuali.

La ricerca, coordinata dalla European Broadcasting Union (EBU) e dalla BBC, ha identificato difetti sistemici in tutte le principali piattaforme.

Lo scarso sourcing è stato il problema più grande, con il modello Gemini di Google che ha ottenuto i risultati peggiori mostrando risultati significativi. problemi nel 76% delle risposte.

Il rapporto avverte che questi fallimenti mettono in pericolo la fiducia del pubblico, poiché le organizzazioni giornalistiche sono spesso erroneamente associate alle informazioni distorte o fabbricate dall’IA, ponendo un diretto rischio reputazionale.

Un problema sistemico e multilingue

In 14 lingue e 18 paesi, i risultati dipingono un quadro cupo dello stato attuale dell’IA generazione di notizie. La ricerca, che ha coinvolto 22 organizzazioni mediatiche di servizio pubblico, tra cui NPR negli Stati Uniti e CBC in Canada, rappresenta la più grande nel suo genere.

I giornalisti hanno valutato oltre 3.000 risposte da ChatGPT, Copilot, Gemini e Perplexity, concludendo che i problemi sono profondamente radicati.

Quasi la metà di tutte le risposte generate dall’intelligenza artificiale (un buon 45%) conteneva almeno un problema significativo. Questi problemi andavano da inesattezze fattuali a presentazioni fuorvianti delle informazioni.

Il direttore dei media dell’EBU, Jean Philip De Tender, ha sottolineato la gravità dei risultati.

“Questa ricerca dimostra in modo conclusivo che queste carenze non sono incidenti isolati. Sono sistemici, transfrontalieri e multilingue e riteniamo che ciò metta in pericolo la fiducia del pubblico.”

Tale diffusa inaffidabilità conferma che i problemi non sono problemi isolati ma debolezze fondamentali e sistemiche.

I fallimenti nell’approvvigionamento e le”citazioni cerimoniali”emergono come problemi fondamentali

Un’analisi approfondita dei dati rivela che l’approvvigionamento è il principale colpevole. Uno sconcertante 31% di tutte le risposte ha avuto problemi significativi con il modo in cui attribuivano le informazioni, inclusa la fornitura di citazioni mancanti, errate o interamente inventate.

Gemini di Google è stato un notevole sottoperformante, con problemi significativi che affliggevano il 76% delle sue risposte.

Il suo approvvigionamento era particolarmente scarso, con un tasso di errore significativo del 72%, più del doppio di quello dei suoi concorrenti.

Gli analisti di Il finlandese Yle ha notato una tattica comune su tutte le piattaforme:”Molte risposte contengono quelle che potrebbero essere chiamate’citazioni cerimoniali’-riferimenti aggiunti per creare l’impressione di una ricerca approfondita, ma che in realtà non supportano le affermazioni dichiarate una volta controllati.”

Queste false attribuzioni rendono quasi impossibile per gli utenti verificare le informazioni.

L’accuratezza fattuale era un’altra grande preoccupazione, con il 20% di tutte le risposte contenenti errori significativi come fatti obsoleti o dettagli”allucinati”.

Questi risultati sono coerenti con una tendenza più ampia del settore relativa all’inaffidabilità dell’intelligenza artificiale, osservata in recenti fallimenti di alto profilo come un rapporto Deloitte per il governo australiano che conteneva citazioni legali fabbricate dall’intelligenza artificiale e un’integrazione dell’intelligenza artificiale di Google Gmail che manipolava il contenuto delle e-mail.

Roulette reputazionale: come gli errori dell’intelligenza artificiale danneggiano il marchio News Fiducia

Per i brand giornalistici fidati, la posta in gioco è particolarmente alta. Uno studio separato della BBC/Ipsos pubblicato insieme al rapporto principale rivela un preoccupante divario di percezione: quasi la metà delle persone sotto i 35 anni si fida già degli assistenti di intelligenza artificiale per produrre risultati accurati riassunti delle notizie.

Quando questi riassunti sono errati, il pubblico incolpa sia il fornitore di intelligenza artificiale che la testata giornalistica citata come fonte.

Questa attribuzione errata crea una minaccia reputazionale diretta all’integrità giornalistica. La prefazione del rapporto offre una valutazione schietta:”Gli assistenti IA non sono ancora un modo affidabile per accedere e fruire delle notizie.”

Il problema è aggravato dal tono sicuro e autorevole adottato dagli assistenti, che può facilmente fuorviare gli utenti. Tale comportamento fa eco alle preoccupazioni emerse da precedenti valutazioni sulla sicurezza tra laboratori, secondo le quali i modelli di intelligenza artificiale spesso mostrano un”estremo servilismo”o un senso di autorità immeritato.

In risposta a questi problemi sistemici, l’EBU e la BBC chiedono un dialogo formale con le aziende tecnologiche per stabilire standard migliori di sicurezza, accuratezza e trasparenza.

Hanno anche pubblicato un “News Integrity in AI Assistants Toolkit” per fornire agli sviluppatori una guida pratica.

Peter Archer, direttore del programma della BBC per l’intelligenza artificiale generativa, ha sottolineato un approccio collaborativo, affermando:”Nonostante alcuni miglioramenti, è chiaro che ci sono ancora problemi significativi con questi assistenti. Vogliamo che questi strumenti abbiano successo e siamo aperti a collaborare con le aziende di intelligenza artificiale per offrire risultati al pubblico.”

Poiché gli assistenti di intelligenza artificiale diventano un gateway sempre più comune per le informazioni, garantirne l’affidabilità non è più solo una sfida tecnica: è una componente fondamentale per mantenere un ecosistema informativo sano.

Categories: IT Info