Um importante estudo internacional divulgado na terça-feira revela que os principais assistentes de IA não são uma fonte confiável de notícias, com erros significativos encontrados em 45% de suas respostas a eventos atuais.

A pesquisa, coordenada pela European Broadcasting Union (EBU) e pela BBC, identificou falhas sistêmicas em todas as principais plataformas.

O fornecimento deficiente foi o maior problema, com o modelo Gemini do Google apresentando o pior desempenho, mostrando problemas significativos em 76% de suas respostas.

O relatório alerta que essas falhas colocam em risco a confiança do público, já que as organizações de notícias são frequentemente associadas incorretamente às informações distorcidas ou fabricadas da IA, representando um impacto direto na reputação. risco.

Um problema sistêmico e multilíngue

Em 14 idiomas e 18 países, as descobertas pintam um quadro sombrio do estado atual das notícias sobre IA geração. Envolvendo 22 organizações de mídia de serviço público, incluindo a NPR nos EUA e a CBC no Canadá, a pesquisa representa a maior do gênero.

Os jornalistas avaliaram mais de 3.000 respostas do ChatGPT, Copilot, Gemini e Perplexity, concluindo que os problemas estão profundamente enraizados.

Quase metade de todas as respostas geradas por IA (um total de 45%) continha pelo menos um problema significativo. Esses problemas variavam de imprecisões factuais a apresentações enganosas de informações.

O Diretor de Mídia da EBU, Jean Philip De Tender, enfatizou a gravidade das descobertas.

“Esta pesquisa mostra conclusivamente que essas falhas não são incidentes isolados. Elas são sistêmicas, transfronteiriças e multilíngues, e acreditamos que isso põe em risco a confiança do público.”

Essa falta de confiabilidade generalizada confirma que os problemas não são falhas isoladas, mas fraquezas sistêmicas fundamentais.

Falhas de fornecimento e ‘citações cerimoniais’ surgem como problema central

A análise detalhada dos dados revela que o fornecimento é o principal culpado. Impressionantes 31% de todas as respostas tiveram problemas significativos na forma como atribuíam informações, incluindo o fornecimento de citações ausentes, incorretas ou totalmente inventadas.

O Gemini do Google teve um desempenho notável, com problemas significativos afetando 76% de suas respostas.

Seu fornecimento foi particularmente ruim, com uma taxa de erro significativa de 72%, mais que o dobro da de seus concorrentes.

Analistas de Yle, da Finlândia, observou uma tática comum entre plataformas:”Muitas respostas contêm o que poderia ser chamado de’citações cerimoniais’-referências adicionadas para criar uma impressão de pesquisa completa, mas que na verdade não apoiam as afirmações declaradas quando verificadas.”detalhes “alucinados”.

Essas descobertas são consistentes com uma tendência mais ampla da indústria de falta de confiabilidade da IA, vista em falhas recentes de alto perfil, como um relatório da Deloitte para o governo australiano que continha citações legais fabricadas por IA e uma integração de IA do Google Gmail que manipulou o conteúdo de e-mails.

Roleta reputacional: como os erros de IA prejudicam a marca de notícias Confiança

Para marcas de notícias confiáveis, os riscos são particularmente altos. Um estudo separado da BBC/Ipsos publicado junto com o relatório principal revela uma lacuna de percepção preocupante: quase metade das pessoas com menos de 35 anos já confiam em assistentes de IA para produzir notícias precisas resumos.

Quando esses resumos apresentam falhas, o público culpa tanto o fornecedor de IA quanto a organização de notícias citada como fonte.

Essa atribuição incorreta cria uma ameaça direta à reputação da integridade jornalística. O prefácio do relatório oferece uma avaliação contundente: “Os assistentes de IA ainda não são uma forma confiável de acessar e consumir notícias.”

O problema é agravado pelo tom confiante e autoritário que os assistentes adotam, o que pode facilmente enganar os usuários. Esse comportamento ecoa preocupações de avaliações de segurança anteriores entre laboratórios, segundo as quais os modelos de IA muitas vezes exibem “extrema bajulação” ou um senso de autoridade imerecido.

Em resposta a essas questões sistêmicas, a EBU e a BBC estão pedindo um diálogo formal com empresas de tecnologia para estabelecer melhores padrões de segurança, precisão e transparência.

Eles também lançaram um “News Integrity in AI Assistants Toolkit” para fornecer aos desenvolvedores orientação prática.

Peter Archer, diretor do programa de IA generativa da BBC, enfatizou uma abordagem colaborativa, afirmando:”Apesar de algumas melhorias, está claro que ainda existem problemas significativos com esses assistentes. Queremos que essas ferramentas tenham sucesso e estamos abertos para trabalhar com empresas de IA para fornecer resultados ao público.”

À medida que os assistentes de IA se tornam uma porta de entrada cada vez mais comum para informações, garantir sua confiabilidade não é mais apenas um desafio técnico-é um componente crítico para manter um ecossistema de informações saudável.

Categories: IT Info