Pesquisadores do Google, da Duke University e de diversas organizações de mídia divulgaram um estudo abrangente que detalha o rápido aumento da desinformação gerada pela IA. A análise, publicada em uma pré-impressão, apresenta um vasto conjunto de dados de desinformação verificados por sites como o Snopes, que remonta a 1995.
 
Os pesquisadores alertam que o problema da desinformação gerada pela IA pode ser mais grave do que o relatado. A facilidade de produzir desinformação gerada pela IA supera em muito o esforço necessário para verificá-la, levando a um fluxo interminável de respostas incorretas e às vezes perigosas geradas pela IA que se tornam virais nas redes sociais.

Enorme Desinformação e desafios de verificação de fatos

O conjunto de dados do estudo, abrangendo 135.838 verificações de fatos, revela que as imagens geradas por IA se tornaram quase tão predominantes quanto as formas tradicionais de manipulação de conteúdo. Esse aumento na desinformação gerada por IA coincide com o lançamento de novas ferramentas de geração de imagens de IA por gigantes da tecnologia como OpenAI, Microsoft e o próprio Google.

O que começou com respostas estranhas do ChatGPT rapidamente evoluiu para alta deepfakes de qualidade. A implementação de recursos de imagem generativos de IA de última geração no Adobe Photoshop/Lightroom deve apenas acelerar essa onda de deepfakes que são difíceis de identificar. As visões gerais de IA em pesquisa lançadas recentemente pelo Google adicionam respostas flagrantemente falsas do principal mecanismo de pesquisa. Você pode conferir muitas dessas “falha de IA” no subreddit aifailedme.

A visão geral da IA ​​do Google recomenda beber grandes quantidades de urina para pedras nos rins
poru/WinBuzzer emaifailedme

Os verificadores de factos do Snopes, Politifact e outros websites assinalaram um aumento substancial na desinformação gerada pela IA. Os investigadores observam que, embora as imagens geradas pela IA fossem um problema menor até ao início do ano passado, desde então tornaram-se quase tão comuns como os textos. baseada em desinformação. O conjunto de dados indica que a maioria das reclamações surgiu depois de 2016, após a introdução do ClaimReview, um sistema de marcação para sinalizar desinformação. plataformas como Google, Facebook e Bing.

O impacto do hype da IA: Hoaxes em ascensão

O aumento da desinformação gerada pela IA tem sido paralelo por uma onda de entusiasmo pela IA, que pode ter influenciado o foco dos sites de verificação de fatos. No entanto, o estudo também mostra que a verificação de factos de imagens de IA abrandou nos últimos meses, com a manipulação tradicional de texto e imagens a registar um aumento.

A investigação também destaca a prevalência de boatos de vídeo, que agora constituem cerca de 60% de todas as afirmações verificadas que incluem mídia. Esta tendência sublinha o desafio crescente de combater a desinformação em várias formas de mídia.

Consequências no mundo real e preocupações éticas

A desinformação gerada pela IA teve resultados tangíveis. efeitos, desde imagens falsas de nudez de celebridades como Taylor Swift até fotos enganosas de eventos públicos. Por exemplo, fotos falsas de Katy Perry participando do Met Gala enganaram observadores nas redes sociais e até mesmo na própria estrela pais. Esses incidentes ilustram a facilidade com que a IA pode criar conteúdo convincente, porém falso.

Kate Perry em um ambiente seguro e deslumbrante #MetGala pic.twitter.com/ybpKvxmoIt

— Corar e brincadeiras (@blushandbanters) 7 de maio de 2024

Sasha Luccioni, pesquisadora de ética em IA da Hugging Face, enfatiza a dificuldade de acompanhar os numerosos exemplos de desinformação sobre IA. A ascensão do conteúdo gerado por IA apresentou desafios significativos para empresas de mídia social e mecanismos de pesquisa como o Google, que tiveram que lidar com imagens falsas de celebridades que aparecem com destaque nos resultados de pesquisa.

Categories: IT Info