O portal de notícias MSN da Microsoft está sob escrutínio depois de publicar um artigo gerado por IA que rotulou o recém-falecido jogador da NBA, Brandon Hunter, como “inútil”. O artigo original, que apareceu em um site de notícias esportivas chamado “Race Track”, se tornou viral, gerando críticas generalizadas.

O artigo, que aparentemente foi gerado por IA, descreveu a morte do ex-jogador da NBA de 42 anos de maneira desagradável, com frases como “entregue” e “ realizado em 67 videogames.”Este incidente levantou preocupações sobre a confiabilidade e a sensibilidade do conteúdo gerado por IA, especialmente quando se trata de tópicos delicados como obituários.

Um ex-jogador da NBA morre jovem, e a IA escreve esta manchete:

“Brandon Hunter inútil em 42”

E verifique a prosa:

“O ex-jogador da NBA Brandon Hunter, que já jogou pelo Boston Celtics e pelo Orlando Magic, faleceu aos 42 anos.”https://t.co/xEvVVHo9DP pic.twitter.com/EiKlZEhluS

— Joshua Benton (@jbenton) 14 de setembro de 2023

Percalços anteriores de IA na Microsoft

Esta não é a primeira vez que as iniciativas de IA do Microsoft News são criticadas. Em agosto de 2023, um guia de viagem gerado por IA no portal de notícias MSN recomendou estranhamente um banco de alimentos local em Ottawa, Canadá, como atração turística. Apesar destes erros repetidos, a Microsoft continua a depender fortemente de conteúdos gerados por IA.

Em 2020, a empresa chegou a despedir a sua equipa de jornalistas do MSN, levando a um aumento de artigos gerados por IA na plataforma. Alguns desses artigos foram criticados por serem factualmente imprecisos, mal compostos ou até mesmo plagiados.

As implicações mais amplas da IA ​​no jornalismo

As controvérsias recentes que cercam o conteúdo gerado pela IA da Microsoft destacam os desafios e implicações mais amplos da integração da IA ​​no jornalismo. Embora a IA possa gerar conteúdo rapidamente e em grande escala, falta-lhe o toque humano, a sensibilidade e o julgamento necessários para determinados tópicos.

O incidente com o obituário de Brandon Hunter serve como um forte lembrete das potenciais armadilhas de confiar também fortemente na IA para geração de conteúdo. À medida que a IA continua a desempenhar um papel mais proeminente no jornalismo, é crucial que os editores encontrem o equilíbrio certo entre automação e supervisão humana para manter a confiança e a credibilidade.

A Microsoft aproveita a mesma geração de conteúdo de IA que sustenta o Bing Chatbot de pesquisa de IA de bate-papo. Isso pode ser problemático porque o Bing Chat é uma fonte de informações pouco confiável. Parei de usar o Bing Chat como qualquer tipo de ferramenta de busca/pesquisa adequada. O chatbot da Microsoft é simplesmente muito aleatório com a verdade, incluindo o fornecimento de citações falsas, a invenção de nomes e, geralmente, a obtenção de detalhes menores-mas importantes-errados.

O Bing Chat também revela suas imprecisões, argumenta e fica muito confuso facilmente. Isso é importante porque significa que os usuários precisam microgerenciar o bot, usar instruções muito claras e estar dispostos a verificar tudo o que ele produz. Isso consome tempo e não é muito eficiente para o que deveria ser uma ferramenta de pesquisa.

Se os resultados das pesquisas não são confiáveis, qual é o sentido de usar o Bing Chat? É uma situação semelhante ao usá-lo para qualquer tipo de criação de conteúdo. Se for necessário verificar tudo e usar vários prompts, essas ferramentas estão realmente nos ajudando?

Categories: IT Info