Há cerca de uma semana, o Google lançou o AI Overviews for Search, um recurso que compila resumos gerados por IA de várias fontes da web para responder às dúvidas dos usuários. Esse recurso, lançado nos Estados Unidos após a conferência de desenvolvedores I/O 2024 do Google, rapidamente atraiu críticas por inúmeras imprecisões factuais relatadas pelos usuários.

Lançado inicialmente em versão beta em maio de 2023 como parte da Pesquisa Experiência Generativa, a implementação de Visão Geral de IA visa agilizar a recuperação de informações do usuário, mas as imprecisões atuais destacam as complexidades e responsabilidades associadas à implantação de IA generativa em escala. Garantir a confiabilidade e a segurança do conteúdo gerado por IA é um desafio significativo para o Google.

O negócio principal do Google depende muito da pesquisa e dos anúncios gerados junto com os resultados de pesquisa, tornando crucial a confiabilidade de suas respostas geradas por IA. Particularmente, os funcionários do Google acreditam que as respostas problemáticas são questões marginais e que a IA geralmente funciona bem. A mudança dos resultados de pesquisa tradicionais para respostas geradas por IA representa uma mudança significativa na responsabilidade e autoridade que o Google assume no fornecimento de informações.

Relatórios de usuários destacam erros perigosos

As plataformas de mídia social foram inundadas com exemplos de respostas bizarras da IA ​​do Google Visão geral, como aconselhar os usuários a comer pedras. Um usuário recebeu uma sugestão bizarra de adicionar “cerca de 1/8 de xícara de cola não tóxica ao molho” para evitar que o queijo grude na pizza.
 

https://t.co/W09ssjvOkJ pic.twitter.com/6ALCbz6EjK

— SG-r01 (@heavenrend) 22 de maio de 2024

Outro usuário perguntou se era seguro deixar um cachorro em um carro quente e recebeu uma resposta afirmativa, citando letras fictícias dos Beatles. Esses incidentes levantaram sérias preocupações sobre a confiabilidade e a segurança das letras geradas pela IA. conteúdo.
 

https://t.co/U1wBLD67Mh pic.twitter.com/CHh74EMmUd

— napalm (@napalmtrees) 23 de maio de 2024

Ecos dos problemas de lançamento de Bard

Os problemas com visões gerais de IA lembram os desafios que o Google enfrentou com seu chatbot de IA, Bard, lançado em março de 2023. Bard foi criticado por não ter medidas éticas e de segurança adequadas. Em fevereiro de 2024, o Google teve que desativar o recurso de criação de imagens no sucessor de Bard, Gemini, após produzir imagens inadequadas de pessoas com tons de pele mais escuros. Desde então, o Google prometeu melhorias antes de reintroduzir o recurso, mas ele permanece inativo.

A empresa tem planos ambiciosos para visões gerais de IA, incluindo raciocínio em várias etapas para consultas complexas e pesquisa de vídeos no Google Lens, mas sua reputação atual é de risco devido a esses problemas iniciais.

O Google está sob pressão para competir com outros mecanismos de pesquisa baseados em IA, como o Bing e o potencial mecanismo de pesquisa da OpenAI, bem como com novas startups de IA, como a Perplexity AI, que oferece uma solução de IA-pesquisa na web.

Resposta do Google às críticas

O Google reconheceu os problemas com as visões gerais de IA e espera-se que tome medidas corretivas. O Google tem desativado manualmente as visões gerais de IA para pesquisas específicas após a disseminação dessas respostas incomuns nas redes sociais. A porta-voz do Google, Meghann Farnsworth disse que a empresa está tomando medidas rápidas para remover as visões gerais de IA para determinadas consultas e está usando esses exemplos para melhorar seus sistemas.

O CEO do Google, Sundar Pichai, afirma que o Google conseguiu reduzir o custo de entrega de respostas de IA em 80% por meio de hardware , engenharia e avanços técnicos. Mas em meio a um lançamento problemático, o compromisso do Google em melhorar a segurança e a precisão de seus recursos de IA será essencial para recuperar a confiança do usuário.
 
[conteúdo incorporado]

O Google argumenta que a maioria dos recursos de IA As visões gerais fornecem informações de alta qualidade e muitos dos exemplos problemáticos são consultas incomuns ou casos manipulados.

A história da empresa com Bard e Gemini sugere um padrão de lançamento de produtos de IA que posteriormente exigirão ajustes significativos. O Google tem um histórico de retirada de produtos de IA após reação dos usuários. Esse padrão de lançar, enfrentar críticas e depois retirar produtos já foi observado antes.

Categories: IT Info