O Google está atualizando seu modo AI em pesquisa com uma série de novas ferramentas multimídia poderosas, com o objetivo de tornar a pesquisa mais interativa e contextual para tarefas complexas. A empresa anunciou em 29 de julho que os usuários dos EUA podem transmitir em breve vídeo ao vivo de suas câmeras para fazer perguntas usando um novo recurso chamado’Search Live’. Esses recursos, que começam a ser lançados nesta semana, representam o mais recente impulso do Google para transformar seu produto principal de uma lista de links em um”mecanismo de resposta”abrangente. Integrado à lente do Google e com base em sua iniciativa Avanced Project Astra, ela permite que os usuários transmitam a câmera do telefone diretamente para o modo AI. Isso permite que eles façam perguntas conversacionais sobre o que estão vendo em tempo real, permitindo que o modelo aproveite o contexto visual ao vivo para fornecer respostas mais precisas e relevantes. Interface de lente do Google redesenhada, que agora apresenta uma guia”Live”dedicada ao lado de”Pesquisa”e”Traduzir”. A adição de vídeo ao vivo se baseia diretamente nos recursos de entrada de voz que o Google introduziu para pesquisar no mês passado, sinalizando uma estratégia clara para ir além das consultas baseadas em texto. Esse recurso começa a ser lançado esta semana para os usuários dos EUA no Android e iOS se inscreveram no experimento de Laboratório de Pesquisa, . Desktop, trazendo seus recursos para a paridade com o celular. Em breve, os usuários poderão fazer upload de imagens e, pela primeira vez, os arquivos PDF diretamente do computador. Isso lhes permite Faça perguntas detalhadas sobre esses documentos e traga esse contexto específico para uma pesquisa mais ampla. Informações da Web para gerar respostas detalhadas. Esse recurso de análise em PDF está programado para ser lançado nas próximas semanas, com o Google observando que o suporte para tipos de arquivos adicionais, inclusive do Google Drive, está planejado para o futuro. Esse recurso, semelhante a um utilitário encontrado no aplicativo dedicado Gemini, atua como um painel lateral dinâmico que permite aos usuários criar planos e organizar informações em várias sessões. Ele foi projetado para transformar o modo IA de uma ferramenta simples de perguntas e respostas em um espaço de trabalho persistente para combater tarefas complexas e de várias etapas. Após uma consulta inicial, os usuários podem selecionar um botão”Criar tela”para iniciar. A ferramenta é altamente interativa, permitindo perguntas de acompanhamento e, crucialmente, permitindo que os usuários façam edições diretas simplesmente destacando uma parte do texto gerado pela IA. Isso oferece aos usuários controle granular para refinar e personalizar o plano à medida que avançam. Essa sinergia permite uma janela de contexto muito mais ampla e mais pessoal. Por exemplo, um aluno pode fazer upload de seu currículo ou notas de classe como um PDF, e a tela usará essas informações específicas para gerar um guia de estudo altamente relevante e personalizado. Isso preenche a lacuna entre sugestões genéricas de IA e planos personalizados e acionáveis.
Esse novo recurso está programado para ficar disponível nas próximas semanas. Inicialmente, ele será lançado na Web de desktop para usuários nos EUA que estão matriculados no Ai Mode Experiment nos laboratórios de pesquisa , sinalizando o Google para testar e refinar a ferramenta de produtividade com sua produtividade Essas atualizações são as mais recentes de uma série rápida de integrações de IA projetadas para mudar a pesquisa do Google de um diretório de links para um destino que fornece respostas diretas. Isso segue o lançamento recente do experimento”Guia da Web”, que usa IA para organizar os resultados da pesquisa em grupos baseados em tópicos. Pesquisa exaustiva. Enquanto o Google enquadra essas ferramentas como conveniências do usuário, elas intensificam um conflito contínuo com os editores da Web. Muitos no setor de mídia argumentam que, como o Google fornece respostas mais sintetizadas, canibaliza o tráfego de referência que sustenta seus modelos de negócios, um medo apoiado por estudos recentes. A frustração é palpável em todo o setor. Danielle Coffey, CEO da News/Media Alliance, argumentou que”os links eram a última qualidade resgatadora da pesquisa que deu aos editores tráfego e receita. Agora, o Google apenas pega conteúdo pela força e o usa sem retorno”. Esse sentimento alimentou os desafios legais e financeiros contra as práticas de IA do Google. O Grupo de Advocacia Foxgleve recentemente apresentou uma grande queixa antitruste da UE, com a diretora Rosa Curling afirmando:”As notícias independentes enfrentam uma ameaça existencial: as visões gerais da IA do Google”. O conflito é aprofundado pelas políticas de dados do Google. O testemunho em um caso antitruste revelou que o Google usa o conteúdo do editor para pesquisa, mesmo que os sites optem por não participar do treinamento geral da IA. Com seus mais recentes recursos de modo de IA, o Google está dobrando sua estratégia de’mecanismo de resposta’, apostando em uma experiência superior ao usuário enquanto navega em uma batalha crescente pelo futuro da web aberta.