A Anthropic lançou um piloto para”Claude for Chrome”, uma nova extensão do navegador que permite que sua IA tome ações para os usuários. Anunciado hoje, a visualização da pesquisa é limitada a 1.000 usuários confiáveis de seu serviço premium. O movimento visa tornar o Claude mais útil, permitindo que ele clique em botões e preencha os formulários on-line.
Esta etapa na automação do navegador é calculada. Antrópica está prosseguindo com cautela significativa para abordar sérias ameaças à segurança. A empresa está focada na prevenção de “ injeção de prompt”Ataques , onde os comandos ocultos em uma página da web podem enganar a IA. O piloto entra em um campo competitivo, com o OpenAI, Microsoft e Google, desenvolvendo todos os agentes de IA semelhantes. href=”https://www.anthropic.com/news/claude-for-chrome”Target=”_ Blank”> Próxima etapa lógica “em seu desenvolvimento. After integrating with software like calendars and documents, giving the AI the ability to click buttons and fill forms directly in the browser is viewed as a way to make it “substantially more useful.”
This initial phase is a controlled A visualização da pesquisa limitada a 1.000 usuários do plano premium”Max”da empresa. O Anthrópico abriu um waitlist deficiências e questões de segurança em condições autênticas.
A empresa enfatiza que os testes internos não podem replicar toda a complexidade de como as pessoas navegam no mundo real. O piloto é necessário para entender as solicitações exclusivas que os usuários fazem, os sites que eles visitam e como o conteúdo malicioso aparece na prática, o que é vital para a criação de medidas robustas de segurança. A empresa expandirá gradualmente o acesso à medida que cria confiança e desenvolve salvaguardas mais fortes com base nos dados coletados durante essa visualização limitada. No entanto, o antropal está preventando os usuários piloto para estar atento aos dados visíveis para Claude e evitar o uso da extensão para sites que envolvem informações financeiras, legais ou médicas sensíveis. A principal ameaça é”injeção rápida”, onde atores maliciosos ocultam instruções em sites, e-mails ou documentos para enganar um agente a executar ações prejudiciais sem o conhecimento do usuário. Esses ataques podem fazer com que uma IA exclua arquivos, rouba dados ou faça transações financeiras não autorizadas. Taxa de sucesso de ataque Quando seu agente foi deliberadamente direcionado sem as mais recentes mitigações de segurança. Em um exemplo gritante, uma versão desprotegida de Claude foi enganada por um e-mail de segurança falso, alegando que os e-mails precisavam ser excluídos para”higiene da caixa de correio”. O aviso malicioso até afirmou que”nenhuma confirmação adicional foi necessária”. O experimento destacou a facilidade com que uma IA poderia ser manipulada em ações destrutivas sem salvaguardas adequadas. A primeira linha de defesa são as permissões do usuário; Os usuários podem conceder ou revogar o acesso de Claude a sites específicos a qualquer momento. O agente também foi projetado para solicitar confirmação antes de tomar ações de alto risco, como publicar conteúdo ou compartilhar dados pessoais, mesmo ao operar em seu”modo autônomo”experimental”
Salvaguardas adicionais incluem instruções de sistema aprimoradas que instruem o CLAUDE sobre como lidar com dados confidenciais, bloqueando o acesso a categorias de sites de alto risco, como serviços financeiros, e construir cláusulas avançadas para detectar os clássicos para a devolução de dados confidenciais, para que os padrões de base de alto risco, e a construção de categorias de sites, e a construção de cláusulas para a base para a devolução de cláusulas, para que os relatados com base em que os relatórios de base para o bloqueio de dados de alto risco para o bloqueio de serviços financeiros e a construção de serviços financeiros e a construção de cláusulas de base. Com essas novas mitigações, a taxa geral de sucesso de ataque foi reduzida de 23,6% para 11,2%. Em um conjunto de”desafios”de quatro tipos de ataques específicos do navegador, as novas defesas reduziram impressionantemente a taxa de sucesso de ataque de 35,7% para 0%.
Essas ameaças não são meramente teóricas. Pesquisadores da Brave descobriram recentemente um mundo real vulnerabilidade imediata href=”https://thehackernews.com/2025/08/experts-find-ai-browsers-an-be.html”Target=”_ Blank”> Explorits podem funcionar Live, produtos comerciais e destacar a urgência da resolução dos desafios de segurança.
O movimento do Anthrópio aquece a corrida entre os gigantes da tecnologia para desenvolver a IA Agentic. A OpenAI lançou seu poderoso agente ChatGPT em julho de 2025, que foi observado ignorando os testes de segurança”Eu não sou um robô”. Seu antecessor mais limitado, operador, foi introduzido em janeiro.
A Microsoft também é um dos principais players. Ele lançou um”modo copiloto”experimental para seu navegador Edge em julho que pode entender o contexto em todas as guias abertas. A estratégia é incorporar-se profundamente ao ecossistema existente do navegador.
Essa visão é ambiciosa, com um executivo afirmando que”se uma pessoa pode usar o aplicativo, o agente também pode”. O objetivo é um colaborador contínuo, como Sean Lyndersay, da Microsoft, disse que”não apenas oferece guias sem fim para analisar, mas trabalha com você como colaborador que faz sentido de tudo.”
Outros rivais estão construindo totalmente novos navegadores em torno da IA. A Perplexity lançou seu navegador de cometa premium em julho, enquanto a Opera lançou seu navegador de néon Agentic em maio, ambos com o objetivo de redefinir a navegação na web desde o início. A empresa está desenvolvendo silenciosamente seu próprio agente de”uso de computador”em seu estúdio de IA, sinalizando sua intenção de competir nesta nova arena. Um estudo de maio de 2025 da Carnegie Mellon University descobriu que mesmo os principais agentes da IA lutam com tarefas complexas de automação de negócios. O estudo observou uma falta de senso comum e baixas taxas de sucesso.
Esse ceticismo é compartilhado por alguns líderes da indústria. O CEO da Perplexity, Aravind Srinivas, pediu cautela, afirmando:”Qualquer um que os agentes trabalhem em 2025 deve ser cético”. Isso reflete a lacuna significativa entre demonstrar uma capacidade e implantá-la de maneira confiável e segura em escala.
Por enquanto, os desenvolvedores estão construindo em supervisão humana como uma rede de segurança crítica. O líder da OpenAI Research, Isa Fulford, observou que seu agente exige permissão para ações irreversíveis, explicando que”antes do agente do ChatGPT faz qualquer coisa”irreversível”, como enviar um email ou fazer uma reserva, ele pede permissão primeiro”
Anthrópico e cautelosos sugerem um entendimento semelhante. Embora a promessa de uma IA que possa gerenciar nossa vida digital seja convincente, a indústria reconhece que a era de agentes verdadeiramente autônomos e confiáveis ainda não chegou.