Anthropic a lancé un pilote pour «Claude for Chrome», une nouvelle extension de navigateur qui permet à ses utilisateurs de prendre les utilisateurs de l’IA. Annoncé aujourd’hui, l’aperçu de la recherche est limité à 1 000 utilisateurs de confiance de son service premium. Le mouvement vise à rendre Claude plus utile en lui permettant de cliquer sur les boutons et de remplir les formulaires en ligne.

Cette étape dans l’automatisation du navigateur est calculée. Anthropic procède à une prudence significative pour répondre aux menaces de sécurité graves. L’entreprise se concentre sur la prévention de « Attaques d’injection rapide”Les attaques , où les commandes cachées sur une page Web pourraient tromper l’AI. Le pilote entre dans un champ compétitif, avec Openai, Microsoft et Google développant tous des agents d’IA similaires.

Une étape prudente dans l’automatisation du navigateur

La nouvelle extension permet à Claude de voir ce qu’un utilisateur regarde et de prendre des mesures sur leur nom, une capacité anhropique décrit comme le « Étape logique suivante “Dans son développement. Après avoir intégré à des logiciels comme des calendriers et des documents, donnant à l’AI la possibilité de cliquer sur les boutons et de remplir les formulaires directement dans le navigateur est considéré comme un moyen de le rendre «beaucoup plus utile». Aperçu limité à 1 000 utilisateurs du plan «maximum» premium de la société. Anthropic has opened a waitlist for these trusted testers, who are expected to provide crucial feedback on the tool’s uses, shortcomings, and Problèmes de sécurité dans des conditions authentiques.

La société souligne que les tests internes ne peuvent pas reproduire la complexité complète de la façon dont les gens parcourent dans le monde réel. Le pilote est nécessaire pour comprendre les demandes uniques que font les utilisateurs, les sites Web qu’ils visitent et la façon dont le contenu malveillant apparaît dans la pratique, qui est essentiel pour la création de mesures de sécurité robustes.

[Contenu intégré]

Les plans anthropiques pour utiliser des informations à partir du pilote pour affiner ses classificateurs d’injection rapides, améliorer ses modèles sous-jacents et développer des contrôles d’autorisation plus sophistiqués. La société élargira progressivement l’accès car elle renforcera la confiance et développera des garanties plus fortes en fonction des données recueillies lors de cet aperçu limité.

Même dans une utilisation interne précoce, l’agent s’est révélé prometteur dans la gestion des calendriers, la gestion des rapports de dépenses et le test des fonctionnalités du site Web. Cependant, anthropic met en garde les utilisateurs pilotes pour être conscients des données visibles pour Claude et éviter d’utiliser l’extension pour les sites impliquant des informations financières, juridiques ou médicales sensibles.

Le spectre de l’injection rapide

Utilisation de l’indice de navigation introduit un élément formidable qui a été exprimé avec un affaire explicite. La principale menace est «injection rapide», où les acteurs malveillants cachent des instructions dans les sites Web, les e-mails ou les documents pour inciter un agent à effectuer des actions nuisibles à l’insu de l’utilisateur. Ces attaques pourraient provoquer une IA de supprimer des fichiers, de voler des données ou de faire des transactions financières non autorisées.

“Red-équipe”interne d’Anthropic, qui impliquait d’évaluer 123 cas de test dans 29 attaques différentes, a révélé un scénario de Href=”htttps://ww.antethropic.com/news/cladefor-fr-chrome”Target=”_ Blank”> 23,6% Taux de réussite d’attaque Lorsque son agent a été délibérément ciblé sans les dernières atténuations de sécurité. Dans un exemple brutal, une version non protégée de Claude a été trompée par un faux e-mail de sécurité affirmant que des e-mails devaient être supprimés pour «l’hygiène des boîtes aux lettres». L’invite malveillante a même affirmé que «aucune confirmation supplémentaire n’était requise».

Suite à ces instructions cachées, l’agent d’IA a procédé à sélectionner et à supprimer les e-mails de l’utilisateur, déclarant qu’il le faisait «comme demandé par l’équipe de sécurité». L’expérience a souligné la facilité avec laquelle une IA pourrait être manipulée en actions destructrices sans garanties appropriées.

La société a depuis mis en œuvre plusieurs couches de défense conformément à ses principes de fiabilité d’agent. La première ligne de défense est les autorisations utilisateur; Les utilisateurs peuvent accorder ou révoquer l’accès de Claude à des sites Web spécifiques à tout moment. L’agent est également conçu pour demander une confirmation avant de prendre des actions à haut risque comme la publication de contenu ou le partage de données personnelles, même lorsqu’elle fonctionne dans son «mode autonome» expérimental. Avec ces nouvelles atténuations, le taux de réussite global de l’attaque a été réduit de 23,6% à 11,2%.

L’équipe s’est également concentrée sur de nouvelles attaques spécifiques aux navigateurs, tels que les champs de forme malveillante cachés dans le modèle d’objet de document d’une page Web (DOM) et les injections via un texte URL. Sur un ensemble de «défi» de quatre types d’attaque spécifiques au navigateur, les nouvelles défenses ont réduit de manière impressionnante le taux de réussite de l’attaque de 35,7% à 0%.

Ces menaces ne sont pas simplement théoriques. Les chercheurs de Brave ont récemment découvert un vrai monde Vulnérabilité d’injection rapide dans le navigateur COMET AI de COMET de perplexité , démontrant comment Les exploits peuvent fonctionner Sur les produits commerciaux en direct et sous-estimant l’urgence de la résolution de ces défis de sécurité.

Le mouvement d’Anthropic réchauffe la course parmi les géants de la technologie pour développer une IA agentique. Openai a lancé son puissant agent Chatgpt en juillet 2025, qui a été observé en contournant les tests de sécurité «Je ne suis pas un robot». Son prédécesseur plus limité, l’opérateur, a été présenté en janvier.

Microsoft est également un acteur majeur. Il a lancé un «mode copilot» expérimental pour son navigateur Edge en juillet qui peut comprendre le contexte dans tous les onglets ouverts. La stratégie consiste à intégrer profondément l’IA dans l’écosystème du navigateur existant.

Cette vision est ambitieuse, avec un cadre indiquant que «si une personne peut utiliser l’application, l’agent peut aussi. L’objectif est un collaborateur transparent, comme l’a dit Sean Lyndersay de Microsoft, que”ne vous donne pas seulement des onglets sans fin pour passer au crible mais travaille avec vous en tant que collaborateur qui donne un sens à tout cela.”

Les autres rivaux construisent entièrement de nouveaux navigateurs autour de l’IA. Perplexity a lancé son navigateur de comètes premium en juillet, tandis que Opera a dévoilé son navigateur au néon agentique en mai, visant tous deux à redéfinir la navigation Web depuis le sol.

Même Google, le roi du navigateur à long terme, ne se tient pas immobile. La société développe discrètement son propre agent «Utilisation de l’ordinateur» au sein de son studio AI, signalant son intention de rivaliser dans cette nouvelle arène.

La réalité de la performance des agents

malgré l’innovation rapide, les questions sur l’efficacité réelle de ces agents persistent. Une étude de mai 2025 de l’Université Carnegie Mellon a révélé que même les meilleurs agents de l’IA ont du mal avec des tâches complexes d’automatisation des affaires. L’étude a noté un manque de bon sens et de faibles taux de réussite.

Ce scepticisme est partagé par certains leaders de l’industrie. Le PDG de Perplexity, Aravind Srinivas, a exhorté la prudence, déclarant:”Quiconque dit que les agents travailleront en 2025 devraient être sceptiques.”Cela reflète l’écart significatif entre la démonstration d’une capacité et le déployer de manière fiable et en toute sécurité à grande échelle.

Pour l’instant, les développeurs construisent dans la surveillance humaine en tant que filet de sécurité critique. Openai Research Lead Isa Fulford a noté que leur agent a besoin d’une autorisation pour des actions irréversibles, expliquant que «Avant Chatgpt, l’agent fait quoi que ce soit« irréversible », comme envoyer un e-mail ou faire une réservation, il demande d’abord la permission. Bien que la promesse d’une IA qui peut gérer notre vie numérique soit convaincante, l’industrie reconnaît que l’ère des agents vraiment autonomes et fiables n’est pas encore arrivé.

Categories: IT Info