Anthropic heeft een piloot gelanceerd voor”Claude for Chrome”, een nieuwe browserverlenging waarmee zijn AI acties voor gebruikers kan ondernemen. Vandaag aangekondigd, is de onderzoekspreview beperkt tot 1.000 vertrouwde gebruikers van zijn premium-service. De verhuizing is bedoeld om Claude nuttiger te maken door het te laten klikken op knoppen en formulieren online te vullen.

Deze stap in browserautomatisering is een berekend. Anthropic gaat met aanzienlijke voorzichtigheid om ernstige beveiligingsbedreigingen aan te pakken. Het bedrijf is gericht op het voorkomen van” prompt injectie”aanvallen , waar verborgen commando’s op een webpagina de ai kunnen misleiden. De piloot gaat een competitief veld in, met OpenAI, Microsoft en Google allemaal met vergelijkbare AI-agenten ontwikkelen.

Een voorzichtige stap in browserautomatisering

De nieuwe uitbreiding stelt Claude in staat om te zien wat een gebruiker kijkt en acties ondernemen en acties ondernemen en acties ondernemen en acties ondernemen en acties ondernemen en acties ondernemen en acties ondernemen en acties ondernemen en acties ondernemen en acties ondernemen, href=”https://www.antropic.com/news/claude-for-chrome”target=”_ blank”> volgende logische stap “in de ontwikkeling ervan. Na het integreren met software zoals kalenders en documenten, wordt de AI de mogelijkheid om op knoppen te klikken en formulieren rechtstreeks in de browser te vullen, gezien als een manier om het”aanzienlijk nuttiger te maken”Preview beperkt tot 1.000 gebruikers van het premium”Max”-plan van het bedrijf. Anthropic heeft een Waitlist voor deze vertrouwde testers, die wordt verwacht, die wordt verwacht, wie wordt cruciaal toegewezen aan het gebruik van deze vertrouwde testers, die wordt verwacht, die wordt verwacht, wie wordt cruciaal tekortkomingen en veiligheidsproblemen in authentieke omstandigheden.

Het bedrijf benadrukt dat interne testen de volledige complexiteit niet kan repliceren van hoe mensen in de echte wereld bladeren. De piloot is noodzakelijk om de unieke verzoeken te begrijpen die gebruikers doen, de websites die ze bezoeken en hoe kwaadaardige inhoud in de praktijk verschijnt, wat van vitaal belang is voor het bouwen van robuuste veiligheidsmaatregelen.

[ingebedde inhoud]

Anthropische plannen om inzichten van de piloot te gebruiken om zijn snelle injectieclassificaties te verfijnen, de onderliggende modellen te verbeteren en meer geavanceerde vergunningscontroles te ontwikkelen. Het bedrijf zal geleidelijk de toegang uitbreiden naarmate het vertrouwen opbouwt en sterkere waarborgen ontwikkelt op basis van de gegevens die tijdens dit beperkte preview zijn verzameld.

Zelfs bij vroeg intern gebruik heeft de agent veelbelovend getoond in het beheren van agenda’s, het handelen van kostenrapporten en het testen van website-functies. Anthropic waarschuwt echter om pilootgebruikers te bewust zijn van de gegevens die zichtbaar zijn voor Claude en om te voorkomen dat de extensie wordt gebruikt voor sites met gevoelige financiële, juridische of medische informatie.

Het spook van snelle injectie

Browser-gebruik AI Introductie van formidabele risico’s die formuleert met een expliciete waarschuwing. De primaire dreiging is’snelle injectie’, waarbij kwaadaardige acteurs instructies op websites, e-mails of documenten verbergen om een ​​agent te misleiden om schadelijke acties uit te voeren zonder de kennis van de gebruiker. Deze aanvallen kunnen ertoe leiden dat een AI bestanden verwijderen, gegevens stelen of ongeautoriseerde financiële transacties doen.

Anthropic’s interne”rood-teaming”, waarbij 123 testgevallen werden geëvalueerd in 29 verschillende aanvalsscenario’s, onthulde een over 23,6% aanvalsuccespercentage Toen de agent opzettelijk was gericht zonder de nieuwste veiligheidsmitigaties. In één grimmig voorbeeld werd een onbeschermde versie van Claude bedrogen door een nep-e-mail met de beveiliging die e-mails beweerde die moesten worden verwijderd voor”Mailbox Hygiene.”De kwaadwillende prompt beweerde zelfs dat”geen aanvullende bevestiging vereist was.”

Na deze verborgen instructies ging de AI-agent over tot het selecteren en verwijderen van de e-mails van de gebruiker en verklaarde dat het dit deed”zoals gevraagd door het beveiligingsteam.”Het experiment benadrukte hoe gemakkelijk een AI kon worden gemanipuleerd in destructieve acties zonder de juiste waarborgen.

Het bedrijf heeft sindsdien verschillende verdedigingslagen geïmplementeerd in lijn met zijn betrouwbare agentprincipes. De eerste verdedigingslinie is gebruikersrechten; Gebruikers kunnen op elk gewenst moment de toegang van Claude tot specifieke websites verlenen of intrekken. De agent is ook ontworpen om om bevestiging te vragen voordat ze risicovolle acties ondernemen, zoals het publiceren van inhoud of het delen van persoonlijke gegevens, zelfs bij het werken in zijn experimentele’autonome modus’.

Extra waarborgen bevatten verbeterde systeemprompts die Claude instrueren over hoe te omgaan met gevoelige gegevens, het blokkeren van toegang tot hoog-risicovolle website-website-websites zoals financiële services en het bouwen van geavanceerde classifials voor het detecteren van verdachte instructiepatronen. Met deze nieuwe mitigaties werd het totale aanvalsuccessensucces verlaagd van 23,6% tot 11,2%.

Het team richtte zich ook op nieuwe aanvallen die specifiek zijn voor browsers, zoals verborgen kwaadaardige vormvelden in het documentobjectmodel (DOM) van een webpagina (DOM) en injecties via URL-tekst. Op een”uitdaging”-set van vier van dergelijke browserspecifieke aanvalstypen, verlaagden de nieuwe verdedigingen het aanvalsucectief indruk van 35,7% naar 0%.

Deze bedreigingen zijn niet alleen theoretisch. Onderzoekers van Brave ontdekten onlangs een real-world Sprompt Injectie-kwetsbaarheid in de komeet AI-browser , wat deze exploits kunnen werken Op live, commerciële producten en onderstrepen de urgentie van deze beveiligingsuitdagingen.

De beweging van Anthropic verwarmt de race onder technische reuzen om Agentic AI te ontwikkelen. Openai lanceerde zijn krachtige chatgpt-agent in juli 2025, die werd waargenomen om te omzeilen”Ik ben geen robot”beveiligingstests. De beperktere voorganger, operator, werd geïntroduceerd in januari.

Microsoft is ook een belangrijke speler. Het lanceerde in juli een experimentele”Copilot-modus”voor zijn Edge-browser die de context in alle open tabbladen kan begrijpen. De strategie is om AI diep in te bedden in het bestaande browserecosysteem.

Deze visie is ambitieus, waarbij één leidinggevende verklaart dat”als een persoon de app kan gebruiken, de agent dat ook kan.”Het doel is een naadloze medewerker, zoals Sean Lyndersay van Microsoft zei, dat”je niet alleen eindeloze tabbladen geeft om door te ziften, maar met je werkt als een medewerker die het allemaal begrijpen.”

Andere rivalen bouwen volledig nieuwe browsers rond AI. Pertlexity lanceerde zijn premium komeetbrowser in juli, terwijl Opera in mei zijn agentische neonbrowser onthulde, beiden gericht op het opnieuw definiëren van webnavigatie vanaf de grond.

Zelfs Google, de langverzekerde koning van de browser, staat niet stil. Het bedrijf ontwikkelt stilletjes zijn eigen”computergebruik”-agent in zijn AI Studio, wat wijst op zijn intentie om te concurreren in deze nieuwe arena.

De realiteit van agentprestaties

Ondanks de snelle innovatie, ondanks de snelle innovatie, zijn vragen over de werkelijke effectiviteit van deze agenten van deze agenten aan. Een studie van mei 2025 van Carnegie Mellon University bleek dat zelfs top AI-agenten worstelen met complexe bedrijfsautomatiseringstaken. De studie merkte een gebrek aan gezond verstand en lage slagingspercentages op.

Deze scepsis wordt gedeeld door sommige marktleiders. Pertlexity CEO Aravind Srinivas heeft aangedrongen op voorzichtigheid en verklaart:”Iedereen die zegt dat agenten in 2025 zullen werken, zou sceptisch moeten zijn.”Dit weerspiegelt de significante kloof tussen het aantonen van een mogelijkheden en het betrouwbaar en veilig op schaal inzetten.

Bouwen ontwikkelaars in menselijk toezicht als een kritisch vangnet. Openai Research Lead Isa Fulford merkte op dat hun agent toestemming nodig heeft voor onomkeerbare acties, waarin wordt uitgelegd dat”voordat CHATGPT-agent iets‘ onomkeerbaars”doet, zoals het verzenden van een e-mail of het maken van een boeking, het vraagt ​​eerst toestemming.”

Anthropic’s cappe, feedback-driven piloot suggereert een soortgelijk begrip. Hoewel de belofte van een AI die ons digitale leven kan beheren, dwingend is, erkent de industrie dat het tijdperk van echt autonome, betrouwbare agenten nog niet is aangekomen.

Categories: IT Info