Anthropic har lansert en pilot for”Claude for Chrome”, en ny nettleserutvidelse som lar AI iverksette tiltak for brukere. Forhåndsvisning av forhåndsvisning av forskning er begrenset til 1000 pålitelige brukere av premiumtjenesten. Flyttingen tar sikte på å gjøre Claude mer nyttig ved å la den klikke på knapper og fylle skjemaer på nettet.

Dette trinnet i nettleserautomatisering er beregnet. Antropic fortsetter med betydelig forsiktighet for å adressere alvorlige sikkerhetstrusler. Selskapet er fokusert på å forhindre” hurtig injeksjon”angrep , der skjulte kommandoer på en webside kan lure AI. Piloten går inn i et konkurransedyktig felt, med Openai, Microsoft og Google som alle utvikler lignende AI-agenter.

Et forsiktig trinn inn i nettleserautomatisering

Den nye utvidelsen lar klaugen se hva en bruker ser på og tar handling på deres behold som en kapasitet som en kapasitet en thr. href=”https://www.antropic.com/news/claude-for-chrome”Target=”_ blank”> Neste logisk trinn “i utviklingen. Etter å ha integrert med programvare som kalendere og dokumenter, blir AI muligheten til å klikke på knapper og fylle skjemaer direkte i nettleseren, blir sett på som en måte å gjøre det”vesentlig mer nyttig.”

Selskapet understreker at intern testing ikke kan gjenskape den fulle kompleksiteten i hvordan folk surfer i den virkelige verden. Piloten er nødvendig for å forstå de unike forespørslene brukere stiller, nettstedene de besøker, og hvordan ondsinnet innhold fremstår i praksis, noe som er viktig for å bygge robuste sikkerhetstiltak.

[innebygd innhold]

Antropiske planer for å bruke innsikt fra piloten for å avgrense sine raske injeksjonsklassifiserere, forbedre sine underliggende modeller, og utvikle mer støttistiske kontrollkontroll. Selskapet vil gradvis utvide tilgangen når det bygger selvtillit og utvikler sterkere sikkerhetstiltak basert på dataene som er samlet inn under denne begrensede forhåndsvisningen.

Selv i tidlig intern bruk har agenten vist løfte i å administrere kalendere, håndtere utgiftsrapporter og testing av nettstedfunksjoner. Antropisk advarer imidlertid pilotbrukere om å være oppmerksom på dataene som er synlige for Claude og for å unngå å bruke utvidelsen for nettsteder som involverer sensitiv økonomisk, juridisk eller medisinsk informasjon.

Explicit of hurtig injeksjon

Browser-Bruke AI-introduksjonsformidable riskers at ThROPs-adresser. Den primære trusselen er”rask injeksjon”, der ondsinnede aktører skjuler instruksjoner på nettsteder, e-postmeldinger eller dokumenter for å lure en agent til å utføre skadelige handlinger uten brukerens kunnskap. These attacks could cause an AI to delete files, steal data, or make unauthorized financial transactions.

Anthropic’s internal “red-teaming,”which involved evaluating 123 test cases across 29 different attack scenarios, revealed a concerning 23,6% angrepssuksessrate Da agenten bevisst ble målrettet uten de siste sikkerhetsmiteringene. I ett sterkt eksempel ble en ubeskyttet versjon av Claude lurt av en falsk sikkerhets-e-post som hevdet e-postmeldinger som måtte slettes for”Mailbox Hygiene.”Den ondsinnede ledeteksten hevdet til og med at”ingen ekstra bekreftelse var påkrevd.”

Etter disse skjulte instruksjonene, fortsatte AI-agenten med å velge og slette brukerens e-postmeldinger, og sa at den gjorde det”som forespurt av sikkerhetsteamet.”Eksperimentet fremhevet hvor lett en AI kunne manipuleres til destruktive handlinger uten riktige sikkerhetstiltak.

Selskapet har siden implementert flere forsvarslag i tråd med sine pålitelige agentprinsipper. Den første forsvarslinjen er brukertillatelser; Brukere kan gi eller tilbakekalle Claude tilgang til spesifikke nettsteder når som helst. Agenten er også designet for å be om bekreftelse før de tar høyrisikohandlinger som å publisere innhold eller dele personopplysninger, selv når du opererer i sin eksperimentelle”autonome modus.”

Ytterligere beskyttelsesregler inkluderer forbedrede systemanklæring som instruerer Claude om hvordan du kan håndtere sensitive data, blokkere tilgang til høyrisiko-nettstedskategorier som økonomiske tjenester, og bygge avanserte klassifiserende data til å oppdage tilgang til høyrisiko. Med disse nye avbøtningene ble den samlede suksessraten for angrep redusert fra 23,6% til 11,2%.

Teamet fokuserte også på nye angrep som er spesifikke for nettlesere, for eksempel skjult ondsinnet formfelt i en webpesiden sin dokumentobjektsmodell (DOM) og injeksjoner via URL-tekst. På et”utfordring”-sett med fire slike nettleserspesifikke angrepstyper reduserte de nye forsvaret imponerende angrepssuksessraten fra 35,7% til 0%.

Disse truslene er ikke bare teoretiske. Forskere ved Brave oppdaget nylig en virkelig verden hurtig injeksjonssårbarhet i Perplexity’s Comet AI Browser href=”https://thehackernews.com/2025/08/experts-find-ai-rowsers-can-be.html”Target=”_ blank”> Utnyttelse kan jobbe på live, kommersielle produkter og understreking av haster med å løse disse sikkerhetsutfordringene.

H3> Kriger

Anthropics trekk varmer opp løpet blant tech-giganter for å utvikle agent AI. Openai lanserte sin mektige ChatGPT-agent i juli 2025, som ble observert om å omgås”Jeg er ikke en robot”-sikkerhetstester. Den mer begrensede forgjengeren, operatør, ble introdusert i januar.

Microsoft er også en stor aktør. Den lanserte en eksperimentell”Copilot Mode”for Edge-nettleseren i juli som kan forstå kontekst på tvers av alle åpne faner. Strategien er å legge inn AI dypt i det eksisterende nettleserøkosystemet.

Denne visjonen er ambisiøs, med en leder som sier at”hvis en person kan bruke appen, kan agenten også gjøre det.”Målet er en sømløs samarbeidspartner, som Microsofts Sean Lyndersay sa, at”ikke bare gir deg uendelige faner å sile gjennom, men jobber med deg som en samarbeidspartner som gir mening av det hele.”

Andre rivaler bygger helt nye nettlesere rundt AI. Forvirring lanserte sin premium komet-nettleser i juli, mens Opera avduket sin agentiske neonleser i mai, begge hadde som mål å omdefinere nettnavigasjon fra grunnen av.

Selv Google, den langvarige kongen av nettleseren, står ikke stille. Selskapet utvikler rolig sin egen”datamaskinbruk”-agent i AI-studioet, og signaliserer sin intensjon om å konkurrere på denne nye arenaen.

Realiteten til agentprestasjon

Til tross for den raske innovasjonen, vedvarer spørsmål om den virkelige verdens effektiviteten til disse midlene. En studie i mai 2025 fra Carnegie Mellon University fant at til og med topp AI-agenter sliter med komplekse forretningsautomatiseringsoppgaver. Studien bemerket mangel på sunn fornuft og lav suksessrate.

Denne skepsisen deles av noen bransjeledere. Fengslingssjef Aravind Srinivas har oppfordret til forsiktighet, og sier:”Alle som sier at agenter vil jobbe i 2025, skal være skeptiske.”Dette gjenspeiler det betydelige gapet mellom å demonstrere en evne og distribuere det pålitelig og trygt i skala.

For nå bygger utviklere i menneskelig tilsyn som et kritisk sikkerhetsnett. Openai-forskningsleder Isa Fulford bemerket at agenten deres krever tillatelse til irreversible handlinger, og forklarer at”før Chatgpt-agent gjør noe”irreversibelt”, som å sende en e-post eller foreta en bestilling, ber den om tillatelse først.”

Anthropics forsiktige, tilbakemeldingsdrevne pilot antyder en lignende forståelse. Mens løftet om en AI som kan håndtere våre digitale liv er overbevisende, erkjenner industrien at epoken med virkelig autonome, pålitelige agenter ennå ikke har kommet.

Categories: IT Info