Anthropic avslørte torsdag at kinesiske statssponsede hackere orkestrerte en sofistikert cyberspionasjekampanje i midten av september ved å bevæpne dens Claude AI-modell.

Operasjonen var rettet mot omtrent 30 globale organisasjoner, ved å bruke AI til å utføre autonomt 80-90 % av menneskelig intervensjonslivssyklus. storskala cyberangrep drevet av en AI-agent, som representerer en betydelig eskalering fra tidligere AI-assistert hacking.

Hendelsen fremhever en dramatisk epoke med autonome systemer som kan utføre en ny epoke med autonome systemer. hastigheten og omfanget av statsstøttede operasjoner.

Fra AI Co-Pilot til Autonomous Attacker: A New Era of Cyber ​​Spionage

I en betydelig eskalering av AI-våpen, kampanjen target=”by_espionage”>target=”espionage”Antropisk representerer et grunnleggende skifte i cyberoperasjoner.

Statsstøttede aktører har gått lenger enn å bruke AI til enkle oppgaver som å lage phishing-e-poster, en trend Google rapporterte om tidlig i fjor. Nå distribuerer de fullstendig autonome agenter for å utføre komplekse inntrengninger fra start til slutt. Anthropics team for trusseletterretning har utpekt den statsstøttede gruppen GTG-1002.

Dette nye angrepsparadigmet overgår langt «vibe hacking»-trenden Winbuzzer dekket i august, der AI-modeller fungerte som kreative partnere eller co-piloter for menneskelige operatører. I den modellen forble mennesker fast kontroll over å lede operasjonen.

Anthropics rapport bekrefter at septemberkampanjen var vesentlig annerledes:

«Denne aktiviteten er en betydelig eskalering fra våre tidligere funn av «vibe hacking» som ble identifisert i juni 2025… mennesker forble veldig mye i loopen som dirigerte operasjoner.»

10 til 20 prosent av den totale innsatsen.

Angripere siktet mot store teknologibedrifter, finansinstitusjoner, kjemiske produsenter og offentlige etater i flere land.

Mens Anthropic vellykket avbrøt kampanjen og utestengt de tilknyttede kontoene, var en håndfull inntrengninger vellykket.

den første dokumenterte saken av Anthropic er en storstilt sak. nettangrep utført uten vesentlig menneskelig innblanding.”

Dette bekrefter at adgangsbarrieren for sofistikerte, storskala nettangrep har blitt betydelig redusert, en bekymring gjentatt av nyere bransjeanalyser som viser .

Hvordan hackere gjorde Claude til et våpen med rollespill og automatisering

Angripere manipulerte AI-modellen ved å bygge et tilpasset orkestreringsrammeverk.

Dette systemet brukte Anthropics Claude-komplekse Protocol-serie (MCP) Protocol (MCP)-angrepskode. diskrete, tilsynelatende godartede oppgaver. MCP, designet for å la AI-modeller bruke eksterne verktøy, ble effektivt sentralnervesystemet for operasjonen.

Denne protokollen er imidlertid også introduces new security intro introblank Injection,’ hvor agentatferd kan manipuleres.

Et avgjørende element i angrepet var å omgå Claudes innebygde sikkerhetsfunksjoner. Hackerne oppnådde dette gjennom en smart jailbreaking-teknikk forankret i sosial ingeniørkunst.

Ifølge Jacob Klein, Anthropics sjef for trusseletterretning,”i dette tilfellet var det de gjorde som å late som om de jobbet for legitime sikkerhetstestende organisasjoner.”

Ved å overbevise AI-en om at den deltok i en ondsinnet triks, deltok den i en ondsinnet testing. handlinger uten å utløse dets etiske kjernerekkverk.

Denne metoden tillot trusselaktøren å fly under radaren lenge nok til å starte kampanjen sin.

Når AI-agenten var aktivert, utførte den autonomt hele angrepets livssyklus med skremmende effektivitet. Det begynte med rekognosering for å kartlegge målinfrastruktur og identifisere sårbarheter.

Derfra fortsatte det med å lage tilpasset utnyttelseskode, innhenting av legitimasjon, bevege seg sideveis på tvers av nettverk, og til slutt, eksfiltrering og analyse av sensitive data for etterretningsverdi.

Menneskelige operatører grep kun inn fra én kritisk fase til en kritisk fase av opphavspersonen, fra én kritisk fase til en kritisk fase av forfatteren. til den neste, ifølge en rapport fra The Wall Street Journal.

Klein fortalte utsalgsstedet,”hackerne utførte angrepene sine bokstavelig talt med minimalt med

og med et klikk på en knapp.”Dual-Use Dilemma: Agentic AI for Both Offense and Defense

Anthropics avsløring tvinger fram en regning med dobbelbruksnaturen til avansert AI. De samme egenskapene som lar en AI angripe et nettverk autonomt, er uvurderlige for å forsvare det.

Hendelsen kommer bare måneder etter at Anthropic selv la frem et nytt sikkerhetsrammeverk for AI-agenter, som understreker prinsipper som menneskelig kontroll og åpenhet som svar på sikkerhetssvikt i hele bransjen.

Kampanjen fremhever utfordringene med å håndheve slike adferdsprinsipper.

eksperter bemerker at agent AI allerede blir distribuert i Security Operations Centers (SOCs) for å automatisere trusseldeteksjon og respons, slik som Palo Alto Networks nylig lanserte Cortex AgentiX-plattform.

Slike defensive agenter hjelper til med å motvirke den globale mangelen på cybersikkerhetsfagfolk ved å håndtere varslingstriage og proaktive trusseljakter p>. datamengder generert under etterforskningen av hendelsen, og fremhever teknologiens defensive nytteverdi.

Til syvende og sist argumenterer selskapet for at fortsatt investering i AI-evner er avgjørende for å bygge neste generasjon cyberforsvar.

Kappløpet mellom offensive og defensive applikasjoner er tydeligvis i ferd med å intensiveres. AI-drevne defensive verktøy, advarer om at forsvarere risikerer å bli forbigått hvis de ikke omfavner lignende teknologier.

Logan Graham, som leder Anthropics katastrofale risikoteam, advarte:”Hvis vi ikke lar forsvarere ha en veldig betydelig permanent fordel, er jeg bekymret for at vi kanskje mister denne rasen, og den trygge modellen viser denne rasen.”

som styrer bruken deres må utvikles i en enda raskere hastighet for å forhindre utbredt misbruk.

Categories: IT Info