Anthropics nylige påstand om at kinesiske statsstøttede hackere brukte Claude AI til å gjennomføre en nesten autonom nettspionasjekampanje, står overfor betydelig tilbakeslag. AI-selskapet rapporterte 13. november at angrepet var 80–90 % automatisert, en figur som sikkerhetsforskere umiddelbart stilte spørsmål ved.

Kritikere hevder at AIs rolle er overdrevet og kan sammenlignes med eksisterende verktøy, mens fremtredende skikkelser som Metas Yann LeCun avviser kunngjøringen som «regulatorisk teater». Denne tvisten fremhever en økende debatt om de sanne egenskapene til AI i cyberkrigføring og motivene bak slike høyprofilerte avsløringer.

En ‘AI-Orchestrated’ Campaign or Just Advanced Automation?

I en avsløring som sendte krusninger gjennom sikkerhetsindustrien som nylig ble oppdaget av en sophistic-operasjonsindustri. GTG-1002.

Operasjonen, som fant sted i midten av september, var angivelig rettet mot rundt 30 globale organisasjoner. Anthropics sentrale påstand er at Claude AI ble bevæpnet til å utføre 80-90 % av angrepets livssyklus med minimalt menneskelig tilsyn.

Ifølge selskapet,”tror vi at dette er det første dokumenterte tilfellet av et storstilt nettangrep utført uten betydelig menneskelig innblanding.”En slik utvikling representerer et stort sprang fra tidligere bruk av AI for enklere oppgaver som å lage phishing-e-poster eller den mindre autonome”vibe hacking”-trenden Winbuzzer dekket tidligere.

Bak de oppsiktsvekkende påstandene ligger en mer kompleks teknisk virkelighet. Angripere bygde angivelig et tilpasset orkestreringsrammeverk ved å bruke Model Context Protocol (MCP) for å dekomponere inntrengingen til en rekke diskrete, tilsynelatende godartede oppgaver.

Denne metoden tillot AI å fly under radaren. Et avgjørende element var å omgå Claudes sikkerhetsfunksjoner gjennom en smart jailbreaking-teknikk.”I dette tilfellet, det de gjorde var å late som om de jobbet for legitime sikkerhetstestende organisasjoner,”forklarte Jacob Klein, Anthropics leder for trusseletterretning.

Ved å overbevise AI om at det var en del av en legitim penetrasjonstest, lurte operatørene den til å utføre ondsinnede handlinger. Dette rammeverket gjorde angivelig det mulig for AI å gjøre «tusenvis av forespørsler per sekund», en hastighet umulig for menneskelige hackere.

Security Community Pushes Back, Citing Hype and ‘Regulatory Capture’

Skepsisen økte raskt fra veteranforskere som stilte spørsmål ved nyheten og virkningen av angrepet. Mange hevder at egenskapene som beskrives er en utvikling av eksisterende automatiseringsverktøy, ikke en revolusjonerende ny trussel.

“Jeg fortsetter å nekte å tro at angripere på en eller annen måte er i stand til å få disse modellene til å hoppe gjennom bøyler som ingen andre kan,”sa Dan Tentler, administrerende grunnlegger av Phobos Group.

Uavhengig forsker sendte denne trusselen fra Kevin Beaumont i ekko. nytt. Kampanjens lave suksessrate gir næring til denne skepsisen; Anthropic bekreftet at bare en”håndfull”av innbruddene var vellykkede før de ble stengt.

Se på Mastodon

Prominente bransjefigurer forsterket snart tilbakeslaget. Metas Chief AI Scientist, Yann LeCun, kritiserte kunngjøringen skarpt som det han kalte  «Regulatory capture», som antydet at trusselen ble forsterket for å påvirke kommende AI-regulering.

Du blir spilt av folk som ønsker regulatorisk fangst.
De skremmer alle med tvilsomme undersøkelser slik at åpen kildekode-modeller blir regulert ut av eksistens.

— Yann LeCun (@ylecun)

Kommentaren hans legger til en ny dimensjon til kontroversen ved å stille spørsmål ved Anthropics motiver. Den kanskje mest skadelige kritikken kommer imidlertid fra Anthropics egen rapport, som erkjenner en kritisk begrensning i AI-ens ytelse.

Selskapet bemerket at”Claude overvurderte ofte funn og av og til fabrikkerte data under autonome operasjoner… Dette er fortsatt en hindring for fullstendig autonome nettangrep.”autonom agent og støtter oppfatningen om at betydelig menneskelig tilsyn fortsatt er nødvendig.

Dilemmaet med dobbel bruk: AI som både våpen og skjold

Uavhengig av det nøyaktige nivået av autonomi som oppnås, tvinger hendelsen frem en avregning med dual-use naturen til agent AI. De samme egenskapene som lar en AI angripe et nettverk er uvurderlige for å forsvare det.

Avsløringen kommer bare måneder etter at Anthropic selv presenterte et nytt sikkerhetsrammeverk for AI-agenter, og fremhever utfordringen med å håndheve slike prinsipper mot målbevisste motstandere. Rask innovasjon innen offensiv AI ser ut til å overgå industriens evne til å tilpasse sine forsvar.

Sikkerhetseksperter påpeker at defensive AI-agenter allerede blir utplassert i Security Operations Centers (SOCs). Plattformer som Palo Alto Networks Cortex AgentiX er designet for å automatisere trusseldeteksjon og respons, og hjelper til med å motvirke den globale mangelen på cybersikkerhetskompetanse.

Anthropic brukte selv Claude til å analysere data under etterforskningen, noe som beviste teknologiens defensive nytte. Selskapet etterlyser nå en akselerert bruk av AI-drevne defensive verktøy.”Hvis vi ikke gjør det mulig for forsvarere å ha en veldig betydelig permanent fordel, er jeg bekymret for at vi kanskje taper dette løpet,”advarte Logan Graham, som leder Anthropics katastrofale risikoteam.

Et kappløp mellom offensiv og defensiv AI intensiveres tydelig, og hendelsen viser debatten om dets sanne potensial.