Anthropics senaste påstående att kinesiska statssponsrade hackare använde dess Claude AI för att genomföra en nästan autonom cyberspionagekampanj står inför betydande motreaktioner. AI-företaget rapporterade den 13 november att attacken var 80-90 % automatiserad, en siffra som säkerhetsforskare omedelbart ifrågasatte.

Kritiker hävdar att AI:s roll är överskattad och jämförbar med befintliga verktyg, medan framstående figurer som Metas Yann LeCun avfärdar tillkännagivandet som”regulatorisk teater.”Denna tvist belyser en växande debatt om AIs verkliga kapacitet i cyberkrigföring och motiven bakom sådana högprofilerade avslöjanden.

En”AI-orkestrerad”kampanj eller bara avancerad automatisering?

I ett avslöjande som skickade krusningar genom säkerhetsbranschen som nyligen ägnat sig åt en sophistic-operation, spårade en sophistic detaljgrupp. GTG-1002.

Operationen, som ägde rum i mitten av september, påstås ha varit inriktad på ett 30-tal globala organisationer. Anthropics centrala påstående är att dess Claude AI vapenbehandlades för att utföra 80-90 % av attackens livscykel med minimal mänsklig tillsyn.

Enligt företaget,”tror vi att detta är det första dokumenterade fallet av en storskalig cyberattack utförd utan betydande mänsklig inblandning.”En sådan utveckling representerar ett stort steg från tidigare användning av AI för enklare uppgifter som att skapa nätfiske-e-postmeddelanden eller den mindre autonoma trenden för”vibe hacking”som Winbuzzer täckte tidigare.

Bakom de sensationella påståendena ligger en mer komplex teknisk verklighet. Angripare har enligt uppgift byggt ett anpassat orkestreringsramverk med hjälp av Model Context Protocol (MCP) för att dekomponera intrånget i en serie diskreta, till synes godartade uppgifter.

Denna metod gjorde det möjligt för AI:n att flyga under radarn. Ett avgörande element var att kringgå Claudes säkerhetsfunktioner genom en smart jailbreaking-teknik.”I det här fallet, vad de gjorde var att låtsas arbeta för legitima säkerhetstestande organisationer”, förklarade Jacob Klein, Anthropics Head of Threat Intelligence.

Genom att övertyga AI:n om att det var en del av ett legitimt penetrationstest, lurade operatörerna den till att utföra skadliga handlingar. Detta ramverk påstås ha gjort det möjligt för AI att göra”tusentals förfrågningar per sekund”, en hastighet omöjlig för mänskliga hackare.

Security Community Pushes Back, Citing Hype and ‘Regulatory Capture’

Skepticismen ökade snabbt från veteranforskare som ifrågasatte attackens nyhet och effekter. Många hävdar att de beskrivna funktionerna är en utveckling av befintliga automatiseringsverktyg, inte ett revolutionerande nytt hot.

“Jag fortsätter att vägra tro att angripare på något sätt kan få dessa modeller att hoppa genom ramarna som ingen annan kan”, säger Dan Tentler, exekutiv grundare av Phobos Group.

Oberoende forskare skickade inte något hot från Kevin Beauiment till detta. ny. Att underblåsa denna skepsis är kampanjens låga framgångsfrekvens; Anthropic bekräftade att bara en”handfull”av intrången var framgångsrika innan de stängdes av.

Se på Mastodon

Framstående industrisiffror intensifierade snart motreaktionen. Metas Chief AI Scientist, Yann LeCun, kritiserade skarpt tillkännagivandet som vad han kallade “Regulatory capture”, och antydde att hotet förstärktes för att påverka kommande AI-reglering.

Du spelas av människor som vill ha regulatorisk infångning.
De skrämmer alla med tvivelaktiga undersökningar så att modeller med öppen källkod regleras ur existens.

— Yann LeCun (@ylecun) Nove_blank%5Ember%5Ember, 2025

Hans kommentar tillför en ny dimension till kontroversen genom att ifrågasätta Anthropics motiv. Den kanske mest skadliga kritiken kommer dock från Anthropics egen rapport, som erkänner en kritisk begränsning i AI:s prestanda.

Företaget noterade att”Claude överskattade ofta fynd och ibland tillverkade data under autonoma operationer… Detta förblir ett hinder för helt autonoma cyberattacker.”autonom agent och stödjer uppfattningen att betydande mänsklig tillsyn fortfarande krävs.

Dilemma med dubbla användningsområden: AI som både vapen och sköld

Oavsett vilken exakt nivå av autonomi som uppnås, tvingar incidenten fram en avräkning med dubbelanvändningskaraktären hos agent AI. Samma kapacitet som gör att en AI kan attackera ett nätverk är ovärderlig för att försvara det.

Upplysningen kommer bara månader efter att Anthropic själva presenterade ett nytt säkerhetsramverk för AI-agenter, vilket lyfter fram utmaningen att genomdriva sådana principer mot beslutsamma motståndare. Snabb innovation inom offensiv AI verkar överträffa branschens förmåga att anpassa sitt försvar.

Säkerhetsexperter påpekar att defensiva AI-agenter redan distribueras i Security Operations Centers (SOCs). Plattformar som Palo Alto Networks Cortex AgentiX är designade för att automatisera hotupptäckt och-svar, vilket hjälper till att motverka den globala bristen på kompetens inom cybersäkerhet.

Anthropic använde själv Claude för att analysera data under sin undersökning, vilket bevisade teknikens defensiva användbarhet. Företaget efterlyser nu en snabbare användning av AI-drivna defensiva verktyg.”Om vi ​​inte gör det möjligt för försvarare att ha en mycket betydande permanent fördel, är jag orolig att vi kanske förlorar det här loppet,”varnade Logan Graham, som leder Anthropics katastrofala riskteam.

Ett kapplöpning mellan offensiv och defensiv AI intensifieras tydligt, och händelsen visar att debatten om dess verkliga potential är avgjord.

Categories: IT Info