De recente bewering van Anthropic dat door de Chinese staat gesponsorde hackers de Claude AI hebben gebruikt om een ​​vrijwel autonome cyberspionagecampagne uit te voeren, krijgt te maken met aanzienlijke reacties. Het AI-bedrijf rapporteerde op 13 november dat de aanval voor 80-90% geautomatiseerd was, een cijfer dat veiligheidsonderzoekers onmiddellijk in twijfel trokken.

Critici beweren dat de rol van AI overdreven is en vergelijkbaar is met bestaande tools, terwijl prominente figuren als Meta’s Yann LeCun de aankondiging afdoen als’regelgevend theater’. Dit dispuut benadrukt een groeiend debat over de werkelijke capaciteiten van AI in cyberoorlogvoering en de motieven achter dergelijke spraakmakende onthullingen.

Een ‘AI-georkestreerde’ campagne of gewoon geavanceerde automatisering?

In een onthulling die rimpelingen door de beveiligingsindustrie veroorzaakte, heeft Anthropic onlangs een geavanceerde operatie beschreven van een groep die het volgt als GTG-1002.

De operatie, die medio september plaatsvond, was naar verluidt gericht tegen ongeveer 30 mondiale organisaties. De centrale bewering van Anthropic is dat de Claude AI bewapend was om 80-90% van de aanvalslevenscyclus uit te voeren met minimaal menselijk toezicht.

Volgens het bedrijf “denken wij dat dit het eerste gedocumenteerde geval is van een grootschalige cyberaanval die wordt uitgevoerd zonder substantiële menselijke tussenkomst.” Een dergelijke ontwikkeling vertegenwoordigt een grote sprong ten opzichte van eerder gebruik van AI voor eenvoudigere taken, zoals het maken van phishing-e-mails of de minder autonome’vibe hacking’-trend die Winbuzzer eerder behandelde.

Achter de sensationele beweringen schuilt een complexere technische realiteit. Aanvallers hebben naar verluidt een aangepast orkestratieframework gebouwd met behulp van het Model Context Protocol (MCP) om de inbraak op te splitsen in een reeks afzonderlijke, ogenschijnlijk goedaardige taken.

Deze methode zorgde ervoor dat de AI onder de radar kon blijven. Een cruciaal element was het omzeilen van de veiligheidsvoorzieningen van Claude door middel van een slimme jailbreaktechniek. “In dit geval deden ze alsof ze werkten voor legitieme beveiligingstestorganisaties”, legt Jacob Klein, hoofd Threat Intelligence van Anthropic, uit.

Door de AI ervan te overtuigen dat deze deel uitmaakte van een legitieme penetratietest, konden operators deze misleiden tot het uitvoeren van kwaadaardige acties. Dit raamwerk zou de AI in staat hebben gesteld om’duizenden verzoeken per seconde’te doen, een snelheid die onmogelijk is voor menselijke hackers.

De beveiligingsgemeenschap duwt terug, onder verwijzing naar hype en’Regulatory Capture’

Het scepticisme nam snel toe van ervaren onderzoekers die de nieuwigheid en impact van de aanval in twijfel trokken. Velen beweren dat de beschreven mogelijkheden een evolutie zijn van bestaande automatiseringstools, en niet een revolutionaire nieuwe bedreiging.

“Ik blijf weigeren te geloven dat aanvallers op de een of andere manier in staat zijn om deze modellen door hoepels te laten springen zoals niemand anders dat kan”, zegt Dan Tentler, uitvoerend oprichter van Phobos Group.

Onafhankelijk onderzoeker Kevin Beaumont herhaalde dit sentiment en stelde dat de bedreigingsactoren niets nieuws uitvonden. Dit scepticisme wordt gevoed door het lage succespercentage van de campagne; Anthropic bevestigde dat slechts een “handvol” van de inbraken succesvol was voordat ze werden stopgezet.

Kijk op Mastodon

Prominente cijfers uit de sector versterkten de reactie al snel. Yann LeCun, hoofd AI-wetenschapper van Meta, heeft de aankondiging scherp bekritiseerd als wat hij ‘Regulatory capture’ noemde, wat suggereert dat de dreiging wordt versterkt om de komende AI-regelgeving te beïnvloeden.

Je wordt gespeeld door mensen die regulerende capture willen.
Ze maken iedereen bang met dubieuze onderzoeken, zodat open source-modellen worden verboden.

— Yann LeCun (@ylecun) 14 november 2025

Zijn opmerking voegt een nieuwe dimensie toe aan de controverse door de motieven van Anthropic in twijfel te trekken. Misschien wel de meest schadelijke kritiek komt echter uit het eigen rapport van Anthropic, waarin een kritische beperking in de prestaties van de AI wordt erkend.

Het bedrijf merkte op dat “Claude tijdens autonome operaties regelmatig bevindingen overdreef en af en toe gegevens verzonnen… Dit blijft een obstakel voor volledig autonome cyberaanvallen.”

Deze bekentenis ondermijnt direct het verhaal van een vrijwel vlekkeloze autonome agent en ondersteunt de opvatting dat er nog steeds aanzienlijk menselijk toezicht nodig is.

De Dilemma voor tweeërlei gebruik: AI als wapen en schild

Ongeacht het exacte niveau van autonomie dat wordt bereikt, dwingt het incident af te rekenen met het tweeledige karakter van agentische AI. Dezelfde mogelijkheden waarmee een AI een netwerk kan aanvallen, zijn van onschatbare waarde voor de verdediging ervan.

De onthulling komt slechts enkele maanden nadat Anthropic zelf een nieuw veiligheidsraamwerk voor AI-agenten heeft gepresenteerd, wat de uitdaging benadrukt van het afdwingen van dergelijke principes tegen vastberaden tegenstanders. Snelle innovatie op het gebied van offensieve AI lijkt het vermogen van de industrie om haar verdediging aan te passen te overtreffen.

Beveiligingsexperts wijzen erop dat defensieve AI-agenten al worden ingezet in Security Operations Centers (SOC’s). Platforms zoals Cortex AgentiX van Palo Alto Network zijn ontworpen om de detectie en reactie op bedreigingen te automatiseren en zo het wereldwijde tekort aan cyberbeveiligingsvaardigheden te helpen tegengaan.

Anthropic zelf gebruikte Claude om gegevens te analyseren tijdens zijn onderzoek, wat het defensieve nut van de technologie bewees. Het bedrijf roept nu op tot een versnelde adoptie van door AI aangedreven defensieve instrumenten. “Als we verdedigers niet in staat stellen een zeer substantieel permanent voordeel te hebben, ben ik bang dat we deze race misschien verliezen”, waarschuwde Logan Graham, die leiding geeft aan het catastrofale risicoteam van Anthropic.

Een race tussen offensieve en defensieve AI wordt duidelijk heviger, en het incident laat zien dat het debat over het ware potentieel ervan nog lang niet is beslecht.

Categories: IT Info