AI-bedrijf Anthropic heeft vandaag onthuld dat zijn geavanceerde AI-modellen actief worden bewapend door cybercriminelen voor verfijnde, end-to-end aanvallen. In een nieuw rapport van de bedreigingsinformatie beschrijft het bedrijf een verontrustende trend die het’sfeer-hacking’noemt, waar een enkele kwaadwillende acteur een AI-agent als Claude gebruikt als zowel een technisch consultant als een actieve operator.

Het onderzoek benadrukt hoe AI de barrière tot cybercriminaliteit drastisch verlaagt. Het stelt bedreigingsactoren met beperkte vaardigheden in staat om ransomware te bouwen, gestolen gegevens te analyseren en zelfs Noord-Koreaanse agenten te helpen frauduleus goedbetaalde technische banen te beveiligen om door de staat gesponsorde programma’s te financieren. Dit markeert een belangrijke evolutie in het gebruik van AI voor kwaadaardige doeleinden.

Anthropic’s rapport, bevestigt vandaag , bevestigt een paradig shift in cybercrime.”Agentische AI ​​-systemen worden bewapend.”Dit brengt de dreiging verder dan eenvoudige hulp aan de actieve uitvoering van aanvallen door AI-agenten.

‘Vibe-hacking’: AI als een autonome cybercriminal

Het rapport introduceert de term”vibe-hacking”als een methodiek die een concentrerende evolutie in ai-assistische cybercrime introduceert. In deze aanpak dient de AI zowel een technisch consultant als een actieve operator, waardoor aanvallen mogelijk zijn die veel moeilijker zouden zijn voor een persoon om handmatig uit te voeren. Het markeert een fundamentele verschuiving van AI als een eenvoudig instrument naar AI als een partner in de bewerking.

Anthropische details a sophisticated”> a sopiced Cybercriminale operatie (gevolgd als GTG-2002) waarbij een enkele acteur zijn Claude-codeagent gebruikte om een ​​geschaalde data-afpersingscampagne uit te voeren. Binnen slechts één maand heeft de operatie ten minste 17 verschillende organisaties in verschillende sectoren zoals gezondheidszorg, hulpdiensten en overheid aangetast.

De AI volgde niet alleen een script. Terwijl de acteur een geleidebestand verstrekte met voorkeurstactieken, werd de agent nog steeds gebruikt om zowel tactische als strategische beslissingen te nemen. Het bepaalde hoe het beste netwerken te penetreren, welke gegevens ze moeten worden geëxcureerd en hoe psychologisch gerichte afpersingseisen te maken.

De operatie toonde een ongekende integratie van AI over de hele aanvalslevenscyclus. In de verkenningsfase automatiseerde de agent het scannen van duizenden VPN-eindpunten om kwetsbare systemen te identificeren. Tijdens de inbraak bood het realtime hulp, het identificeren van kritieke systemen zoals domeincontrollers en het extraheren van referenties.

Claude-code werd ook gebruikt voor aangepaste malware-ontwikkeling. Het creëerde verduisterde versies van bestaande tunnelingtools om Windows-verdediger te ontwijken en ontwikkelde zelfs helemaal nieuwe TCP-proxycode helemaal opnieuw. Toen de initiële ontwijkingspogingen mislukten, stelde de AI voor dat nieuwe technieken zoals stringcodering en bestandsnaam masquerading om zijn kwaadaardige uitvoerbare bestanden te verbergen.

Na het exfiltreren van gevoelige gegevens-inclusief financiële gegevens, overheidsreferenties en informatie over de gezondheidszorg-de rol van de AI verschoof naar monetisatie. Het analyseerde de gestolen gegevens om meerlagige afpersingsstrategieën te creëren, waarbij gedetailleerde”winstplannen”werden gegenereerd die directe organisatorische chantage, gegevensverkoop aan andere criminelen omvatten en gerichte druk op individuen wier gegevens werden gecompromitteerd.

Jacob Klein, Anthropic’s Head of Threat Intelligentie, vertelde The Verge ,”Dit is de meest geavanceerde gebruik van agenten die ik heb gezien… voor cyber offension.”De AI berekende optimale losgeldbedragen op basis van de analyse, met eisen die soms meer dan $ 500.000 bedragen.

Deze nieuwe capaciteit betekent dat”… nu een enkele persoon kan uitvoeren, met behulp van agentische systemen.”Dit verandert fundamenteel het landschap van de dreiging, waardoor het moeilijker wordt om de verfijning van een aanvaller te beoordelen op basis van de complexiteit van hun werking alleen.

[ingebedde inhoud]

De democratisering van cybercrime: no-code ransomware-as-a-service

een andere alarmerende trend benadrukt in de Anthropisch rapport is de opkomst van”no-code malware,”een transformatie en een transformatie-traditionele kalkwijk. Het rapport stelt:”AI verlaagt de barrières voor geavanceerde cybercriminaliteit.”Dit is geen theoretisch risico; Het bedrijf identificeerde een in het VK gevestigde acteur (GTG-5004) die dit nieuwe paradigma perfect belichaamt. De acteur leek niet in staat om complexe codering of problemen met het oplossen van technische problemen te implementeren zonder de hulp van Claude, maar was met succes op de markt en de verkoop van capabele ransomware.

De operatie was gestructureerd als een professionele ransomware-as-a-service (RAAS) business met een multi-lager commercieel model. Een basisransomware-DLL en uitvoerbaar bestand werden aangeboden voor $ 400, een volledige RAAS-kit met een beveiligde PHP-console en command-and-control tools voor $ 800, en een volledig niet-detecteerbare (FUD) crypter voor Windows Binaries voor $ 1.200.

Dit effectief democratiseert geavanceerde cybercrime, putten, gemaakte, gemaakte tools in de hand van minder geschonken individuen. De acteur handhaafde operationele beveiliging door zich te verspreiden via een.onion-site en het gebruik van gecodeerde e-mail, bedrieglijk beweren dat de producten”alleen voor educatief en onderzoeksgebruik waren”tijdens het adverteren op criminele forums.

Ondanks het schijnbare gebrek aan diepe expertise van de operator was de ai-gegenereerde malware zeer verfijnd. De kernfuncties omvatten een chacha20-streamcipher voor bestandscodering, het gebruik van de Windows CNG API voor RSA-sleutelbeheer en anti-herstelmechanismen zoals de verwijdering van volume schaduwkopieën om gemakkelijk herstel te voorkomen.

voor ontwijking, de malware gebruikte geavanceerde technieken zoals recycledgaat en friskomen. Deze methoden maken gebruik van directe syscall-aanroep om gebruikersmodus-API-haken te omzeilen die vaak worden gebruikt door EDR-oplossingen. Dit betekent een belangrijke operationele transformatie waarbij technische competentie wordt uitbesteed aan AI in plaats van overgenomen door ervaring.

Dit incident is slechts een voorbeeld van een bredere trend in de industrie van AI-bewapening. As previous Winbuzzer reports have detailed, this shift is visible across the threat landscape, from attackers who used Vercel’s v0 for “instant phishing”sites to the evolution of tools like WormGPT, which now hijack legitimate models like Grok and Mixtral.

A New Front in State-Sponsored and AI-Accelerated Attacks

The report also uncovers a Systematische en geavanceerde campagne door Noord-Koreaanse IT-werknemers die Claude gebruiken om frauduleus goedbetaalde technische banen te verkrijgen en te onderhouden bij Fortune 500-bedrijven. Volgens het antropische onderzoek zijn deze activiteiten ontworpen om internationale sancties te ontwijken en jaarlijks honderden miljoenen dollars te genereren om de wapenprogramma’s van de natie te financieren. Deze personen lijken niet in staat om basiscode, foutopsporingsproblemen te schrijven of zelfs professioneel te communiceren zonder constante AI-hulp. Dit creëert een nieuw paradigma waar technische competentie niet bezeten is, maar volledig gesimuleerd.

De frauduleuze werkgelegenheidsoperatie volgt een meerfase levenscyclus, met AI-assistentie in elke fase. In de initiële fase”Persona Development”gebruiken operators Claude om overtuigende professionele achtergronden te genereren, technische portefeuilles te maken met projectgeschiedenissen en onderzoek naar culturele referenties om authentiek te lijken.

Tijdens het”Application and Interview”-proces wordt de AI gebruikt om cv-cv’s voor specifieke werkbeschrijvingen, ambachtelijke overtuigende hekelingen te geven tijdens technische codeerbeoordelingen. Hierdoor kunnen ze met succes interviews doorgeven voor rollen waarvoor ze niet gekwalificeerd zijn.

Eenmaal ingehuurd, wordt de afhankelijkheid intenser. In de fase”werkgelegenheidsonderhoud”vertrouwen agenten op AI om daadwerkelijk technisch werk te leveren, deel te nemen aan teamcommunicatie en te reageren op code-beoordelingen, het handhaven van de illusie van competentie. De gegevens van Anthropic laten zien dat ongeveer 80% van het Claude-gebruik van de medewerkers consistent is met actieve werkgelegenheid.

Deze AI-compatibele aanpak omzeilt het traditionele knelpunt van het nodig hebben van jaren van gespecialiseerde training bij elite-instellingen zoals Kim il Sung University. Historisch gezien beperkte dit het aantal agenten dat het regime zou kunnen inzetten. Nu heeft AI deze beperking effectief verwijderd, waardoor personen met beperkte vaardigheden lucratieve engineeringposities kunnen beveiligen en vasthouden.

Het rapport merkt op dat”een enkele operator de impact van een volledig cybercriminaal team kan bereiken door AI-hulp.”Deze bewapening van AI gebeurt niet in een vacuüm. Microsoft heeft al gewaarschuwd dat”AI is begonnen met het verlagen van de technische lat voor fraude en cybercriminaliteitsacteurs… het gemakkelijker en goedkoper maken om geloofwaardige inhoud te genereren voor cyberaanvallen in een steeds snelle snelheid.”Als reactie op zijn bevindingen heeft antropisch de kwaadaardige accounts verboden en zijn gereedschap verbeterd voor het correleren van bekende indicatoren van compromis. Het bedrijf deelt ook technische indicatoren met industriële partners om misbruik in het hele ecosysteem te voorkomen.

Categories: IT Info