AI-firma antropic avslöjade idag att dess avancerade AI-modeller aktivt vapenas av cyberbrottslingar för sofistikerade attacker från slutet till slutet. I en ny hotintelligensrapport beskriver företaget en störande trend som den kallar”vibe-hacking”, där en enda skadlig skådespelare använder en AI-agent som Claude som både en teknisk konsult och en aktiv operatör. Det gör det möjligt för hotaktörer med begränsade färdigheter att bygga ransomware, analysera stulna data och till och med hjälpa nordkoreanska operatörer bedrägligt att säkerställa högbetalande tekniska jobb för att finansiera statliga sponsrade program. Detta markerar en betydande utveckling i användningen av AI för skadliga ändamål.
Anthropics rapport, släpptes idag , bekräftar en paradc-skift.”Agentiska AI-system vapen.”Detta flyttar hotet utöver enkel hjälp till det aktiva genomförandet av attacker av AI-agenter.
‘vibe-hack’: ai as aut en aut aut aut aut cybercim i aut-cybercim
‘vibe-hacking’: ai as aut aut en aut aut aut aut auty cybercim introducerar termen”vibe-hacking”som en metod som representerar en angående evolution i AI-assisterad cyberbrott. Detta tillvägagångssätt ser att AI fungerar som både en teknisk konsult och en aktiv operatör, vilket möjliggör attacker som skulle vara mycket svårare för en individ att utföra manuellt. Det markerar en grundläggande övergång från AI som ett enkelt verktyg till AI som partner i operationen.
AI följde inte bara ett manus. Medan skådespelaren tillhandahöll en guidefil med föredragen taktik, utnyttjades agenten fortfarande för att fatta både taktiska och strategiska beslut. Den bestämde hur man bäst penetrerar nätverk, vilka data som ska exfiltrerar och hur man skapar psykologiskt riktade utpressningskrav.
operationen visade en enastående integration av AI över hela attackens livscykel. I rekognoseringsfasen automatiserade agenten skanning av tusentals VPN-slutpunkter för att identifiera sårbara system. Under intrånget tillhandahöll det realtidshjälp, identifiering av kritiska system som domänkontroller och extrahering av referenser.
Claude-kod användes också för anpassad utveckling av skadlig programvara. Det skapade obfuskade versioner av befintliga tunnelverktyg för att undvika Windows Defender och till och med utvecklade helt ny TCP-proxykod från grunden. När de första undantagsförsöken misslyckades föreslog AI nya tekniker som strängkryptering och filnamn som maskerats för att dölja sina skadliga körbara filer.
Efter exfiltrering av känsliga uppgifter-inklusive finansiella register, regeringsuppgifter och information om hälso-och sjukvård-AI: s roll skiftade till monetisering. Den analyserade de stulna uppgifterna för att skapa flersporterade utpressningsstrategier, genererade detaljerade”vinstplaner”som inkluderade direkt organisatorisk utpressning, dataförsäljning till andra brottslingar och riktat tryck på individer vars data komprometterades.
Jacob Klein, Anthropics chef för hotintelligens, sa till Verge ,”Detta är den mest sopistiska användningen av agenter som jag har sett… AI beräknade optimala lösningsbelopp baserade på dess analys, med krav som ibland överstiger $ 500 000.
Denna nya kapacitet innebär att”… nu kan en enskild individ genomföra med hjälp av agentiska system.”Detta förändrar grundläggande hotlandskapet, vilket gör det svårare att bedöma en angripares sofistikering baserat på komplexiteten i deras operation ensam.
[inbäddat innehåll]
Demokratiseringen av cyberkrimen: no-code ransomware-as-a-service
en annan alarmering trend i den Anthropic report is the rise of “no-code malware,”a transformation enabled by AI that removes traditional technical barriers to cybercrime. Rapporten säger:”AI sänker hinder för sofistikerade cyberbrott.”Detta är inte en teoretisk risk; Företaget identifierade en brittisk baserad skådespelare (GTG-5004) som perfekt förkroppsligar detta nya paradigm. Denna individ, aktiv på mörka webbforum som Dread och CryptBB sedan minst januari 2025, demonstrerade ett”till synes fullständigt beroende av AI för att utveckla funktionella skadliga forum.”Skådespelaren verkade oförmögen att implementera komplex kryptering eller felsökning av tekniska problem utan Claude’s hjälp, men ändå marknadsförde och säljer kapabla ransomware. Operationen var strukturerad som en professionell ransomware-as-a-service (RAAS) verksamhet med en multi-bunded kommersiell modell. En grundläggande ransomware-DLL och körbar erbjöds för $ 400, ett fullständigt RAAS-kit med en säker PHP-konsol och kommando-och-kontrollverktyg för $ 800, och en helt oupptäckbar (fud) krypter för Windows-binärer för $ 1 200. Detta demokratiserar avancerade cyberkrim, potent, redo till 1 200. Skådespelaren upprätthöll den operativa säkerheten genom att distribuera genom en.onion-webbplats och använda krypterad e-post, och hävdade att produkterna var”för utbildnings-och forskningsanvändning endast”medan de annonserade på kriminella forum. Trots operatörens uppenbara brist på djup expertis var den AI-genererade skadliga malware mycket sofistikerad. Dess kärnfunktioner inkluderade en ChACHA20-strömchiffer för filkryptering, användningen av Windows CNG API för RSA-nyckelhantering och anti-återhämtningsmekanismer som radering av volymskuggkopior för att förhindra enkel restaurering. för eVasion, malware använde avancerade tekniker som återvinning och färskhet. Dessa metoder använder direkt Syscall-åkallelse för att kringgå API-krokar för användarläge som vanligtvis används av EDR-lösningar. Detta representerar en betydande operativ omvandling där teknisk kompetens är outsourcad till AI snarare än förvärvas genom erfarenhet. Denna incident är bara ett exempel på en bredare branschtrend av AI-vapen. Som tidigare Winbuzzer-rapporter har detaljerat är denna förskjutning synlig över hotlandskapet, från angripare som använde Vercel’s V0 för”Instant Phishing”-webbplatser till utvecklingen av verktyg som Wormgpt, som nu kapelererade attacker Den bedrägliga anställningsverksamheten följer en livscykel med flera faser, med AI-hjälp i varje steg. I den första fasen”Persona Development”använder operatörerna Claude för att generera övertygande professionella bakgrunder, skapa tekniska portföljer med projekthistorier och forsknings kulturella referenser för att verka autentiska. under “Application and Interview”-processen, AI används för att skräddarsy återupptas till specifika jobbbeskrivningar, hantverkskoncentrationsbokstäver och tillhandahålla realtidshjälp under tekniska bedömningar. Detta gör att de framgångsrikt kan passera intervjuer för roller de är okvalificerade för. När beroendet när beroendet intensifieras. I fasen”Anställningsunderhåll”förlitar operatörerna AI för att leverera faktiskt tekniskt arbete, delta i teamkommunikation och svara på kodrecensioner, upprätthålla illusionen av kompetens. Anthropics data visar att cirka 80% av de operativa användningen av claude är förenlig med aktiv anställning. Detta AI-aktiverade tillvägagångssätt kringgår den traditionella flaskhalsen att behöva år med specialiserad utbildning vid elitinstitutioner som Kim Il Sung University. Historiskt begränsade detta antalet operatörer som regimen kunde distribuera. Nu har AI effektivt tagit bort denna begränsning, vilket gör att individer med begränsade färdigheter kan säkra och hålla lukrativa tekniska positioner. Rapporten konstaterar att”en enda operatör kan uppnå effekterna av ett helt cyberkriminellt team genom AI-hjälp.”Denna vapen av AI händer inte i ett vakuum. Microsoft har redan varnat för att”AI har börjat sänka den tekniska baren för bedrägerier och cyberbrottsaktörer… vilket gör det enklare och billigare att generera trovärdigt innehåll för cyberattacker i allt snabbare takt.” Denna bredare trend är tydligt i det senaste ökningen av AI-assisted phishing-attacker och malware-kampanjer som förklarar missförstånd. Som svar på dess resultat har Anthropic förbjudit de skadliga kontona och förbättrat sitt verktyg för att korrelera kända indikatorer för kompromiss. Företaget delar också tekniska indikatorer med branschpartners för att förhindra missbruk över ekosystemet.