AI Firm Antropic ha rivelato oggi che i suoi modelli AI avanzati vengono attivamente armati dai criminali informatici per sofisticati attacchi end-to-end. In un nuovo rapporto sull’intelligence delle minacce, la società descrive in dettaglio una tendenza inquietante che chiama”atmosfera”, in cui un singolo attore dannoso usa un agente di intelligenza artificiale come Claude sia come consulente tecnico che come operatore attivo.
La ricerca evidenzia come l’IA sta riducendo drasticamente il barriera al crimine. Consente agli attori delle minacce con competenze limitate per costruire ransomware, analizzare i dati rubati e persino aiutare gli agenti nordcoreani a garantire in modo fraudolento i lavori tecnologici ad alto pagamento per finanziare programmi sponsorizzati dallo stato. Ciò segna una significativa evoluzione nell’uso dell’IA per scopi dannosi.
Rapporto di Antropico, rilasciato oggi , configura uno spostamento di paladigm.”I sistemi di intelligenza artificiale agente vengono armati.”Questo sposta la minaccia oltre la semplice assistenza all’esecuzione attiva degli attacchi da parte degli agenti di AI.
“Vibe-behacking”: Ai come un auto-criminale … Il rapporto introduce il termine”atmosfera”come una metodologia che rappresenta un’evoluzione riguardante nel crimine informatico assistito dall’aria condizionata. Questo approccio vede l’IA funge sia da consulente tecnico che da operatore attivo, consentendo attacchi che sarebbero molto più difficili da eseguire manualmente da parte di un individuo. Contrassegna un passaggio fondamentale dall’IA come semplice strumento a AI come partner nell’operazione.
L’IA non stava semplicemente seguendo una sceneggiatura. Mentre l’attore ha fornito un file guida con tattiche preferite, l’agente era ancora sfruttato per prendere decisioni tattiche e strategiche. Ha determinato come penetrare al meglio le reti, quali dati esfiltrano e come creare richieste di estorsione mirate psicologicamente.
L’operazione ha dimostrato un’integrazione senza precedenti dell’intelligenza artificiale in tutto il ciclo di vita degli attacchi. Nella fase di ricognizione, l’agente ha automatizzato la scansione di migliaia di endpoint VPN per identificare i sistemi vulnerabili. Durante l’intrusione, ha fornito assistenza in tempo reale, identificando sistemi critici come i controller di dominio ed estrarre le credenziali.
Claude Codice è stato utilizzato anche per lo sviluppo di malware personalizzato. Ha creato versioni offuscate degli strumenti di tunneling esistenti per eludere Windows Defender e ha persino sviluppato un codice proxy TCP completamente nuovo da zero. Quando i tentativi di evasione iniziali non sono riusciti, l’IA ha suggerito nuove tecniche come la crittografia delle stringhe e il nome del nome del file in mascheraggio per mascherare i suoi eseguibili dannosi.
Dopo aver esfiltrando dati sensibili, inclusi i documenti finanziari, le credenziali del governo e le informazioni sanitarie-il ruolo dell’IA ha cambiato la monetizzazione. Ha analizzato i dati rubati per creare strategie di estorsione a più livelli, generando”piani di profitto”dettagliati che includevano ricattamento organizzativo diretto, vendite di dati ad altri criminali e pressione mirata su individui i cui dati erano compromessi. href=”https://www.theverge.com/ai-artificial-intelligence/766435/anthropopic-claude-threat-intelligence-report-ai-cybersecurity-hacking”bersaglio=”_ blank”> ha detto al punto ,”Questo è il più sofisticato uso degli agenti che ho visto… per il cyber. L’intelligenza artificiale ha calcolato importi di riscatto ottimali in base alla sua analisi, con richieste a volte superiori a $ 500.000.
Questa nuova capacità significa che”… Ora, un singolo individuo può condurre, con l’assistenza dei sistemi agenti”. Ciò altera fondamentalmente il panorama delle minacce, rendendo più difficile valutare la raffinatezza di un aggressore basato sulla complessità della loro operazione da sola.
[contenuto incorporato]
La democratizzazione del crimine informatico: ransomware senza codice
un altro trend allarmante evidenziato nel Rapporto antropico è l’ascesa di”Malware no-code”Il rapporto afferma:”L’intelligenza artificiale abbassa le barriere al crimine informatico sofisticato”. Questo non è un rischio teorico; La società ha identificato un attore con sede nel Regno Unito (GTG-5004) che incarna perfettamente questo nuovo paradigma.
Questo individuo, attivo su forum Web scuri come Dread e CryptBB da almeno gennaio 2025, ha dimostrato una”dipendenza apparentemente completa sull’intelligenza artificiale per sviluppare malware funzionali”. L’attore non è stato in grado di implementare complessi problemi tecnici di crittografia o risoluzione dei problemi senza l’assistenza di Claude, ma è stato commercializzando e venduto con successo un ransomware capace.
L’operazione è stata strutturata come un ransomware professionale-as-a-service (RAAS) con un modello commerciale a più livelli. Sono stati offerti un Ransomware DLL e eseguibili di base per $ 400, un kit RAAS completo con una console PHP sicura e strumenti di comando e controllo per $ 800 e un cripter completamente non rilevabile (FUD) per i binari di Windows per $ 1.200.
Questo ha effettivamente democratizzati criminali avanzati, mettendo a mano gli strumenti preparati nelle mani di lezioni di lezioni. L’attore ha mantenuto la sicurezza operativa distribuendo attraverso un sito.onion e utilizzando e-mail crittografate, sostenendo ingannevolmente i prodotti”per l’uso educativo e di ricerca solo”mentre pubblicizzava su forum penali.
Nonostante l’apparente mancanza dell’operatore di profonda competenza, il malware generato dall’AI era altamente sofisticato. Le sue caratteristiche fondamentali includevano una cifra di flusso di Chacha20 per la crittografia dei file, l’uso dell’API CNG di Windows per la gestione delle chiavi RSA e i meccanismi anti-recupero come la cancellazione di copie ombra di volume per prevenire un facile restauro.
Per l’evasione, i malfunzionamenti di tecniche avanzate come riciclati e Freshycalls. Questi metodi utilizzano l’invocazione SYSCall diretta per bypassare i ganci API in modalità utente comunemente utilizzati dalle soluzioni EDR. Ciò rappresenta una significativa trasformazione operativa in cui la competenza tecnica viene esternalizzata all’IA piuttosto che acquisita attraverso l’esperienza.
Questo incidente è solo un esempio di una più ampia tendenza del settore dell’arma dell’IA. Come i precedenti rapporti di Winbuzzer sono stati dettagliati, questo spostamento è visibile in tutto il panorama delle minacce, dagli aggressori che usavano V0 di Vercel per i siti di”phishing istantaneo”all’evoluzione di strumenti come Wormgpt, che ora dirottano i modelli legittimi come Grok e Mixtral.
un nuovo fronte in stato di stato e Attacco Ai-A-A-A-A-Strong. Scopre una campagna sistematica e sofisticata da parte dei lavoratori IT della Corea del Nord che stanno sfruttando Claude per ottenere e mantenere in modo fraudolento i lavori tecnologici a pagamento nelle aziende Fortune 500. Secondo l’indagine antropica, queste operazioni sono progettate per eludere le sanzioni internazionali e generare centinaia di milioni di dollari all’anno per finanziare i programmi di armi della nazione.
La scoperta più sorprendente è la”completa dipendenza degli agenti dall’intelligenza artificiale per funzionare nei ruoli tecnici”. Queste persone sembrano incapaci di scrivere codice di base, problemi di debug o persino comunicare professionalmente senza costante assistenza all’intelligenza artificiale. Ciò crea un nuovo paradigma in cui la competenza tecnica non è posseduta, ma completamente simulata.
L’operazione di lavoro fraudolenta segue un ciclo di vita multipla, con assistenza all’intelligenza artificiale in ogni fase. Nella fase iniziale dello”sviluppo della persona”, gli operatori usano Claude per generare contesti professionali convincenti, creare portafogli tecnici con storie di progetto e riferimenti culturali di ricerca per apparire autentici.
Durante il processo di”domanda e intervista”, l’IA viene utilizzata per personalizzare i curriculum su specifiche descrizioni del lavoro, letti di copertura per la copertina di artigianato e fornire assistenza al tempo tecnico del tecnico. Ciò consente loro di passare con successo le interviste per i ruoli per cui non sono qualificati.
Una volta assunti, la dipendenza si intensifica. Nella fase di”manutenzione dell’occupazione”, gli agenti si basano sull’intelligenza artificiale per offrire un lavoro tecnico effettivo, partecipare alle comunicazioni di squadra e rispondere alle revisioni del codice, mantenendo l’illusione della competenza. I dati di Antropic mostrano che circa l’80% dell’utilizzo di Claude degli agenti è coerente con l’occupazione attiva.
Questo approccio abilitato agli Agli elimina il tradizionale collo di bottiglia di anni di formazione specializzata presso istituti d’élite come la Kim Il Sung University. Storicamente, ciò limitava il numero di agenti che il regime poteva distribuire. Ora, l’IA ha effettivamente rimosso questo vincolo, consentendo alle persone con competenze limitate per garantire e ricoprire posizioni ingegneristiche redditizie.
Il rapporto rileva che”un singolo operatore può raggiungere l’impatto di un intero team criminale cybercriminale attraverso l’assistenza all’indirizzo”. Questa arma di intelligenza artificiale non sta accadendo nel vuoto. Microsoft ha già avvertito che”L’intelligenza artificiale ha iniziato a abbassare la barra tecnica per gli attori di frode e criminalità informatica… rendendo più facile ed economico generare contenuti credibili per gli attacchi informatici a un tasso sempre più rapido.”
Questa tendenza più ampia è evidente nel recente aumento degli attacchi di phishing Ai-assistenti e In risposta alle sue scoperte, Antropic ha vietato i conti dannosi e migliorato i suoi strumenti per correlare indicatori noti di compromesso. La società condivide anche indicatori tecnici con partner del settore per aiutare a prevenire gli abusi in tutto l’ecosistema.
La scoperta più sorprendente è la”completa dipendenza degli agenti dall’intelligenza artificiale per funzionare nei ruoli tecnici”. Queste persone sembrano incapaci di scrivere codice di base, problemi di debug o persino comunicare professionalmente senza costante assistenza all’intelligenza artificiale. Ciò crea un nuovo paradigma in cui la competenza tecnica non è posseduta, ma completamente simulata.
L’operazione di lavoro fraudolenta segue un ciclo di vita multipla, con assistenza all’intelligenza artificiale in ogni fase. Nella fase iniziale dello”sviluppo della persona”, gli operatori usano Claude per generare contesti professionali convincenti, creare portafogli tecnici con storie di progetto e riferimenti culturali di ricerca per apparire autentici.
Durante il processo di”domanda e intervista”, l’IA viene utilizzata per personalizzare i curriculum su specifiche descrizioni del lavoro, letti di copertura per la copertina di artigianato e fornire assistenza al tempo tecnico del tecnico. Ciò consente loro di passare con successo le interviste per i ruoli per cui non sono qualificati.
Una volta assunti, la dipendenza si intensifica. Nella fase di”manutenzione dell’occupazione”, gli agenti si basano sull’intelligenza artificiale per offrire un lavoro tecnico effettivo, partecipare alle comunicazioni di squadra e rispondere alle revisioni del codice, mantenendo l’illusione della competenza. I dati di Antropic mostrano che circa l’80% dell’utilizzo di Claude degli agenti è coerente con l’occupazione attiva.
Questo approccio abilitato agli Agli elimina il tradizionale collo di bottiglia di anni di formazione specializzata presso istituti d’élite come la Kim Il Sung University. Storicamente, ciò limitava il numero di agenti che il regime poteva distribuire. Ora, l’IA ha effettivamente rimosso questo vincolo, consentendo alle persone con competenze limitate per garantire e ricoprire posizioni ingegneristiche redditizie.
Il rapporto rileva che”un singolo operatore può raggiungere l’impatto di un intero team criminale cybercriminale attraverso l’assistenza all’indirizzo”. Questa arma di intelligenza artificiale non sta accadendo nel vuoto. Microsoft ha già avvertito che”L’intelligenza artificiale ha iniziato a abbassare la barra tecnica per gli attori di frode e criminalità informatica… rendendo più facile ed economico generare contenuti credibili per gli attacchi informatici a un tasso sempre più rapido.”
Questa tendenza più ampia è evidente nel recente aumento degli attacchi di phishing Ai-assistenti e In risposta alle sue scoperte, Antropic ha vietato i conti dannosi e migliorato i suoi strumenti per correlare indicatori noti di compromesso. La società condivide anche indicatori tecnici con partner del settore per aiutare a prevenire gli abusi in tutto l’ecosistema.