La recente affermazione di Anthropic secondo cui hacker sponsorizzati dallo stato cinese avrebbero utilizzato la sua intelligenza artificiale Claude per condurre una campagna di spionaggio informatico quasi autonoma sta affrontando una reazione significativa. La società di intelligenza artificiale ha riferito il 13 novembre che l’attacco era automatizzato all’80-90%, un dato che i ricercatori di sicurezza hanno immediatamente messo in dubbio.

I critici sostengono che il ruolo dell’intelligenza artificiale è sopravvalutato e paragonabile a strumenti esistenti, mentre figure di spicco come Yann LeCun di Meta liquidano l’annuncio come un”teatro normativo”. Questa controversia evidenzia un crescente dibattito sulle reali capacità dell’intelligenza artificiale nella guerra informatica e sui motivi dietro tali divulgazioni di alto profilo.

Una campagna”orchestrata dall’intelligenza artificiale”o semplicemente automazione avanzata?

In una divulgazione che ha avuto ripercussioni nel settore della sicurezza, Anthropic ha recentemente descritto in dettaglio un’operazione sofisticata da parte di un gruppo che identifica come GTG-1002.

L’operazione, avvenuta a metà settembre, avrebbe preso di mira circa 30 organizzazioni globali. L’affermazione centrale di Anthropic è che la sua Claude AI è stata utilizzata come arma per eseguire l’80-90% del ciclo di vita dell’attacco con una supervisione umana minima.

Secondo l’azienda,”crediamo che questo sia il primo caso documentato di un attacco informatico su larga scala eseguito senza un sostanziale intervento umano.”Un tale sviluppo rappresenta un grande passo avanti rispetto agli usi precedenti dell’intelligenza artificiale per compiti più semplici come la creazione di e-mail di phishing o la tendenza meno autonoma del”vibe hacking”che Winbuzzer ha trattato in precedenza.

Dietro le affermazioni sensazionali si nasconde una realtà tecnica più complessa. Secondo quanto riferito, gli aggressori hanno creato un framework di orchestrazione personalizzato utilizzando il Model Context Protocol (MCP) per scomporre l’intrusione in una serie di attività discrete e apparentemente benigne.

Questo metodo ha consentito all’IA di volare sotto il radar. Un elemento cruciale è stato aggirare le funzionalità di sicurezza di Claude attraverso un’intelligente tecnica di jailbreak.”In questo caso, quello che stavano facendo era fingere di lavorare per organizzazioni legittime di test di sicurezza”, ha spiegato Jacob Klein, responsabile della Threat Intelligence di Anthropic.

Convincendo l’IA che faceva parte di un test di penetrazione legittimo, gli operatori l’hanno indotta a compiere azioni dannose. Questo framework avrebbe consentito all’intelligenza artificiale di effettuare”migliaia di richieste al secondo”, una velocità impossibile per gli hacker umani.

La community di sicurezza si oppone, citando esagerazioni e”cattura normativa”

Lo scetticismo è rapidamente cresciuto da ricercatori veterani che hanno messo in dubbio la novità e l’impatto dell’attacco. Molti sostengono che le funzionalità descritte siano un’evoluzione degli strumenti di automazione esistenti, non una nuova minaccia rivoluzionaria.

“Continuo a rifiutarmi di credere che gli aggressori siano in qualche modo in grado di far sì che questi modelli facciano i salti mortali che nessun altro può”, ha affermato Dan Tentler, fondatore esecutivo di Phobos Group.

Il ricercatore indipendente Kevin Beaumont ha fatto eco a questo sentimento, affermando che gli autori delle minacce non stavano inventando nulla di nuovo. Ad alimentare questo scetticismo è il basso tasso di successo della campagna; Anthropic ha confermato che solo una”manciata”di intrusioni hanno avuto successo prima di essere chiuse.

Vista su Mastodon

Personaggi di spicco del settore hanno presto intensificato la reazione. Il capo scienziato dell’intelligenza artificiale di Meta, Yann LeCun, ha criticato aspramente l’annuncio definendolo”cattura normativa”, suggerendo che la minaccia è stata amplificata per influenzare l’imminente regolamentazione dell’intelligenza artificiale.

Sei preso in giro da persone che vogliono la cattura normativa.
Stanno spaventando tutti con studi dubbi, così che i modelli open source vengano eliminati regolamentando.

— Yann LeCun (@ylecun) 14 novembre 2025

Il suo commento aggiunge una nuova dimensione alla controversia mettendo in discussione le motivazioni di Anthropic. Forse la critica più dannosa, tuttavia, viene dal rapporto di Anthropic, che riconosce una limitazione critica nelle prestazioni dell’intelligenza artificiale.

L’azienda ha osservato che”Claude ha spesso sopravvalutato i risultati e occasionalmente ha fabbricato dati durante operazioni autonome… Ciò rimane un ostacolo per attacchi informatici completamente autonomi.”

Questa ammissione mina direttamente la narrativa di un agente autonomo quasi impeccabile e supporta l’idea che è ancora necessaria una significativa supervisione umana.

Il Dilemma del duplice uso: l’intelligenza artificiale sia come arma che come scudo

Indipendentemente dall’esatto livello di autonomia raggiunto, l’incidente impone di fare i conti con la natura a duplice uso dell’IA agente. Le stesse capacità che consentono a un’intelligenza artificiale di attaccare una rete hanno un valore inestimabile per difenderla.

La divulgazione arriva pochi mesi dopo che la stessa Anthropic ha lanciato un nuovo quadro di sicurezza per gli agenti di intelligenza artificiale, evidenziando la sfida di far rispettare tali principi contro determinati avversari. La rapida innovazione nell’IA offensiva sembra superare la capacità del settore di adattare le proprie difese.

Gli esperti di sicurezza sottolineano che gli agenti IA difensivi sono già stati implementati nei Security Operations Center (SOC). Piattaforme come Cortex AgentiX di Palo Alto Network sono progettate per automatizzare il rilevamento e la risposta alle minacce, contribuendo a contrastare la carenza globale di competenze in materia di sicurezza informatica.

La stessa Anthropic ha utilizzato Claude per analizzare i dati durante le sue indagini, dimostrando l’utilità difensiva della tecnologia. L’azienda chiede ora un’adozione accelerata di strumenti difensivi basati sull’intelligenza artificiale.”Se non consentiamo ai difensori di avere un vantaggio permanente molto sostanziale, temo che potremmo perdere questa gara”, ha avvertito Logan Graham, che guida il team di rischio catastrofico di Anthropic.

Una corsa tra l’IA offensiva e quella difensiva si sta chiaramente intensificando e l’incidente dimostra che il dibattito sul suo vero potenziale è lungi dall’essere risolto.

Categories: IT Info