OpenAI ha intrapreso un’azione decisiva contro le minacce informatiche sponsorizzate dallo stato, vietando più account collegati ad attori in Cina e Corea del Nord. In un rapporto sulle minacce pubblicato l’8 ottobre, la società ha rivelato che questi gruppi hanno utilizzato i suoi modelli di intelligenza artificiale per elaborare proposte di strumenti di sorveglianza, sviluppare campagne di phishing e assistere nella creazione di malware.

La mossa sottolinea un fronte crescente nella guerra fredda dell’IA, dove OpenAI sta lavorando attivamente per impedire che la sua tecnologia venga utilizzata come arma da regimi autoritari.

Mentre gli attori cercavano di migliorare le loro operazioni informatiche esistenti, OpenAI mantiene le sue misure di sicurezza che hanno bloccato con successo le richieste dirette di codice dannoso e che non sono state fornite nuove funzionalità.

Attori sostenuti dallo Stato sfruttano l’intelligenza artificiale per la sorveglianza e il phishing

Il il rapporto descrive in dettaglio un modello di abuso da parte di entità legate a governi autoritari. Attori collegati alla Cina sono stati sorpresi a utilizzare ChatGPT per progettare sistemi di monitoraggio dei social media su larga scala. Una proposta allarmante mirava a creare un”modello di avviso di afflusso correlato agli uiguri ad alto rischio”per monitorare i viaggi delle persone prese di mira.

Altri account collegati alla Cina hanno utilizzato l’intelligenza artificiale per la raccolta di intelligence open source, tentando di identificare i critici del governo e trovare le loro fonti di finanziamento. Secondo i risultati dell’azienda, questa attività rappresenta un chiaro tentativo di utilizzare tecnologie avanzate per la sorveglianza statale e la repressione del dissenso.

Nel frattempo, gli operatori nordcoreani si sono concentrati su tattiche di criminalità informatica più tradizionali. Hanno sfruttato ChatGPT per ricercare tecniche di phishing, furto di credenziali e sviluppo di malware, con un focus specifico su macOS di Apple. Le loro domande riguardavano il debug di codice dannoso e l’esplorazione di strategie di ingegneria sociale.

Una”zona grigia”di abusi: efficienza più che novità

L’indagine di OpenAI rivela una visione cruciale dello stato attuale della criminalità informatica assistita dall’intelligenza artificiale: gli attori statali non stanno sviluppando nuove superarmi. Invece, il rapporto sottolinea che gli autori delle minacce sono”integrando l’intelligenza artificiale nei flussi di lavoro esistenti, piuttosto che costruire nuovi flussi di lavoro attorno all’intelligenza artificiale.”

L’azienda non ha trovato prove che i suoi modelli fornissero agli aggressori nuove tattiche o capacità offensive che non potevano ottenere altrove.

Questo approccio spesso opera in quella che OpenAI chiama una”zona grigia”di attività a duplice uso. Una parte significativa dell’uso dannoso prevedeva attività apparentemente innocue come la traduzione di testo, la modifica di codice o la creazione di un sito Web.

Queste richieste diventano minacciose solo in base al contesto e alle intenzioni dell’utente, ponendo una complessa sfida di rilevamento.

Gli operatori di lingua coreana, ad esempio, hanno avanzato molte richieste che potrebbero coinvolgere applicazioni legittime come il debug di software o lo sviluppo di browser. Tuttavia, come sottolinea il rapporto, queste attività “assumono un significato diverso quando vengono riproposte da un attore criminale”. L’obiettivo non era l’invenzione ma l’accelerazione delle operazioni informatiche esistenti.

Allo stesso modo, il gruppo di phishing legato alla Cina ha utilizzato l’intelligenza artificiale per cercare di aumentare l’efficienza. Il vantaggio principale che hanno ottenuto è stato”la fluidità linguistica, la localizzazione e la persistenza”. Ciò si è tradotto nella generazione di email con meno errori linguistici, nella creazione di un”codice adesivo più veloce”e nell’apportare modifiche più rapide quando gli attacchi iniziali fallivano.

L’obiettivo finale era velocità e scalabilità. Per questi attori, il successo significava produrre e-mail di phishing pronte per l’invio e ottenere “cicli di iterazione ridotti per il codice di routine e l’automazione”. Questa attenzione al potenziamento delle tecniche commerciali tradizionali, piuttosto che alla creazione di nuove forme di attacco, è una scoperta chiave dell’indagine OpenAI.

Durante queste operazioni, OpenAI ha sottolineato che le sue misure di sicurezza sono costantemente rimaste salde contro le minacce dirette. Il rapporto afferma che i suoi modelli “rifiutavano costantemente richieste apertamente dannose”. Nel caso di uno sviluppatore di malware di lingua russa, il sistema ha negato espressamente le richieste dirette di exploit e keylogger.

Tuttavia, gli autori delle minacce si stanno adattando. Il rapporto evidenzia casi di “adattamento e offuscamento”, in cui gli utenti malintenzionati modificano il proprio comportamento per evitare di essere rilevati. Alcune reti di truffa, a conoscenza delle discussioni online sui modelli di testo generati dall’intelligenza artificiale, hanno specificamente incaricato il modello di rimuovere i trattini emme per rendere l’output più umano.

Questa dinamica illustra la sfida principale per le piattaforme AI. Secondo OpenAI. una difesa efficace richiede un”approccio articolato e informato che si concentri sui modelli di comportamento degli attori della minaccia piuttosto che sulle interazioni modello isolate”. Distinguere una query di codifica innocua da una volta a perfezionare il malware è la nuova prima linea nella sicurezza della piattaforma.

Categories: IT Info