Google ha svelato una significativa evoluzione nella sua sicurezza informatica guidata dall’IA, annunciando martedì che il suo grande agente di AI del sonno è avanzato oltre la semplice scoperta di bug per neutralizzare proattivamente una vulnerabilità critica del software sull’orlo di essere sfruttata. La notizia, rilasciata davanti alle conferenze Black Hat e Def Con, fa parte di una più ampia iniziativa per armare i difensori con nuovi strumenti di intelligenza artificiale e rafforzare la collaborazione del settore.

da Bug Hunter a Exploit Stopper: il nuovo milestone di Big Sleep

il risultato principale coinvolge “Big Sleep”, un agente AI sviluppato da Google DeepMind e gli hacker d’élite di Google Project Zero . In primo luogo in un settore rivendicato, Google afferma che il sonno grande, guidato dall’intelligenza delle minacce, identificato con successo Una vulnerabilità SQLite critica, CVE-2025-6965

Questa mossa segnali da un passaggio critico da un bug autonomo alla prevenzione della proiettiva. Il successo precedentemente riportato da parte dell’agente nel novembre 2024 ha comportato la ricerca del suo primo bug in SQLite, una scoperta notevole ma meno urgente che ha dimostrato il concetto. Il nuovo risultato sottolinea una capacità difensiva più mirata e guidata dall’intelligence.

La distinzione chiave è il contesto. La scoperta del 2024 era un difetto precedentemente sconosciuto trovato prima che fosse rilasciato. Il caso del 2025 prevedeva una vulnerabilità nota agli attori minacciati, rendendo l’intervento dell’intelligenza artificiale una corsa diretta contro gli aggressori. Questa evoluzione è un potenziale cambio di gioco per i team di sicurezza.

A differenza dei metodi tradizionali come fuzzing, Big Sleep usa LLMS per un’analisi profonda-gausa, . Google sta ora espandendo l’uso di Big Sleep per garantire i principali progetti open source e ha ha pubblicato un documento bianco sui suoi principi per costruire agenti di sicurezza . Arsenal for Black Hat e Def Con

Come parte dell’annuncio, Google avrà dimostrazione di nuovi strumenti di sicurezza AI nelle prossime conferenze del settore. At Black Hat USA, it will showcase agentic capabilities in Timesketch, its open-source forensics platform, now powered by the Modello SEC-GEMINI per automatizzare le indagini.

Questo aggiornamento mira a ridurre drasticamente i tempi di indagine, che consentono alle analisi più elevate di concentrarsi sugli ordini più alti La società fornirà anche uno sguardo dietro le quinte facciata (CTF) Evento in cui i partecipanti utilizzano un assistente di AI per affinare le loro abilità, dimostrando il potenziale di Ai come strumento collaborativo per la cybersicurezza Un fronte collaborativo contro le minacce alimentate dall’intelligenza artificiale

La strategia sottostante sembra essere di un’ampia collaborazione del settore pubblico e del settore pubblico. Google sta donando i dati dal suo sicuro ai framework (saif) a helf=”https://www.coalitionforsecureai.org”bersaglio=”_ blank”; In una chiara risposta a questa tendenza, aziende come NTT Data e Palo Alto Networks hanno anche lanciato piattaforme di difesa basate sull’intelligenza artificiale. Come ha osservato Sheetal Mehta di NTT Data,”Gli strumenti di sicurezza frammentati non possono tenere il passo con gli attacchi automatizzati di oggi.”

La Cyber Challenge (AIXCC) guidata dalla DARPA (AIXCC) è anche impostata per concludere a Def Con 33, evidenziando la spinta per i partner pubblici-privati nella difesa dell’AI. Ciò riflette un crescente consenso sulla necessità di sfruttare l’IA per la difesa mentre mitiga il suo potenziale per uso improprio.

Categories: IT Info