Google ha lanciato una grande spinta nella sicurezza informatica basata sull’intelligenza artificiale lunedì, annunciando tre nuove iniziative per automatizzare la difesa digitale.

Lo strumento principale è CodeMender, un nuovo agente AI che trova e fissa i bug del software da solo.

Per ottenere aiuto dalla comunità della sicurezza, anche Google ha avviato un nuovo programma di bounti di bug AI con ricompense fino a $ 30.000 . Questi sforzi fanno parte della strategia di Google per utilizzare l’IA per combattere le minacce informatiche. The company is also releasing an updated Secure AI Framework.

Questa mossa segnala una significativa escalation nell’uso dell’intelligenza artificiale per scopi difensivi. Si basa sul precedente lavoro di Google con strumenti come Big Sleep, un’intelligenza artificiale che ha recentemente impedito un exploit del mondo reale.

La strategia sottostante è quella di creare un vantaggio decisivo per i difensori.

codemender: un agente AI per la difesa autonoma

href=”https://deepmind.google/discover/blog/introducing-codemender-an-agent-for-code-security/”target=”_ blank”> Un agente autonomo per identificare e correggere la sicurezza del software .

alimentato da Google GEMINI DEEP Model I difetti.

CodeMender operano sia in modo reattivo, patching di nuovi bug e in modo proattivo, riscrivendo il codice per eliminare intere classi di vulnerabilità.

Il suo processo include un’analisi di sicurezza radico Progetti.

In un caso notevole, ha applicato annotazioni di sicurezza alla libreria libwebp, una soluzione che avrebbe potuto prevenire uno zero-click ios da 2023 .

Un nuovo bug taglie per incentivare la ricerca sulla sicurezza dell’IA

Per rafforzare i suoi sforzi interni, Google sta lanciando un programma di ricompensa di vulnerabilità di intelligenza artificiale dedicata (VRP).

Il programma mira a incentivare incentivi

Il nuovo VRP consolida e chiarisce le regole per la segnalazione di problemi relativi all’intelligenza artificiale. Include esplicitamente exploit di sicurezza come iniezioni tempestive e esfiltrazioni di dati.

Tuttavia, esclude i problemi relativi alla generazione di contenuti dannosi, che Google indirizza gli utenti a segnalare tramite strumenti di feedback in-prodotti. href=”https://blog.google/technology/safety-security/ai-security-frontier-strategy-tools/”target=”_ blank”> ha già pagato ricercatori oltre $ 430.000 per bug correlati all’IA . Mentre il programma è un passo gradito, alcuni critici suggeriscono che il massimo pagamento potrebbe essere troppo basso per attirare ricercatori d’élite per le vulnerabilità dell’IA più complesse.

Costruire un ecosistema di difesa AI proattivo

Il terzo componente di Google è stato aggiornato su GEGED AGGIUNDERE AGGIORNAMENTE AGGIORNAMENTO AGGIORNAMENTO AGGIORNAMENTO SAIF. I rischi rappresentati da agenti di intelligenza artificiale sempre più autonomi, una crescente preoccupazione in tutto il settore.

Queste iniziative sono una risposta diretta alla crescente marea di attacchi informatici guidati dall’IA. Come hanno notato aziende come NTT Data, gli strumenti di sicurezza tradizionali stanno lottando per tenere il passo.

Sheetal Mehta di dati NTT ha precedentemente affermato che”gli strumenti di sicurezza frammentati non possono tenere il passo con gli attacchi automatizzati di oggi.

La strategia di Google è quella di costruire sui successi dei suoi precedenti progetti di sicurezza AI. Il suo grande agente del sonno, ad esempio, si è evoluto dalla scoperta del suo primo bug in SQLite alla fine del 2024 per neutralizzare proattivamente una minaccia critica prima che potesse essere sfruttata a metà del 2025.

da frameworks aurnocchiali come SAIF e sviluppare strumenti autonomi come Codemender, Google mira a garantire non solo i suoi prodotti ma gli ambienti di software. sottolinea l’impegno a lungo termine dell’azienda a ribaltare l’equilibrio della sicurezza informatica a favore dei difensori.

Categories: IT Info