Google lanserade en stor satsning på AI-driven cybersäkerhet i måndags, och tillkännagav tre nya initiativ för att automatisera digitalt försvar.

Huvudverktyget är CodeMender, en ny AI-agent som hittar och fixar programvarubuggar på egen hand.

För att få hjälp från säkerhetscommunityt har Google också startade ett nytt AI-bugbounty-program med belöningar upp till $30 000. Dessa ansträngningar är en del av Googles strategi att använda AI för att bekämpa cyberhot. Företaget släpper också ett uppdaterat Secure AI Framework.

Det här draget signalerar en betydande upptrappning av användningen av AI i defensiva syften. Det bygger på Googles tidigare arbete med verktyg som Big Sleep, en AI som nyligen förhindrade en verklig exploatering.

Den underliggande strategin är att skapa en avgörande fördel för försvarare.

CodeMender: An AI Agent for Autonomous Defense

Kenpunkten i meddelandet om kod är

href=”https://deepmind.google/discover/blog/introducing-codemender-an-ai-agent-for-code-security/”target=”_blank”>en autonom agent utformad för att korrigera sårbarheter i programvara.

Drift av Googles avancerade Gemini Deep Think-modeller kan den resonera genom komplex kod för att identifiera och åtgärda säkerhet brister.

CodeMender arbetar både reaktivt, korrigerar nya buggar och proaktivt, genom att skriva om kod för att eliminera hela klasser av sårbarheter.

Dess process inkluderar djup analys av rotorsaker och ett unikt självvalideringssystem som använder specialiserade”kritik”-agenter för att granska korrigeringar.

projekt.

I ett anmärkningsvärt fall tillämpade den säkerhetskommentarer på libwebp-biblioteket, en korrigering som kunde ha förhindrat en iOS-exploatering med noll klick från 2023.

A New Bug Bounty för att stimulera AI-säkerhetsforskning

För att stärka sina interna ansträngningar lanserar Google ett dedikerat AI Vulnerability Reward Program (VRP).

Programmet syftar till att uppmuntra den globala säkerhetsforskningsgemenskapen att hitta och rapportera högeffektiva brister i sina AI-produkter med högsta belöning

00.

Den nya VRP konsoliderar och förtydligar reglerna för rapportering av AI-relaterade problem. Det inkluderar uttryckligen säkerhetsmissbruk som snabba injektioner och dataexfiltrering.

Den utesluter dock problem relaterade till generering av skadligt innehåll, som Google uppmanar användare att rapportera via feedbackverktyg i produkten.

Detta formaliserar en insats som har redan betalat forskare över 430 000 USD för AI-relaterade buggar. Även om programmet är ett välkommet steg, menar vissa kritiker att den maximala utbetalningen kan vara för låg för att attrahera elitforskare för de mest komplexa AI-sårbarheterna.

Bygga ett proaktivt AI-försvars-ekosystem

Den tredje komponenten i Googles tillkännagivande är lanseringen av dess Secure AI Framework (SAIF).

new gu. på hantera riskerna från alltmer autonoma AI-agenter, ett växande problem i branschen.

Dessa initiativ är ett direkt svar på den stigande vågen av AI-drivna cyberattacker. Som företag som NTT DATA har noterat kämpar traditionella säkerhetsverktyg för att hålla jämna steg.

Sheetal Mehta från NTT DATA har tidigare sagt att”fragmenterade säkerhetsverktyg inte kan hålla jämna steg med dagens automatiserade attacker.”

Googles strategi är att bygga vidare på framgångarna från sina tidigare AI-säkerhetsprojekt. Dess Big Sleep-agent utvecklades till exempel från att upptäcka sin första bugg i SQLite i slutet av 2024 till att proaktivt neutralisera ett kritiskt hot innan det kunde utnyttjas i mitten av 2025.

Genom ramverk med öppen källa som SAIF och utveckla autonoma verktyg som CodeMender, strävar Google efter att säkra inte bara sina egna produkter utan det bredare programvarusystemet

. understryker företagets långsiktiga åtagande att tippa cybersäkerhetsbalansen till förmån för försvarare.

Categories: IT Info