Google har avduket en betydelig utvikling i sin AI-drevne cybersecurity, og kunngjort tirsdag at dens store søvn AI-agent har avansert utover bare å oppdage feil for å proaktivt nøytralisere et kritisk programvaresårbarhet på grensen til å bli utnyttet.

Dette markerer en stor sprang for å bli en aktiv trussel. Nyheten, som er utgitt foran Black Hat og Def Conferanser, er en del av et bredere initiativ for å bevæpne forsvarere med nye AI-verktøy og styrke bransjesamarbeidet.

fra Bug Hunter til utnyttelse av stopper: Big Sleep’s New Milestone

Håndtaket involverer

href=”https://blog.google/technology/safety-scurity/cybersecurity-pdates-summer-2025/”Target=”_ blank”> ‘Big Sleep’, en AI-agent utviklet av Google DeepMind og Elite Hackers at Google Project Zero . I en påstått bransje først sier Google Big Sleep, ledet av trusselinformasjon, med hell identifisert en kritisk SQLite-sårbarhet, CVE-202-6655555555555. src=”https://winbuzzer.com/wp-content/uploads/2025/02/google-googleplex-building-headquarters-wiki-commons.jpg”>

Dette trekket signaliserer et kritisk skifte fra autonom bug-oppdagelse til proaktiv utnyttelse. Agentens tidligere rapporterte suksess i november 2024 innebar å finne sin første bug i SQLite, en bemerkelsesverdig, men mindre presserende oppdagelse som beviste konseptet. Den nye prestasjonen understreker en mer målrettet, intelligensledet defensiv evne.

Det viktigste skillet er konteksten. 2024-funnet var en tidligere ukjent feil som ble funnet før den ble utgitt. Saken i 2025 involverte en sårbarhet kjent for å true aktører, noe som gjorde AIs inngripen til et direkte løp mot angripere. Denne evolusjonen er en potensiell spillbytter for sikkerhetsteam.

I motsetning til tradisjonelle metoder som Fuzzing, bruker Big Sleep LLMS for dyp rot-årsakanalyse, . Google utvider nå Big Sleeps bruk for å sikre store open-source-prosjekter og har publisert en hvit papir på PRINSIPS for å bygge et trygt A-mål=”_ blank”>. AI Security Arsenal for Black Hat og Def Con

Som en del av kunngjøringen vil Google demo nye AI-sikkerhetsverktøy på kommende bransjekonferanser. At Black Hat USA, it will showcase agentic capabilities in Timesketch, its open-source forensics platform, now Drevet av SEC-Gemini-modellen for å automatisere undersøkelser.

Denne oppgraderingen tar sikte på å drastisk kutte ned undersøkelsestid, Facade, dets innsidende trussel-deteksjonssystem som har kjørt siden 2018 og bruker en unik kontraststemming.

Flagg (CTF)-hendelse der deltakerne bruker en AI-assistent for å finpusse ferdighetene sine,

En samarbeidsfront mot AI-drevne trusler

Den underliggende strategien ser ut til å være et av bred industri og offentlig sektor samarbeid. Google donerer data fra sin Secure AI Framework (SAIF) til acieaiai-målet for å tulle”> coalitionforseai. (Cosai) til Advance Shared Research on Agentic AI og Supply Chain Security .

Disse initiativene er innrammet som en nødvendig respons på den økende tidevannet av sofistikert, a-drevet cyber. I et tydelig svar på denne trenden har firmaer som NTT-data og Palo Alto-nettverk også lansert AI-drevne forsvarsplattformer. Som Sheetal Mehta av NTT-data bemerket,”Fragmenterte sikkerhetsverktøy kan ikke følge med i dagens automatiserte angrep.”

DARPA-ledede AI Cyber Challenge (AIXCC) er også innstilt på å konkludere på DEF Con 33, og fremhever presset for offentlig-private partnerskap i AI-forsvaret. Dette gjenspeiler en økende enighet om behovet for å utnytte AI for forsvar mens du reduserer potensialet for misbruk.

Categories: IT Info