Google zaprezentowało znaczącą ewolucję w zakresie cyberbezpieczeństwa napędzanego przez AI, ogłaszając we wtorek, że jego agent AI Big Sleep awansował poza odkrywanie błędów, aby proaktywnie neutralizować krytyczną podatność na oprogramowanie na krawędzi wykorzystywania.
oznacza to poważne skok od początkowego wykluczenia błędów w 2024 r., Reprezentując to, co nazywa Google, ponieważ najpierw zagrożenie w folii. Wiadomości, wydane przed konferencjami Black Hat and Def Con, jest częścią szerszej inicjatywy, aby uzbrojenie obrońców za pomocą nowych narzędzi AI i wzmocnienia współpracy branżowej.
Od Huntera Bug Huntera do wykorzystania Stoppera: Nowy kamień milowy Big Sleep
Osiągnięcie głębi obejmuje powiadomienie. href=”https://blog.google/technology/safety-security/cybersecurity-pdates-summer-2025/”target=”_ blank”> „big sleep”, agent AI opracowany przez Google Deepmind i elitarnych hakerów w Google Project Zero . Najpierw w domniemanej branży Google mówi, że Big Sleep, kierowany przez inteligencję zagrożenia, z powodzeniem zidentyfikowano krytyczna podatność na sqlite, cve-2025-6965 , to było dochodowe, aby być zaczepami Wykorzystane.
Ten ruch sygnalizuje krytyczne przesunięcie z autonomicznego wykrycia błędów do proaktywnego exactiit. Wcześniej odnotowane sukcesy agenta w listopadzie 2024 r. Polegało na znalezieniu pierwszego błędu w SQLite, co jest godne uwagi, ale mniej pilne odkrycie, które udowodniło tę koncepcję. Nowe osiągnięcie podkreśla bardziej ukierunkowane zdolności obronne kierowane przez inteligencję.
Kluczowym rozróżnieniem jest kontekst. Znalezienie 2024 było wcześniej nieznaną wadą znalezioną przed jego wydaniem. Sprawa 2025 obejmowała podatność znaną podmiotom zagrożeniowym, co czyni interwencję AI bezpośrednim wyścigiem przeciwko atakującym. Ta ewolucja jest potencjalnym zmieniaczem gry zespołów bezpieczeństwa.
W przeciwieństwie do tradycyjnych metod, takich jak Fuzzing, Big Sleep używa LLM do analizy głębokiej przyczyny, opublikował białą pracę na temat swoich zasad budowlanych safele ai Agents . Arsenal dla Black Hat and Def Con
W ramach ogłoszenia Google zdejmie nowe narzędzia bezpieczeństwa AI na nadchodzących konferencjach branżowych. W Black Hat USA będzie prezentuje zdolności agentne. Model SEC-GEMINI do automatyzacji badań.
Ta aktualizacja ma na celu drastyczne skrócenie czasu dochodzenia, pozwalając na analityki na wyższych zagrożeniach fasada, jego system wykrywania zagrożenia poufnego, który będzie działał od 2018 r. i używa unikalnego podejścia do uczenia się. (CTF) Wydarzenie, w którym uczestnicy używają asystenta AI do doskonalenia swoich umiejętności, Pokazanie potencjału AI jako narzędzia do kolaboracyjnego dla Cybersecurity .
Wspólny front z zagrożeniami napędzanymi AI
Podstawową strategią wydaje się być jedną z szerokiej współpracy branżowej i publicznej. Google przekazuje dane z jego bezpieczne frameworka ai (saif) na do z góry współużytkowane badania nad agentami AI i bezpieczeństwa łańcucha dostaw .
Te inicjatywy są sformułowane jako niezbędna reakcja na rosnącą fmarę wyrafinowanych, opartych na AIBATACTACKS. W wyraźnej odpowiedzi na ten trend firmy takie jak NTT Data i Palo Alto Networks wprowadzają również platformy obronne napędzane sztuczną inteligencją. Jak zauważył arkusz danych NTT, „rozdrobnione narzędzia bezpieczeństwa nie mogą nadążyć za dzisiejszymi zautomatyzowanymi atakami.”
pod przewodnictwem DARPA AI Cyber Challenge (AIXCC) jest również zakończone na Def Con 33, podkreślając nacisk na partnerstwo publiczne w zakresie obrony AI. Odzwierciedla to rosnący konsensus co do potrzeby wykorzystania AI w celu obrony, jednocześnie łagodząc jej potencjał niewłaściwego użycia.