Google rozpoczął w poniedziałek duży nacisk na cyberbezpieczeństwo związane z AI, ogłaszając trzy nowe inicjatywy w celu automatyzacji obrony cyfrowej.
Głównym narzędziem jest CODEMEND, nowy agent AI, który sam znajduje i naprawia błędy oprogramowania.
Aby uzyskać pomoc od społeczności bezpieczeństwa, Google również Rozpoczął nowy program nagrody AI z nagrodami z nagrodami do 30 000 $ . Te wysiłki są częścią strategii Google, aby wykorzystać sztuczną inteligencję do zwalczania cyberprzestępstw. Firma jest również uwalniając zaktualizowane bezpieczne framework ai .
Codemender: AI Agent dla autonomicznej obrony
href=”https:> Autonomiczny agent zaprojektowany do etykiet w zabezpieczeniach oprogramowania .
zasilane przez zaawansowane Kły wady.
Codemender działa zarówno reaktywnie, łatwiejnie, i proaktywnie, przepisując kod kodu w celu wyeliminowania całej klasy luk.
Jego proces obejmuje głęboką analizę przyczyny korzeniowej, a unikalny system własnej walidacji przy użyciu specjalistycznych „krytyków” agentów do przeglądu poprawek.
. Projekty.
W jednym znaczącym przypadku zastosował adnotacje bezpieczeństwa do biblioteki Libwebp, poprawka, która może zapobiec exploitowi zero-click iOS.
Nowa nagroda z Bug w celu zachęcenia badań bezpieczeństwa AI
Aby wzmocnić swoje wewnętrzne wysiłki, Google uruchamia dedykowane programy nagrody dla sztucznej inteligencji (VRP).
Program ma na celu zachęcenie globalnej społeczności badań bezpieczeństwa, aby znaleźć i zgłaszać wysokie klawisze w zakresie produktów AI, dzięki 30 000 USD.
Nowy VRP konsoliduje i wyjaśnia zasady zgłaszania problemów związanych z AI. It explicitly includes security exploits like prompt injections and data exfiltration.
However, it excludes issues related to harmful content generation, which Google directs users to report via in-product feedback tools.
This formalizes an effort that has już zapłaciło badaczom ponad 430 000 $ za błędy związane z AI . Chociaż program jest mile widzianym krokiem, niektórzy krytycy sugerują, że maksymalna wypłata może być zbyt niska, aby przyciągnąć elitarnych badaczy dla najbardziej złożonych luk w zabezpieczeniach AI.
Budowanie proaktywnego ekosystemu obrony AI
Trzecim elementem ogłoszenia Google jest wydanie jego bezpiecznych ram AI (SAIF) 2.0. Ryzyko stwarzane przez coraz bardziej autonomicznych agentów AI, rosnące obawy w branży.
Inicjatywy te są bezpośrednią reakcją na rosnącą falę cyberataków napędzanych przez AI. Jak zauważyły firmy takie jak dane NTT, tradycyjne narzędzia bezpieczeństwa starają się dotrzymać tempa.
Arkusz Mehta danych NTT wcześniej stwierdzono, że „fragmentowane narzędzia bezpieczeństwa nie mogą nadążyć za dzisiejszymi zautomatyzowanymi atakami.”
Strategia Google polega na budowaniu sukcesów z wcześniejszych projektów bezpieczeństwa AI. Na przykład jego wielki agent snu wyewoluował od odkrycia swojego pierwszego błędu w SQLite pod koniec 2024 r., Aby proaktywnie neutralizacja krytycznego zagrożenia, zanim będzie mógł zostać wykorzystany w połowie 20125 r..
przez frameworki open sourcing, takie jak SAIF, i opracowywanie autonomicznych narzędzi, takich jak CodeMender, Google cele, aby zabezpieczyć nie tylko własne produkty, ale szersze oprogramowanie ecosystem. Długoterminowe zaangażowanie firmy w przechylenie bilansu cyberbezpieczeństwa na korzyść obrońców.