Ang AI-powered Bug Hunter ng Google, Big Sleep, ay matagumpay na nakilala at naiulat ang 20 bagong mga kahinaan sa seguridad sa sikat na open-source software. Ang nakamit ay inihayag Noong Lunes ni Heather Adkins, ang vice president ng security ng Google. FFMPEG Media Library at ang ImageMagick Editing Suite. Ito ay nagmamarka ng isang makabuluhang milyahe para sa awtomatikong pagtuklas ng kahinaan.
Ang pakikipagtulungan mismo ay kapansin-pansin. Ang Project Zero ay ang koponan ng mga mananaliksik ng seguridad ng Google na kilala sa paghahanap ng mga kahinaan sa mataas na epekto, habang ang DeepMind ay ang dibisyon ng pananaliksik ng AI. Ang pagsasama-sama ng Project Zero’s Offensive Security Mindset kasama ang DeepMind’s AI Prowess ay nagbibigay ng malaking pagtulog sa natatanging gilid nito. Habang kinumpirma ng Google ang isang dalubhasa sa tao na suriin ang bawat ulat upang matiyak ang kalidad, ang paunang pagtuklas at pagpaparami ng mga bug ay ganap na hawakan ng AI nang walang interbensyon ng tao. Ang paglalakbay ng proyekto ay nagsimula sa isang kilalang patunay-ng-konsepto noong Nobyembre 2024, nang ang malaking pagtulog ay walang takip ang kauna-unahan nitong kahinaan: isang stack buffer underflow sa ubiquitous SQLite database engine. Ang mga pusta ay nakataas nang malaki noong Hulyo 2025, nang isiniwalat ng Google ang malaking pagtulog ay aktibong neutralisahin ang isang napipintong banta. Ang hakbang na ito ay nag-sign ng isang kritikal na paglipat mula sa simpleng pagtuklas ng bug sa aktibo, pag-iwas sa pagbabanta na pinangunahan ng intelihensiya. Ito ay isang lahi laban sa mga umaatake, at ang AI ay nanalo. Ang Tracker , ay nagpapakita ng proyekto na ngayon ay matagumpay na na-scaling ang mga autonomous na kakayahan sa pagtuklas. Ang pagpili ng mga target tulad ng FFMPEG at ImageMagick ay madiskarteng, dahil ang mga flaws sa mga aklatan na ito ay maaaring magkaroon ng isang epekto ng cascading sa buong ekosistema ng software. Ayon sa isang tagapagsalita ng kumpanya, si Kimberly Samra,”Upang matiyak ang mataas na kalidad at aksyon na ulat, mayroon kaming isang dalubhasa sa tao sa loop bago mag-ulat, ngunit ang bawat kahinaan ay natagpuan at muling ginawa ng ahente ng AI na walang interbensyon ng tao.”Ang terminong ito ay tumutukoy sa baha ng mababang kalidad, guni-guni, o hindi nauugnay na mga ulat ng bug na nabuo ng mga awtomatikong tool, na maaaring mapuspos ang mga boluntaryong tagapangalaga ng mga open-source na proyekto. Bilang vlad ionescu, co-founder ng ai security startup runsybil , sinabi sa techcrunch,”iyon ang problema na ang mga tao ay tumatakbo, nakakakuha ba tayo ng maraming bagay na parang ginto, ngunit ang mga ito ay talagang crap. Ang potensyal ng teknolohiya kapag maayos na pinamamahalaan. Royal Hansen, Bise Presidente ng Engineering ng Google, ipinagdiwang ang mga natuklasan sa x Bilang”isang bagong frontier sa automated na kahinaan,”iminumungkahi ang mga benepisyo ng mataas na research ai na higit na nag-aalsa na mas malaki ang pananaliksik na mas malaki ang pananaliksik na mas malaki ang pag-aaral na mas malaki ang pag-aaral na mas malaki ang pag-aaral sa ai. mga hamon. Discovery.full Mga Detalye Kapag naayos ang mga isyu: https://t.co/9oiaffoatb
-Royal hansen (@Royalhansen) Agosto 4, 2025 Cybersecurity Hindi lamang ito ang awtomatikong bug hunter sa bukid; Ang mga tool tulad ng Runsybil at Xbow ay gumagawa din ng mga headlines, kasama ang XBow kamakailan Ang topping ng isang hackerone leaderboard . Ang iba pang mga higanteng tech ay nagtatayo ng mga pantulong na sistema. Halimbawa, inihayag ni Meta ang AutopatchBench upang masuri kung gaano kahusay ang awtomatikong ayusin ng AI ang mga bug, sa tabi ng LlamafireWall, isang tool na idinisenyo upang maiwasan ang mga modelo ng AI mula sa pagbuo ng insecure code sa unang lugar.
Ang makabagong ito ay isang dobleng talim na tabak. Ang parehong mga modelo ng AI na ginamit para sa pagtatanggol ay maaari ring magpapatuloy ng mga kasanayan sa pag-coding ng insecure. Ang kamakailang pananaliksik sa akademiko ay nagsiwalat na maraming mga LLM, na sinanay sa pampublikong code mula sa GitHub, ay natutunan na magtiklop ng mga lumang bug, isang kababalaghan na tinawag na”Poisoned LLM”na problema. Ang dalawahan na paggamit ng AI ay pinipilit ang isang mabilis na ebolusyon sa mga diskarte sa pagtatanggol, dahil ang mga pag-atake na hinihimok ng AI ay nagiging mas sopistikado at ang tradisyunal na mga hakbang sa seguridad ay nagpapatunay na hindi sapat. Tulad ng nabanggit ng Sheetal Mehta ng data ng NTT sa isang kaugnay na konteksto,”ang mga fragment na tool sa seguridad ay hindi maaaring mapanatili ang mga awtomatikong pag-atake ngayon.”Ang hamon para sa mga kumpanya tulad ng Google ay upang magpatuloy sa pagsulong ng nagtatanggol na kapangyarihan ng AI habang itinatayo ang mga guardrail upang mapagaan ang mga bagong panganib na nilikha nito.