Hunter Hunter Hunter, Big Sleep, Big Sleep, ka identifikuar me sukses dhe ka raportuar 20 dobësi të reja të sigurisë në softuer popullor me burim të hapur. Arritja ishte njoftoi Të hënën nga Heather Adkins, nënkryetari i Google i sigurisë. Biblioteka FFMPEG Media dhe Suite Redaktimi ImageMagick. Kjo shënon një moment historik të rëndësishëm për zbulimin e automatizuar të prekshmërisë.
Bashkëpunimi në vetvete është i rëndësishëm. Project Zero është ekipi i studiuesve të sigurisë së Google i njohur për gjetjen e dobësive me ndikim të lartë, ndërsa DeepMind është divizioni i tij i kërkimit të AI të flamurit. Kombinimi i mendjes së sigurisë fyese të Projektit Zero me aftësinë e AI të DeepMind jep gjumë të madh skajin e saj unik. Ndërsa Google konfirmoi një ekspert njerëzor rishikon secilin raport për të siguruar cilësi, zbulimi fillestar dhe riprodhimi i gabimeve u trajtua plotësisht nga AI pa ndërhyrje njerëzore. Udhëtimi i projektit filloi me një provë të dukshme të konceptit në nëntor 2024, kur Big Sleep zbuloi ndjeshmërinë e tij të parë ndonjëherë: një rrjedhë buffer pirg në motorin e të dhënave SQLite të kudogjendur. Aksionet u ngritën në mënyrë të konsiderueshme në korrik 2025, kur Google zbuloi se Big Sleep kishte neutralizuar në mënyrë proaktive një kërcënim të afërt. Kjo veprim sinjalizoi një zhvendosje kritike nga zbulimi i thjeshtë i gabimeve në parandalimin e kërcënimit aktiv, të udhëhequr nga inteligjenca. Ishte një garë kundër sulmuesve, dhe ai fitoi. Tracker , tregon se projekti tani po shkallëzon me sukses aftësitë e tij autonome të zbulimit. Zgjedhja e objektivave si FFMPEG dhe ImageMagick është strategjike, pasi të metat në këto biblioteka themelore mund të kenë një ndikim kaskadues në të gjithë ekosistemin e softuerit. Sipas një zëdhënësi të kompanisë, Kimberly Samra,”Për të siguruar raporte me cilësi të lartë dhe vepruese, ne kemi një ekspert njerëzor në lak para raportimit, por çdo dobësi u gjet dhe riprodhohet nga agjenti i AI pa ndërhyrje njerëzore.”Ky term i referohet përmbytjes së raporteve të gabimeve me cilësi të ulët, të halucinuar ose të parëndësishme të krijuara nga mjete të automatizuara, të cilat mund të mposhtin mirëmbajtësit vullnetarë të projekteve me burim të hapur. Si Vlad Ionescu, bashkëthemelues i fillimit të sigurisë së AI runsybil , i tha TechCrunch,”Ky është problemi që njerëzit po vrapojnë, a po marrim shumë sende që duket si ari, por është në të vërtetë vetëm crap.”Potenciali i teknologjisë kur menaxhohet siç duhet. Royal Hansen, Nënkryetari i Inxhinierisë së Google,
Rezultatet fillestare nga një shkallë e madhe e @google Big Sleep! Discovery.full Detajet Pasi të jenë rregulluar çështjet: https://t.co/9oiffoatb -Royal Hansen (@royalhansen) duke arritur një drejtues hakerone . Gjigantët e tjerë të teknologjisë po ndërtojnë sisteme plotësuese. Meta, për shembull, njoftoi kohët e fundit AutoPatchBench për të vlerësuar se sa mirë AI mund të rregullojë automatikisht gabimet, së bashku me Llamafirewall, një mjet i krijuar për të parandaluar modelet e AI të gjenerojnë kodin e pasigurt në radhë të parë. kjo risi është një shpatë me dy tehe. Të njëjtat modele AI të përdorura për mbrojtje gjithashtu mund të përjetësojnë praktikat e pasigurta të kodimit. Hulumtimet e fundit akademike zbuluan se shumë LLM, të trajnuar në kodin publik nga GitHub, kanë mësuar të përsërisin gabimet e vjetra, një fenomen i quajtur”Problemi i helmuar LLM”. Natyra me përdorim të dyfishtë të AI po detyron një evolucion të shpejtë në strategjitë mbrojtëse, pasi sulmet e drejtuara nga AI bëhen më të sofistikuara dhe masat tradicionale të sigurisë dëshmojnë të pamjaftueshme. Ndërsa fletët e të dhënave të NTT të shënuara në një kontekst të lidhur,”mjetet e fragmentuara të sigurisë nuk mund të vazhdojnë me sulmet e automatizuara të sotme”. Sfida për kompani si Google është të vazhdojnë avancimin e fuqisë mbrojtëse të AI ndërsa ndërtojnë roje për të zbutur rreziqet e reja që krijon.