Microsoft të martën zbuloi Project IRE, një agjent i ri i AI që në mënyrë autonome inxhinierë të kundërt dhe klasifikon softuer me qëllim të keq. Masa përshkallëzon garën e armëve të sigurisë në internet AI, duke pozicionuar gjahtarin e malware të Microsoft kundër agjentit”Big Sleep”të Google, i cili përqendrohet në gjetjen e të metave të softuerit. Kjo lejon ekipet e sigurisë të shkallëzojnë mbrojtjet e tyre kundër sulmeve të sofistikuara, të drejtuara nga AI dhe i çlirojnë ekspertët njerëzorë të përqëndrohen në kërcënimet më kritike. Ndërsa Google gjuan për dobësitë në kod, Microsoft tani po synon vetë binarët me qëllim të keq. Standardi i Analizës së Malware
Microsoft thotë se sistemi i ri”automatizon atë që konsiderohet standardi i artë në klasifikimin e malware: Inxhinieri plotësisht e kundërt një skedar softuerësh pa asnjë të dhënë për origjinën ose qëllimin e tij”. Prototipi doli nga një ghidra dhe angr dhe . Kjo krijon një hartë logjike të rrugës së ekzekutimit të programit, duke formuar shtyllën kurrizore të modelit të kujtesës së AI. Secili rezultat ushqehet në një”zinxhir provash”, një shteg të detajuar, të dëgjueshëm që tregon se si sistemi arriti në përfundimin e tij. Kjo regjistër është thelbësore për
Kjo prirje nuk është e kufizuar vetëm në dy lojtarë. Po shfaqet një ekosistem në rritje i mjeteve të sigurisë së AI nga fillimet dhe firmat e krijuara. Gjigantët e tjerë të teknologjisë po ndërtojnë sisteme plotësuese. Meta, për shembull, njoftoi kohët e fundit AutoPatchBench për të vlerësuar se sa mirë AI mund të rregullojë automatikisht gabimet, së bashku me Llamafirewall, një mjet i krijuar për të parandaluar modelet e AI të gjenerojnë kodin e pasigurt në radhë të parë. Ndërkohë, mjete si Runsybil dhe Xbow janë gjithashtu duke bërë tituj, me Xbow kohët e fundit duke arritur një drejtues hakerone . Të njëjtat modele AI të përdorura për mbrojtje gjithashtu mund të përjetësojnë praktikat e pasigurta të kodimit. Hulumtimet e fundit akademike zbuluan se shumë LLM, të trajnuar në kodin publik nga GitHub, kanë mësuar të përsërisin gabimet e vjetra, një fenomen të quajtur problemin”LLM të helmuar”. Kjo krijon një cikël të mbrapshtë, ku mjetet që synojnë të ndërtojnë të ardhmen po trashëgojnë gabimet e së kaluarës. Ndërsa fletët e të dhënave të NTT të shënuara në një kontekst të lidhur,”mjetet e fragmentuara të sigurisë nuk mund të vazhdojnë me sulmet e automatizuara të sotme”. Kjo pasqyron një konsensus në rritje mbi nevojën për të shfrytëzuar AI për mbrojtje ndërsa zbutet potencialin e tij për keqpërdorim. Zhvillimi i agjentëve të specializuar si IRE dhe Big Sleep përfaqëson një front kritik në atë betejë. Një shqetësim kryesor i industrisë është”AI Slop”, një term për përmbytjen e raporteve të gabimeve me cilësi të ulët ose të parëndësishme të krijuara nga mjete të automatizuara. Ndërsa Vlad Ionescu, bashkëthemelues i fillimit të sigurisë së AI Runsybil, i tha TechCrunch,”Ky është problemi që njerëzit po kalojnë, a po marrim shumë gjëra që duken si ari, por në të vërtetë është vetëm mut.”Një zëdhënës i Google, Kimberly Samra, konfirmoi se”për të siguruar raporte me cilësi të lartë dhe vepruese, ne kemi një ekspert njerëzor në lak para raportimit, por çdo dobësi u gjet dhe riprodhohet nga agjenti i AI pa ndërhyrje njerëzore.” Microsoft i bën jehonë këtij ndjenje. Mike Walker, një menaxher i hulumtimit në Microsoft, shpjegoi se përvojat e hershme me projektin IRE treguan:”Ajo që mësuam nga ato raste është] se ne mund të përdorim pikat e forta plotësuese të njerëzve dhe AI për mbrojtje”. Gjurmët e hollësishme të provave të sistemit janë krijuar posaçërisht për të lehtësuar këtë bashkëpunim të makinerive njerëzore. Vizioni i fundit i kompanisë është të zbulojë malware roman direkt në memorje, duke shkallëzuar aftësitë e saj autonome për të mbrojtur miliarda pajisje në mënyrë më efektive.