Microsoft noong Martes ay nagsiwalat ng Project IRE, isang bagong ahente ng AI na awtonomously reverse-engineers at inuri ang nakakahamak na software. Ang paglipat ay tumataas sa lahi ng AI Cybersecurity Arms, na nagpoposisyon sa Microsoft’s Malware Hunter laban sa”Big Sleep”ahente ng Google, na nakatuon sa paghahanap ng mga flaws ng software. Pinapayagan nito ang mga pangkat ng seguridad na masukat ang kanilang mga panlaban laban sa sopistikadong, pag-atake ng AI-driven at pinalaya ang mga dalubhasa sa tao na tumuon sa mga pinaka-kritikal na banta. Habang ang Google ay nangangaso para sa mga kahinaan sa code, target na ngayon ng Microsoft ang mga nakakahamak na binaries mismo. Pamantayan ng Pagtatasa ng Malware Ang prototype ay lumitaw mula sa isang pakikipagtulungan sa pagitan ng microsoft research, microsoft defender research, at microsoft discover kadalubhasaan. Pinapayagan ito ng arkitektura nito na mangatuwiran sa maraming mga antas, mula sa mababang antas ng pagsusuri ng binary hanggang sa mataas na antas ng interpretasyon ng pag-uugali ng code, na nakikilala ito mula sa mga tool na tumutugma lamang sa mga pattern. Mula roon, muling binubuo ng system ang control graph ng software gamit ang open-source frameworks tulad ng ghidra at angr . Lumilikha ito ng isang lohikal na mapa ng landas ng pagpapatupad ng programa, na bumubuo ng gulugod ng modelo ng memorya ng AI. Ang bawat resulta ay nagpapakain sa isang”kadena ng katibayan,”isang detalyado, naririnig na ruta na nagpapakita kung paano naabot ng system ang konklusyon nito. Ang log na ito ay mahalaga para sa
Ang kalakaran na ito ay hindi limitado sa dalawang manlalaro lamang. Ang isang lumalagong ekosistema ng mga tool sa seguridad ng AI mula sa mga startup at ang mga itinatag na kumpanya ay umuusbong. Ang iba pang mga higanteng tech ay nagtatayo ng mga pantulong na sistema. Halimbawa, inihayag ng Meta kamakailan ang AutopatchBench upang masuri kung gaano kahusay ang awtomatikong ayusin ng AI ang mga bug, kasama ang LlamafireWall, isang tool na idinisenyo upang maiwasan ang mga modelo ng AI mula sa pagbuo ng insecure code sa unang lugar. Samantala, ang mga tool tulad ng Runsybil at Xbow ay gumagawa din ng mga headline, kasama ang XBow kamakailan topping isang hackerone leaderboard . Ang parehong mga modelo ng AI na ginamit para sa pagtatanggol ay maaari ring magpapatuloy ng mga kasanayan sa pag-coding ng insecure. Ang kamakailang pananaliksik sa akademiko ay nagsiwalat na maraming mga LLM, na sinanay sa pampublikong code mula sa GitHub, ay natutunan na magtiklop ng mga lumang bug, isang kababalaghan na tinawag na”Poisoned LLM”na problema. Lumilikha ito ng isang mabisyo na siklo kung saan ang mga tool na nilalayon upang mabuo ang hinaharap ay nagmana ng mga pagkakamali ng nakaraan. Tulad ng nabanggit ng Sheetal Mehta ng data ng NTT sa isang kaugnay na konteksto,”ang mga fragment na tool sa seguridad ay hindi maaaring mapanatili ang mga awtomatikong pag-atake ngayon.”Sinasalamin nito ang isang lumalagong pagsang-ayon sa pangangailangan na magamit ang AI para sa pagtatanggol habang pinapagaan ang potensyal nito para sa maling paggamit. Ang pag-unlad ng mga dalubhasang ahente tulad ng IRE at Big Sleep ay kumakatawan sa isang kritikal na harapan sa labanan na iyon. Ang isang pangunahing pag-aalala sa industriya ay ang”AI Slop,”isang termino para sa baha ng mababang kalidad o hindi nauugnay na mga ulat ng bug na nabuo ng mga awtomatikong tool. Tulad ng Vlad Ionescu, co-founder ng AI Security Startup Runsybil, sinabi sa TechCrunch,”Iyon ang problema na tumatakbo ang mga tao, nakakakuha ba tayo ng maraming bagay na mukhang ginto, ngunit talagang crap lamang ito.”Ang isang tagapagsalita ng Google na si Kimberly Samra, ay nakumpirma na”upang matiyak ang mataas na kalidad at maaaring kumilos na mga ulat, mayroon kaming isang dalubhasa sa tao sa loop bago mag-ulat, ngunit ang bawat kahinaan ay natagpuan at muling ginawa ng ahente ng AI na walang interbensyon ng tao.”Si Mike Walker, isang tagapamahala ng pananaliksik sa Microsoft, ay ipinaliwanag na ang mga maagang karanasan sa Project IRE ay nagpakita ng”[kung ano ang natutunan mula sa mga pagkakataong iyon ay] maaari nating magamit ang mga pantulong na lakas ng parehong tao at AI para sa proteksyon.”Ang detalyadong ebidensya ng system ng system ay partikular na idinisenyo upang mapadali ang pakikipagtulungan ng tao-machine na ito. Ang pangwakas na pangitain ng kumpanya ay upang makita ang nobelang malware nang direkta sa memorya, na nasusukat ang mga autonomous na kakayahan upang maprotektahan ang bilyun-bilyong mga aparato nang mas epektibo.
Categories: IT Info