Microsoft paljasti tiistaina Project IRE: n, uuden AI-agentin, joka itsenäisesti käänteisesti suunnittelijat ja luokittelee haitalliset ohjelmistot. Muutto kärjistyy AI-kyberturvallisuusryhmäkilpailua ja sijoittaa Microsoftin haittaohjelmien metsästäjä Googlen”Big Sleep”-agentin kanssa, joka keskittyy Microsoftin tutkimus-ja tietoturvatiimien kehittämään ohjelmistovirheiden löytämiseen.
Projektin IRE: n tavoitteena on automatisoida Malware-analyysin monimutkainen työ. Tämän avulla turvallisuusryhmät voivat skaalata puolustuksensa hienostuneilta, AI-ohjaamilta hyökkäyksiltä ja vapauttaa ihmisen asiantuntijoita keskittymään kriittisimpiin uhkiin.
Ilmoitus korostaa strategista eroavuutta siitä, kuinka tekniset jättiläiset asettavat AI: n puolustukseen. Vaikka Google metsästää koodin haavoittuvuuksia, Microsoft on nyt suunnattu itse haitallisille binaareille.
Microsoft sanoo, että uusi järjestelmä “automatisoi haittaohjelmien luokituksen kultastandardin: Ohjelmistotiedoston kokonaan kääntäminen ilman vihjeitä sen alkuperästä tai tarkoituksesta”. Prototyyppi syntyi yhteistyö Microsoft Researchin, Microsoft Defender-tutkimuksen ja Microsoft Discong & Quantum
Analyysiprosessi alkaa triaatiolla, jossa automatisoidut työkalut tunnistavat tiedostotyypin ja rakenteen. Sieltä järjestelmä rekonstruoi ohjelmiston ohjausvirtakaavion käyttämällä avoimen lähdekoodin kehyksiä, kuten ghidra ja Angr . Tämä luo loogisen kartan ohjelman suorituspolusta muodostaen AI: n muistimallin selkärangan. Jokainen tulos syöttää “todistusketjun” yksityiskohtainen, tarkistettava polku, joka osoittaa, kuinka järjestelmä päätti päätelmänsä. Tämä loki on ratkaisevan tärkeä ihmisen arvostelu ja järjestelmän tarkennus . Risti tarkistaa väitteensä Microsoftin omien haittaohjelmien insinöörien asiantuntija-lausuntojen tietokantaa vastaan. Yhdessä tapauksessa se oli ensimmäinen Microsoftin tai koneen-koneen-kirjoittaja, joka oli riittävän vahva automaattisen lohkon käynnistämiseksi yksin.
varhaisissa testeissä julkisissa Windows-ohjaimissa järjestelmä oli erittäin tarkka, saavuttaen 98%: n tarkkuuden ja liputtaen turvallisia tiedostoja vain 2% tapauksista. Tämä matala väärän positiivinen korko viittaa selkeään potentiaaliin käyttöönottotoiminnoissa.
Kun testataan lähes 4000 “kovan kohteen” tiedostoa, jotka olivat kompastelleet muita automatisoituja järjestelmiä, se saavutti 89% tarkkuuden ja 26%: n palautuksen, 4%: n väärän positiivisen koron ollessa. Vaikka muistaminen oli kohtuullista, sen tarkkuus näissä vaikeissa tapauksissa korostaa sen mahdollisuuksia lisätä ihmisen analyysiä.
Kyberturvallisuus
Project IRE: n debyytin AI-asekilpailu saapuu laajemman, tehostavan kilpailun keskellä AI-ohjauksessa. Sen keskittyminen haittaohjelmien luokitteluun on ristiriidassa Googlen Project Big Sleep-sovelluksen kanssa, joka on äskettäin kiinnittänyt huomiota autonomisesti löytämään 20 uutta haavoittuvuutta laajalti käytetyissä avoimen lähdekoodin ohjelmistoissa, kuten FFMPEG ja ImageMagick. Projekti osoitti ensin potentiaalinsa vuoden 2024 lopulla paljastamalla virhe SQLite-tietokantamoottorissa. Panokset nostettiin huomattavasti heinäkuussa 2025, kun Google paljasti, että Big Sleep oli ennakoivasti neutraloinut välittömän uhan, CVE-2015-6965, suorassa kilpailussa hyökkääjiä vastaan. Googlen tekniikan varapuheenjohtaja Royal Hansen juhli havaintoja”uudena rajan automatisoidussa haavoittuvuudessa.”
Tämä suuntaus ei rajoitu vain kahteen pelaajaan. Startup-yritysten ja vakiintuneiden yritysten kasvava ekosysteemi on syntymässä. Muut tekniset jättiläiset rakentavat täydentäviä järjestelmiä. Esimerkiksi Meta ilmoitti äskettäin AutoPatchBenchin arvioidakseen, kuinka hyvin AI pystyy automaattisesti korjaamaan virheitä LLAMAFIREWALLin rinnalla, työkalu, joka on suunniteltu estämään AI-malleja luomasta epävarmaa koodia. Samaan aikaan myös Runsybilin ja Xbowin kaltaiset työkalut tekevät otsikoita. Xbow on äskettäin Hackerone-tulostaulu . Samat puolustusmallit voivat myös jatkaa epävarmia koodauskäytäntöjä. Viimeaikainen akateeminen tutkimus paljasti, että monet GitHubin julkisen koodin koulutetut LLM: t ovat oppineet toistamaan vanhoja virheitä, ilmiötä, jota kutsutaan “myrkytettyksi LLM”-ongelmaksi. Tämä luo ilkeän syklin, jossa tulevaisuuden rakentamiseen tarkoitetut työkalut perivät menneisyyden virheitä.
AI: n kaksikäyttöinen luonne pakottaa nopean kehityksen puolustusstrategioissa, kun AI-pohjaiset hyökkäykset muuttuvat hienostuneemmiksi. Kuten NTT-tietojen Sheetal Mehta, joka on merkitty liittyvässä yhteydessä,”hajanaiset turvatyökalut eivät voi pysyä nykypäivän automatisoitujen hyökkäysten kanssa”. Tämä heijastaa kasvavaa yksimielisyyttä tarpeesta valjastaa AI puolustukseen samalla, kun se lieventää sen väärinkäyttömahdollisuuksia.
, kuten Microsoftin Brad Smith totesi aiemmin:”Tavoitteenamme on oltava AI: n pitäminen etenevänä puolustusvälineenä nopeammin kuin se etenee hyökkäävänä aseena.”Erikoistuneiden agenttien, kuten IRE: n ja Big Sleep, kehitys edustaa kriittistä rintamaa kyseisessä taistelussa.
Automaation tasapainottaminen ihmisen asiantuntemuksella
, kun automaatio lupaa auttaa hukkua turvallisuusryhmiä, se myös luo uusia haasteita. Avainteollisuuden huolenaihe on “AI SLOP”, termi automatisoitujen työkalujen tuottamien heikkolaatuisten tai merkityksettömien virheiden tulvalle. Kuten AI Security Startup Runsybilin perustaja Vlad Ionescu kertoi TechCrunchille:”Se on ongelma, johon ihmiset törmäävät, onko meillä paljon tavaraa, joka näyttää kultaiselta, mutta se on oikeastaan vain paskaa.”Googlen tiedottaja Kimberly Samra vahvisti, että “korkealaatuisten ja toimivia raporttien varmistamiseksi meillä on ihmisen asiantuntija silmukassa ennen raportointia, mutta AI-agentti löysi ja toisti jokaisen haavoittuvuuden ilman ihmisen puuttumista.”
Microsoft toistaa tämän tunteen. Microsoftin tutkimuspäällikkö Mike Walker selitti, että varhaiset kokemukset Project IRE: n kanssa osoittivat:”[Se, mitä olemme oppineet näistä tapauksista, on], että voimme hyödyntää sekä ihmisten että AI: n täydentäviä vahvuuksia suojaamiseksi”. Järjestelmän yksityiskohtainen näyttöpolku on suunniteltu erityisesti tämän ihmisen koneen yhteistyön helpottamiseksi. Yrityksen lopullinen visio on havaita uusia haittaohjelmia suoraan muistissa, skaalaamalla sen itsenäiset ominaisuudet suojatakseen miljardeja laitteita tehokkaammin.