Microsoft avslørte tirsdag Project IRE, en ny AI-agent som autonomt omvendte ingeniører og klassifiserer ondsinnet programvare. Flyttingen eskalerer AI Cybersecurity Arms Race, og posisjonerer Microsofts malwarejeger mot Googles”Big Sleep”-agent, som fokuserer på å finne programvarefeil.
Utviklet av Microsofts forsknings-og sikkerhetsteam, har Project IRE som mål å automatisere det komplekse arbeidet med malware-analyse. Dette gjør at sikkerhetsteamene kan skalere forsvaret mot sofistikerte, AI-drevne angrep og frigjøre menneskelige eksperter for å fokusere på de mest kritiske truslene.
Kunngjøringen understreker en strategisk avvik i hvordan teknologiske giganter våpner AI for forsvar. Mens Google jakter på sårbarheter i kode, er Microsoft nå rettet mot de ondsinnede binærene selv.
Agent fungerer ved å bruke avanserte språkmodeller, tilgjengelig gjennom Azure AI Foundry, for å lede en serie spesialiserte verktøy. Arkitekturen lar den resonnere på flere nivåer, fra binær analyse på lavt nivå til tolkning på høyt nivå av kodeatferd, og skille den fra verktøy som ganske enkelt samsvarer med mønstre.
Analyseprosessen begynner med en triage, der automatiserte verktøy identifiserer filtypen og strukturen. Derfra rekonstruerer systemet programvarens kontrollflytgraf ved hjelp av open source-rammer som ghidra og angr . Dette skaper et logisk kart over programmets utførelsesvei, og danner ryggraden i AIs minnemodell.
Gjennom iterativ funksjonsanalyse kaller AI spesialiserte verktøy for å identifisere og oppsummere nøkkelfunksjoner. Hvert resultat strømmer inn i en”beviskjede”, en detaljert, revisibel sti som viser hvordan systemet nådde sin konklusjon. Denne loggen er avgjørende for
I tidlige tester på offentlige Windows-drivere var systemet svært nøyaktig, og oppnådde 98% presisjon og feil flagget sikre filer i bare 2% av tilfellene. Denne lave falsk-positive frekvensen antyder et klart potensial for distribusjon i sikkerhetsoperasjoner. Når den ble testet mot nesten 4000″hardt mål”-filer som hadde stumpet andre automatiserte systemer, oppnådde den 89% presisjon og 26% tilbakekalling, med en 4% falsk positiv rate. Mens tilbakekallingen var moderat, fremhever nøyaktigheten på disse vanskelige sakene potensialet for å øke menneskelig analyse. Project Ires debut kommer midt i en bredere, intensiverende konkurranse i AI-drevet sikkerhet. Fokuset på klassifisering av skadelig programvare kontrasterer skarpt med Googles prosjekt Big Sleep, som nylig har fått oppmerksomhet for autonomt å oppdage 20 nye sårbarheter i mye brukt open source-programvare som FFMPEG og Imagemagick. Googles agent, et produkt av dets dypmind og Elite Project Zero-team, har vist en hurtig og bevisst evolusjon. Prosjektet beviste først potensialet i slutten av 2024 ved å avdekke en feil i SQLite-databasemotoren. Innsatsen ble reist betraktelig i juli 2025, da Google avslørte at stor søvn proaktivt nøytralisert en overhengende trussel, CVE-2025-6965, i et direkte løp mot angripere. I motsetning til tradisjonelle metoder som fuzzing, bruker Big Sleep LLMer for dyp rot-årsak-analyse, og simulerer en menneskelig forskning. Googles visepresident for ingeniørvitenskap, Royal Hansen, feiret funnene som”en ny grense i automatisert sårbarhetsoppdagelse.” Denne trenden er ikke begrenset til bare to spillere. Et voksende økosystem av AI-sikkerhetsverktøy fra startups og etablerte firmaer dukker opp. Andre tech-giganter bygger komplementære systemer. Meta kunngjorde for eksempel nylig Autopatchbench for å evaluere hvor godt AI automatisk kan fikse feil, sammen med Llamafirewall, et verktøy designet for å forhindre at AI-modeller genererer usikker kode i utgangspunktet. I mellomtiden tar verktøy som Runsybil og Xbow også overskrifter, med Xbow nylig Topping en Hackerone-toppbyr. De samme AI-modellene som brukes til forsvar kan også forevige usikker kodingspraksis. Nyere akademisk forskning avslørte at mange LLM-er, trent på offentlig kode fra GitHub, har lært å gjenskape gamle bugs, et fenomen kalt det”forgiftede LLM”-problemet. Dette skaper en ondskapsfull syklus der verktøyene som er ment å bygge fremtiden, arver fortidens feil. AI-naturen til AI tvinger en rask utvikling i defensive strategier, ettersom AI-drevne angrep blir mer sofistikerte. Som Sheetal Mehta av NTT-data bemerket i relatert sammenheng, kan”Fragmenterte sikkerhetsverktøy ikke følge med dagens automatiserte angrep.”Dette gjenspeiler en økende enighet om behovet for å utnytte AI for forsvar mens du reduserer potensialet for misbruk. Som Microsofts Brad Smith tidligere har uttalt,”Målet vårt må være å holde AI fremskritt som et defensivt verktøy raskere enn det går frem som et støtende våpen.”Utviklingen av spesialiserte midler som IRE og Big Sleep representerer en kritisk front i den kampen. Mens automatisering lover å hjelpe overveldet sikkerhetsteam, skaper det også nye utfordringer. En sentral industriproblem er”AI Slop”, en betegnelse for flommen av lav kvalitet eller irrelevante feilrapporter generert av automatiserte verktøy. Dette kan utmatte de frivillige vedlikeholdere av open source-prosjekter. Som Vlad Ionescu, medgründer av AI Security Startup Runsybil, sa til TechCrunch,”Det er problemet folk kjører inn, er at vi får mange ting som ser ut som gull, men det er faktisk bare dritt.” for å motvirke dette, både Microsoft og Google stress som menneskelig ekspertise forblir uunngåelig. En talsperson for Google, Kimberly Samra, bekreftet at”for å sikre høykvalitets og handlingsrike rapporter, har vi en menneskelig ekspert på løkken før rapporteringen, men hver sårbarhet ble funnet og gjengitt av AI-agenten uten menneskelig inngripen.” Microsoft Echoes dette følelsen. Mike Walker, forskningssjef i Microsoft, forklarte at tidlige erfaringer med Project Ire viste “[det vi lærte fra disse tilfellene er] at vi kan utnytte de komplementære styrkene til både mennesker og AI for beskyttelse.”Systemets detaljerte bevisspor er designet spesielt for å lette dette menneskemaskin-samarbeidet. Microsoft planlegger å integrere prototypen i sikkerhetsproduktene som”binær analysator.”Selskapets ultimate visjon er å oppdage ny malware direkte i minnet, og skalere sine autonome evner for å beskytte milliarder av enheter mer effektivt. AI Arms Race i cybersecurity
Balansering av automatisering med menneskelig kompetanse