Microsoft avslørte tirsdag Project IRE, en ny AI-agent som autonomt omvendte ingeniører og klassifiserer ondsinnet programvare. Flyttingen eskalerer AI Cybersecurity Arms Race, og posisjonerer Microsofts malwarejeger mot Googles”Big Sleep”-agent, som fokuserer på å finne programvarefeil.

Utviklet av Microsofts forsknings-og sikkerhetsteam, har Project IRE som mål å automatisere det komplekse arbeidet med malware-analyse. Dette gjør at sikkerhetsteamene kan skalere forsvaret mot sofistikerte, AI-drevne angrep og frigjøre menneskelige eksperter for å fokusere på de mest kritiske truslene.

Kunngjøringen understreker en strategisk avvik i hvordan teknologiske giganter våpner AI for forsvar. Mens Google jakter på sårbarheter i kode, er Microsoft nå rettet mot de ondsinnede binærene selv.

Agent fungerer ved å bruke avanserte språkmodeller, tilgjengelig gjennom Azure AI Foundry, for å lede en serie spesialiserte verktøy. Arkitekturen lar den resonnere på flere nivåer, fra binær analyse på lavt nivå til tolkning på høyt nivå av kodeatferd, og skille den fra verktøy som ganske enkelt samsvarer med mønstre.

Analyseprosessen begynner med en triage, der automatiserte verktøy identifiserer filtypen og strukturen. Derfra rekonstruerer systemet programvarens kontrollflytgraf ved hjelp av open source-rammer som ghidra og angr . Dette skaper et logisk kart over programmets utførelsesvei, og danner ryggraden i AIs minnemodell.

Gjennom iterativ funksjonsanalyse kaller AI spesialiserte verktøy for å identifisere og oppsummere nøkkelfunksjoner. Hvert resultat strømmer inn i en”beviskjede”, en detaljert, revisibel sti som viser hvordan systemet nådde sin konklusjon. Denne loggen er avgjørende for Topping en Hackerone-toppbyr. De samme AI-modellene som brukes til forsvar kan også forevige usikker kodingspraksis. Nyere akademisk forskning avslørte at mange LLM-er, trent på offentlig kode fra GitHub, har lært å gjenskape gamle bugs, et fenomen kalt det”forgiftede LLM”-problemet. Dette skaper en ondskapsfull syklus der verktøyene som er ment å bygge fremtiden, arver fortidens feil.

AI-naturen til AI tvinger en rask utvikling i defensive strategier, ettersom AI-drevne angrep blir mer sofistikerte. Som Sheetal Mehta av NTT-data bemerket i relatert sammenheng, kan”Fragmenterte sikkerhetsverktøy ikke følge med dagens automatiserte angrep.”Dette gjenspeiler en økende enighet om behovet for å utnytte AI for forsvar mens du reduserer potensialet for misbruk.

Som Microsofts Brad Smith tidligere har uttalt,”Målet vårt må være å holde AI fremskritt som et defensivt verktøy raskere enn det går frem som et støtende våpen.”Utviklingen av spesialiserte midler som IRE og Big Sleep representerer en kritisk front i den kampen.

Balansering av automatisering med menneskelig kompetanse

Mens automatisering lover å hjelpe overveldet sikkerhetsteam, skaper det også nye utfordringer. En sentral industriproblem er”AI Slop”, en betegnelse for flommen av lav kvalitet eller irrelevante feilrapporter generert av automatiserte verktøy.

Dette kan utmatte de frivillige vedlikeholdere av open source-prosjekter. Som Vlad Ionescu, medgründer av AI Security Startup Runsybil, sa til TechCrunch,”Det er problemet folk kjører inn, er at vi får mange ting som ser ut som gull, men det er faktisk bare dritt.”

for å motvirke dette, både Microsoft og Google stress som menneskelig ekspertise forblir uunngåelig. En talsperson for Google, Kimberly Samra, bekreftet at”for å sikre høykvalitets og handlingsrike rapporter, har vi en menneskelig ekspert på løkken før rapporteringen, men hver sårbarhet ble funnet og gjengitt av AI-agenten uten menneskelig inngripen.”

Microsoft Echoes dette følelsen. Mike Walker, forskningssjef i Microsoft, forklarte at tidlige erfaringer med Project Ire viste “[det vi lærte fra disse tilfellene er] at vi kan utnytte de komplementære styrkene til både mennesker og AI for beskyttelse.”Systemets detaljerte bevisspor er designet spesielt for å lette dette menneskemaskin-samarbeidet.

Microsoft planlegger å integrere prototypen i sikkerhetsproduktene som”binær analysator.”Selskapets ultimate visjon er å oppdage ny malware direkte i minnet, og skalere sine autonome evner for å beskytte milliarder av enheter mer effektivt.