Microsoft we wtorek ujawnił projekt IRE, nowy agent AI, który autonomicznie odwracający inżynierię i klasyfikuje złośliwe oprogramowanie. Ten ruch eskaluje wyścig zbrojeń Cyberbezpieczeństwa AI, pozycjonując łowcę złośliwego oprogramowania Microsoft przeciwko agentowi Google „Big Sleep”, który koncentruje się na znalezieniu wad oprogramowania.
Opracowany przez zespoły badawcze i bezpieczeństwa Microsoft, projekt IRE ma na celu zautomatyzowanie złożonej pracy nad złośliwym oprogramowaniem. Umożliwia to zespołom bezpieczeństwa skalowanie ich obrony przed wyrafinowanymi atakami AI i uwalniają ludzkich ekspertów do skupienia się na najbardziej krytycznych zagrożeniach.
Ogłoszenie podkreśla strategiczną rozbieżność w tym, jak gigantki technologiczne są uzbrojeni AI dla obrony. Podczas gdy Google poluje na luki w kodzie, Microsoft celuje teraz w złośliwe pliki binarne.
Project Standard ’Analysis złośliwego oprogramowania
Microsoft mówi, że nowy system„ automatyzuje to, co uważa się za złoty standard klasyfikacji złośliwego oprogramowania: w pełni inżynieria odwrotna Plik oprogramowania bez żadnych wskazówek dotyczących jego pochodzenia lub celu “. Prototyp wyłonił się z collaboration między Microsoft Research, Microsoft Defender Research, Microsoft Discovery i Quantum , Combiring Ai Security z operacyjnym Security Research wiedza specjalistyczna.
Agent działa za pomocą zaawansowanych modeli językowych, dostępnych za pośrednictwem Azure AI Foundry, w celu reżyserii specjalistycznych narzędzi. Jego architektura pozwala jej rozumować na wielu poziomach, od analizy binarnej niskiego poziomu po interpretację zachowania kodu na wysokim poziomie, odróżniając ją od narzędzi, które po prostu pasują do wzorców.
Proces analizy rozpoczyna się od triage, w którym zautomatyzowane narzędzia identyfikują typ i strukturę pliku. Stamtąd system zrekonstruuje wykres przepływu sterowania oprogramowania za pomocą open source Frameworks, takich jak ghidra i angr . Tworzy to logiczną mapę ścieżki wykonania programu, tworząc kręgosłup modelu pamięci AI.
Dzięki analizy funkcji iteracyjnej AI wywołuje wyspecjalizowane narzędzia do identyfikacji i podsumowania kluczowych funkcji. Każdy wynik przekazuje „łańcuch dowodów”, szczegółowy, kontrolny szlak, który pokazuje, w jaki sposób system wyciągnął wniosek. Ten dziennik ma kluczowe znaczenie dla recenzja ludzka i refinansowanie systemu .
, aby jego wnioski są dostarczane, projektowe narzędzia do tego, że jest to narzędzie, a właściwe narzędziami. Komorne roszczenia w stosunku do bazy wiedzy o oświadczeniach ekspertów od własnych inżynierów złośliwego oprogramowania Microsoft. W jednym przypadku był to pierwszy system w Microsoft-Human lub Maszyna-do autorstwa raportu zagrożenia wystarczająco silnego, aby samodzielnie uruchomić automatyczny blok.
We wczesnych testach na publicznych sterownikach systemu Windows był bardzo dokładny, osiągając 98% precyzji i nieprawidłowo oznaczając bezpieczne pliki tylko w 2% przypadków. Ta niska stopa fałszywie dodatnich sugeruje wyraźny potencjał wdrożenia w operacjach bezpieczeństwa.
po przetestowaniu z prawie 4000 „celów twardego”, które zakochały inne zautomatyzowane systemy, osiągnęło 89% precyzji i 26% wycofania, z 4% liczbą fałszywie dodatnią. Podczas gdy wycofanie było umiarkowane, jego dokładność w tych trudnych przypadkach podkreśla jej potencjał do zwiększenia analizy człowieka.
Race zbrojeń AI w cyberbezpieczeństwie
debiut projektu IRE pojawia się wśród szerszej, intensyfikującej konkurencję w zakresie bezpieczeństwa kierowanego przez AI. Koncentracja na klasyfikacji złośliwego oprogramowania kontrastuje gwałtownie z projektem Google Big Sleep, który ostatnio zwrócił uwagę na autonomiczne odkrycie 20 nowych luk w szeroko stosowanym oprogramowaniu typu open source, takim jak FFMPEG i ImageMagick.
Agent Google, produkt swojego głębokiego i elitarnego projektu Zero Zespoły, wykazało szybką i celową ewolucję. Projekt po raz pierwszy udowodnił swój potencjał pod koniec 2024 r., Odkrywając błąd w silniku bazy danych SQLITE. Stawki zostały znacznie podniesione w lipcu 2025 r., Kiedy Google ujawnił, że duży sen proaktywnie zneutralizował zbliżające się zagrożenie, CVE-2025-6965, w bezpośrednim wyścigu z atakującymi.
W przeciwieństwie do tradycyjnych metod, takich jak fuzzing, Big Sleep stosuje LLM do analizy głębokiej przyczyny korzeni, symulując podejście ludzkiego naukowca. Wiceprezes ds. Inżynierii Google, Royal Hansen, świętował ustalenia jako „nową granicę w automatycznym odkryciu podatności.”
Ten trend nie ogranicza się tylko do dwóch graczy. Pojawia się rosnący ekosystem narzędzi bezpieczeństwa AI od startupów i uznanych firm. Inni giganci technologiczni budują systemy uzupełniające. Na przykład Meta niedawno ogłosiła AutopatchBench do oceny, w jaki sposób AI może automatycznie naprawić błędy, obok Llamafirewall, narzędzia zapobiegającego generowaniu modeli AI przed generowaniem niepewnego kodu. Tymczasem narzędzia takie jak Runsybil i Xbow również pojawiają się na pierwszych stronach gazet, a Xbow niedawno Pokazuje tablicę liderów Hackerone .
, jednak innowacja jest mieczem podwójnym. Te same modele AI stosowane do obrony mogą również utrwalić niepewne praktyki kodowania. Ostatnie badania akademickie ujawniły, że wiele LLM, przeszkolonych w zakresie publicznego kodu od GitHub, nauczyło się replikować stare robaki, zjawisko nazwane problemem „zatrutego LLM”. Stwarza to błędne cykl, w którym narzędzia mające na celu budowę przyszłości dziedziczą błędy z przeszłości.
Natura AI podwójnego zastosowania zmusza szybką ewolucję strategii obronnych, ponieważ ataki napędzane przez AI-AI stają się bardziej wyrafinowane. Jak zauważył arkusz danych NTT w powiązanym kontekście, „rozdrobnione narzędzia bezpieczeństwa nie mogą nadążyć za dzisiejszymi zautomatyzowanymi atakami”. Odzwierciedla to rosnącą konsensus co do potrzeby wykorzystania AI do obrony, jednocześnie łagodząc jej potencjał niewłaściwego użycia.
, jak wcześniej stwierdził Brad Smith z Microsoftu: „Naszym celem jest utrzymanie AI postępowania jako narzędzie defensywne szybciej niż ono w ramach ofensywnej broni”. Rozwój wyspecjalizowanych agentów, takich jak IRE i Big Sleep, stanowi krytyczny front w tej bitwie.
Bilansowanie automatyzacji z ludzką wiedzą
Podczas gdy automatyzacja obiecuje pomóc w przytłoczeniu zespołów bezpieczeństwa, stwarza również nowe wyzwania. Kluczowym problemem branżowym jest „AI Slop”, termin na powódź niskiej jakości lub nieistotne raporty o błędach generowanych przez zautomatyzowane narzędzia.
Może to zmęczyć opiekunów wolontariuszy projektów typu open source. Jak powiedział Vlad Ionescu, współzałożyciel startupu bezpieczeństwa AI Runsybil, powiedział TechCrunch: „To problem, na który wpadają ludzie, czy otrzymujemy wiele rzeczy, które wyglądają jak złoto, ale to po prostu bzdury.”
Aby to przeciwdziałać, zarówno Microsoft, jak i Google stresują, że ludzka wiedza specjalistyczna pozostaje niezgodna. Rzecznik Google, Kimberly Samra, potwierdziła, że „aby zapewnić wysokiej jakości i możliwe do działania raporty, mamy eksperta w pętli przed zgłoszeniem, ale każda podatność została znaleziona i odtworzona przez agenta AI bez interwencji człowieka.”
Microsoft przypomina ten sentyment. Mike Walker, kierownik ds. Badań w Microsoft, wyjaśnił, że wczesne doświadczenia z Project Ire pokazały: „[Nauczyliśmy się z tych przypadków], że możemy wykorzystać uzupełniające się mocne strony zarówno ludzi, jak i AI w celu ochrony”. Szczegółowy szlak dowodów systemu został zaprojektowany specjalnie w celu ułatwienia tej współpracy ludzkiej maszyny.
Microsoft planuje zintegrować prototyp z produktami bezpieczeństwa jako „analizator binarny”. Ostateczną wizją firmy jest wykrycie nowatorskiego złośliwego oprogramowania bezpośrednio w pamięci, skalowanie jej autonomicznych możliwości w celu skuteczniejszej ochrony miliardów urządzeń.