Microsoft hat am Dienstag Project IRE enthüllt, einen neuen AI-Agenten, der autonom umgekehrt und bösartige Software klassifiziert. Der Umzug eskaliert das KI-Cybersicherheits-Wettrüsten und positioniert Microsofts Malware-Hunter gegen Googles”Big Sleep”Agent, der sich auf die Suche nach Softwarefehler konzentriert. Dies ermöglicht es Sicherheitsteams, ihre Verteidigung gegen hochentwickelte, kI-gesteuerte Angriffe zu skalieren und menschliche Experten freizugeben, um sich auf die kritischsten Bedrohungen zu konzentrieren. Während Google Hunts nach Sicherheitslücken im Code ist jetzt auf die böswilligen Binärdateien selbst abzielt. Standard “der Malware-Analyse
Microsoft sagt, dass das neue System„ automatisiert, was als Goldstandard in der Malware-Klassifizierung angesehen wird: Vollständiges Engineering einer Softwaredatei ohne Hinweise auf ihren Ursprung oder Zweck. “ The prototype emerged from a collaboration between Microsoft Research, Microsoft Defender Research, and Microsoft Discovery & Quantum, combining AI research with operational security Fachwissen. Seine Architektur ermöglicht es ihm, auf mehreren Ebenen zu argumentieren, von einer binären Analyse auf niedriger Ebene bis hin zur hohen Interpretation des Codesverhaltens und der Unterscheidung von Tools, die lediglich Muster übereinstimmen. Von dort aus rekonstruiert das System das Steuerungsdarg der Software mithilfe von Open-Source-Frameworks wie ghidra und angr. Dadurch wird eine logische Karte des Ausführungspfads des Programms erstellt, das das Rückgrat des Speichermodells der KI bildet. Jedes Ergebnis führt zu einer „Kette von Beweisen“, einem detaillierten, prüfbaren Pfad, der zeigt, wie das System zu seiner Schlussfolgerung gekommen ist. Dieses Protokoll ist entscheidend für
Dieser Trend ist nicht nur auf zwei Spieler beschränkt. Ein wachsendes Ökosystem von KI-Sicherheitsinstrumenten von Startups und etablierten Unternehmen entsteht. Andere Tech-Riesen bauen komplementäre Systeme auf. Meta gab beispielsweise kürzlich AutopatchBench bekannt, um zu bewerten, wie gut KI Fehler automatisch beheben kann, neben Llamafirewall, einem Tool, mit dem AI-Modelle in erster Linie unsicherer Code generieren können. In der Zwischenzeit machen Tools wie Runsybil und Xbow auch Schlagzeilen, mit XBOW kürzlich Auf einer Hackerone-Rangliste . Die gleichen für die Verteidigung verwendeten KI-Modelle können auch unsichere Codierungspraktiken aufrechterhalten. Jüngste akademische Untersuchungen ergaben, dass viele LLMs, die auf öffentlichem Code von Github geschult wurden, gelernt haben, alte Bugs zu replizieren, ein Phänomen, das als „vergiftetes LLM“-Problem bezeichnet wurde. Dies schafft einen Teufelskreis, in dem die Tools, die die Zukunft aufbauen sollen, die Fehler der Vergangenheit erben. Wie Sheetal Mehta von NTT-Daten in einem verwandten Kontext feststellte,”können fragmentierte Sicherheitsinstrumente nicht mit den automatisierten Angriffen von heute Schritt halten”. Dies spiegelt einen wachsenden Konsens über die Notwendigkeit wider, die KI für die Verteidigung zu nutzen und gleichzeitig sein Missbrauchspotential zu mildern. Die Entwicklung von spezialisierten Agenten wie Ire und Big Sleep ist in diesem Kampf eine kritische Front. Ein wichtiges Problem der Branche ist „AI Slop“, ein Begriff für die Flut von minderwertigen oder irrelevanten Fehlerberichten, die durch automatisierte Tools erzeugt werden. Als Vlad Ionescu, Mitbegründer des AI-Sicherheitsstart-Startup-Runsybil, sagte TechCrunch:”Das ist das Problem, in das die Leute stoßen. Wir bekommen viele Dinge, die wie Gold aussehen, aber es ist eigentlich nur Mist.”Ein Google-Sprecher, Kimberly Samra, bestätigte: „Um qualitativ hochwertige und umsetzbare Berichte zu gewährleisten, haben wir vor der Berichterstattung einen menschlichen Experten in der Schleife, aber jede Verwundbarkeit wurde vom AI-Agenten ohne menschliche Intervention gefunden und reproduziert. Mike Walker, ein Forschungsmanager bei Microsoft, erklärte, dass frühe Erfahrungen mit Project IRE”[Was wir aus diesen Fällen gelernt haben] zeigten, dass wir die ergänzenden Stärken sowohl des Menschen als auch des KI zum Schutz nutzen können.”Der detaillierte Evidenz-Trail des Systems ist speziell entwickelt, um diese Zusammenarbeit mit Menschenmaschinen zu erleichtern. Die ultimative Vision des Unternehmens besteht darin, neuartige Malware direkt im Gedächtnis zu erkennen und seine autonomen Fähigkeiten zu skalieren, um Milliarden von Geräten effektiver zu schützen.