Google hat SEC-Gemini V1 vorgestellt, ein experimentelles Modell für künstliche Intelligenz, das Cybersicherheitsprofis helfen soll, Bedrohungen in Echtzeit zu erkennen und zu analysieren. Das am 4. April 2025 angekündigte Modell ist die erste formelle Ausweitung seiner Gemini-AI-Marke durch das Unternehmen in die Cybersicherheitsdomäne. Laut Google soll es Aufgaben wie Reverse Engineering Malware, Schreiben von Erkennungsregeln und Erstellen von Berichten über Incident-Analysen entwickeln. target=”_ leer”> sec-gemini wird auf Daten von Google Threat Intelligence (GTI), Open Source Vulnerabilities (OSV) und Bedrohungsberichte von mandiant . Diese Stiftung ermöglicht es ihnen, strukturierte Analysen über eine Vielzahl von Cybersicherheitsaufgaben zu liefern. Das Modell kann Binärdateien analysieren, Dekompilencode einklassifizieren, das Angreifer verhalten und die Erkennungslogik unterstützen. Erkennung, Analyse und Reaktion auf Bedrohungen in Echtzeit. Es hilft den Analysten, Malware, Reverse Engineer böswilliger Code und Entwurfsregeln zu identifizieren. Es übertraf vergleichbare Modelle um mindestens 11% im CTI-MCQ-Bedrohungsinformationstest und um 10,5% für die CTi-Root-Mapping-Benchmark. Am 24. März gab Microsoft bekannt, dass es seine Sicherheitscopilot-Plattform mit sechs neuen KI-Agenten erweiterte, die jeweils für bestimmte Aufgaben wie Phishing-Triage, Insider-Bedrohungserkennung und Anfälligkeitsanleihen ausgelegt sind. Microsoft hat auch fünf zusätzliche Agenten integriert, die von Partnern wie Onetrust und Tanium entwickelt wurden. Microsoft stellte fest, dass seine Modelle aus dem Administrator-Feedback gelernt und ihre Genauigkeit verfeinert werden. Durch die Konzentration auf die Argumentation zielt das Modell darauf ab, Cybersicherheitsexperten bei der Aufdeckung der Ursache von Angriffen zu unterstützen und sie nicht nur auf verdächtiges Verhalten aufmerksam zu machen. Im Jahr 2023 machte ein DeepFake-fähiger Betrug 7% der globalen Betrugsaktivitäten aus, wobei die Vorfälle im Vergleich zum Vorjahr zehnfach wachsen. Auf diesen Trend hat OpenAI kürzlich 43 Millionen US-Dollar in adaptive Sicherheit investiert-ein Startup, das sich auf die Verteidigung gegen DeepFakes und Social Engineering-Betrug konzentrierte. Microsoft beispielsweise verklagte im Januar eine Hacking-Gruppe, weil sie gestohlene Azure OpenAI-Anmeldeinformationen verwendet haben, um böswillige Inhalte zu generieren, einschließlich gefälschter Videos, die bei Phishing-Versuchen verwendet wurden. Am 2. April hat Microsoft kürzlich bekannt gegeben, dass sein Sicherheits-Copilot-Modell seinen Ingenieuren dabei geholfen hatte, kritische Mängel in Open-Source-Bootloadern wie Grub2, U-Boot und Barebox zu entdecken. Diese Komponenten sind der Schlüssel zum sicheren Start von Betriebssystemen, und Fehler auf dieser Ebene können böswilligen Code vor der Aktivierung der Verteidigung geladen werden. „Die Sicherheitscopilot hat dazu beigetragen, die Erkennung von Sicherheitsanfällen in den Bootloadern durch Verfeinerung und Iteraten zu beschleunigen, die schließlich zur Identifizierung von Ausbeutungsfragen führten.“ Anstatt nur auf Bedrohungen zu reagieren, werden Systeme wie SEC-Gemini und Sicherheitscopilot verwendet, um Schwachstellen zu antizipieren und sie zu schließen, bevor Angreifer sie ausnutzen können. Fehlalarme sind nach wie vor ein Problem, insbesondere wenn sie in Umgebungen eingesetzt werden, die eine massive Telemetrie erzeugen. Der Ansatz von Google beinhaltet Feedback-Schleifen zur Verbesserung der Leistung. Die realen Bedingungen bestimmen jedoch, wie effektiv das System skaliert wird. Zum Beispiel kostet Microsoft Security Copilot für Unternehmensbenutzer 2.920 US-Dollar pro Monat. Während für Sec-Gemini keine Preise angekündigt wurden, ist es derzeit auf Frühgeborene-Teilnehmer beschränkt, die sich hier anmelden können. strukturiertes Denken und Echtzeitreaktion. Im Gegensatz dazu zeigen OpenAIs jüngste Unterstützung von Adaptive Security und Microsoft Fokus auf Enterprise Automation, dass sich der Markt rasch diversifiziert. Jedes Unternehmen befasst sich mit einer anderen Facette des KI-in-Security-Puzzles-von der Erkennung von Täuschungen bis zur fundamentalen Systemanalyse. Ob Sec-Gemini dieses Versprechen liefern kann, hängt davon ab, wie gut es sich in Live-Umgebungen, in der Geschwindigkeit, Genauigkeit und Vertrauensmission am meisten funktioniert. target=”_ leer”> Offizielle Ankündigung aus Googles Sicherheitsblog .

Categories: IT Info