Google hat eine bedeutende Entwicklung in seiner KI-gesteuerten Cybersicherheit vorgestellt und am Dienstag angekündigt, dass sein Big Sleep AI-Agent erstmals nur Fehlern entdeckt hat, um eine kritische Software-Schwachstelle auf dem Rand der Ausbeutung ausgenutzt zu haben. Die Nachrichten, die vor den Konferenzen von Black Hut und Def Conferences veröffentlicht wurden, sind Teil einer breiteren Initiative, um Verteidiger mit neuen KI-Tools zu bewaffnen und die Zusammenarbeit der Branche zu stärken. href=”https://blog.google/technology/safety-security/cybersecurity-updates-summer-2025/”target=”_ leer”>”Big Sleep”, ein von Google Deepmind entwickeltes KI-Agent und die Elite-Hacker bei Google Project Zero . In einer beanspruchten Branche zuerst, sagt Google, dass Big Sleep, geleitet von Bedrohungsinformationen, erfolgreich identifiziert wurde. Ausgenutzt. Der zuvor gemeldete Erfolg des Agenten im November 2024 umfasste den ersten Fehler in SQLite, eine bemerkenswerte, aber weniger dringende Entdeckung, die das Konzept bewies. Die neue Leistung unterstreicht eine gezieltere, intelligenz geführte Verteidigungsfähigkeit.

Die wichtigste Unterscheidung ist der Kontext. Der Fund 2024 war ein bisher unbekannter Fehler, der vor seiner Veröffentlichung gefunden wurde. Der Fall von 2025 umfasste eine Schwachstelle, die den Schauspielern bedroht ist und die Intervention der KI zu einem direkten Rennen gegen Angreifer machte. Diese Evolution ist ein potenzieller Game-Changer für Sicherheitsteams. Google erweitert nun die Verwendung von Big Sleep, um große Open-Source-Projekte zu sichern, und hat veröffentlichte ein weißes Papier, das auf seinen Prinzipeln für die Aufbau sicherer Ai-Agen-A-up-up-up-up-up-up-agents-up-agenten veröffentlicht wurde. Arsenal für Black Hat und Def con

Im Rahmen der Ankündigung wird Google neue KI-Sicherheitstools auf kommenden Branchenkonferenzen demo demo. Bei Black Hut USA wird es Fassade, sein Insider-Bedrohungserkennungssystem, das seit 2018 ausgeführt wird, und ein einzigartiges kontrastives Lernansatz verwendet. (CTF) Ereignis, bei dem die Teilnehmer einen AI-Assistenten verwenden, um ihre Fähigkeiten zu verbessern, sicheres AI-Framework (saif) auf die