Sicherheitsforscher haben eine kritische Sicherheitsanfälligkeit in Microsoft 365 Copilot mit dem Namen”Echoleak”ausgelegt, mit der Angreifer sensible Unternehmensdaten automatisch mithilfe einer speziell gefertigten E-Mail stehlen konnten. Die neuartige Angriffsmethode erforderte minimale Benutzerinteraktion und keine expliziten Klicks, wobei die leistungsstarken Datenverarbeitungsfunktionen des KI-Assistenten in ein Tool für das Exfiltration verwandelt wurden. Sicherheit führt eine neue Klasse von KI-spezifischen Bedrohungen ein. AIM Security argumentiert, dass dieser Angriff eine neue Art von Verwundbarkeit darstellt und den Begriff „LLM-Bereichsverletzung“ einführt, um eine Technik zu beschreiben, die möglicherweise „zusätzliche Manifestationen in anderen Lappen-basierten Chatbots und KI-Agenten“ aufweist. Diese Technik manipuliert einen generativen KI href=”https://msrc.microsoft.com/update-guide/vulnerability/cve-2025-32711″target=”_ leer”> Zugewiesen die Kennung CVE-2025-32711 und in seiner Veröffentlichung des Patch-Platzes im Juni 2025 enthalten. Während das Unternehmen feststellte, dass keine Kunden von einem aktiven Angriff betroffen waren, sendet die Offenlegung eine starke Warnung an die Branche über die inhärenten Sicherheitsherausforderungen im Rennen, um zunehmend autonome AI-Agenten im gesamten Unternehmen einzusetzen. In seiner offiziellen Beratung zum Fehler bestätigte Microsoft, dass die Verwundbarkeit eine „KI-Befehlseinspritzung“ ermöglichte, die es einem „nicht autorisierten Angreifer über ein Netzwerk offenlegen konnte“.

ein Beitrag von Varonis fügt hinzu, dass der Angriffsfluss einen Angriffsfluss erfordert, um ein Opfer zu senden, um einen Eingangsanlauf an einen Ausdruck zu entsprechen. Eine. Die XPIA-Klassifikatoren von Microsoft, die zur Blockierung der schnellen Injektion konzipiert wurden, wurden durch die Formulierung der böswilligen Anweisungen umgangen, als ob sie für einen menschlichen Empfänger bestimmt wären. Um den Angriff effektiver zu gestalten, detaillierte Sicherheit eine Waffentechnik namens”RAG-Sprühen”, wobei eine E-Mail mit verschiedenen Themen gefüllt ist, um die Wahrscheinlichkeit zu maximieren, dass die zukünftige Abfrage eines Benutzers die KI auslöst, um den böswilligen Inhalt abzurufen. Dies ermöglichte die Erstellung einer URL, die Daten an den Server eines Angreifers senden soll. Um die Sicherheit auf Browserebene zu überwinden, fanden die Angreifer Bypass in Microsoft-Inhalts-Security-Domk (CSP). SharePoint-Einbettungsservice-Endpunkt und ein Team in Content Proxy. Wenn ein KI wahllos nicht vertrauenswürdige externe Daten mit vertrauenswürdigen internen Daten mischt, wächst das Potenzial für Kompromisse exponentiell. Dies ist eines von mehreren inhärenten Risiken in der Lag-Architektur, die auch Bedrohungen wie “Stack Canaries” Sobald diese Bedrohungen richtig verstanden wurden. Die Kerngefahr besteht darin, dass der Angriff die Berechtigungen des gezielten Benutzers nutzt, was bedeutet, wenn ein Führungskraft mit breiter Datenzugriff beeinträchtigt wird, kann die KI in ein mächtiges Werkzeug umgewandelt werden, um die sensibelsten Informationen des Unternehmens zu finden und ein Exfiltrieren des Unternehmens zu finden. Dieses Gefühl unterstreicht ein wachsendes Anliegen, dass traditionelle Sicherheitsinstrumente schlecht ausgestattet sind, um die Nuancen von Agenten AI zu bewältigen. Während des gesamten Frühjahrs 2025 kündigte das Unternehmen seine „Copilot Wave 2 Spring Release“ an und erklärte das „Alter der AI-Agenten“ auf seiner Build 2025-Konferenz, wobei eine Vielzahl neuer Tools für den Aufbau und die Bereitstellung von Microsoft vorgestellt wurde. Auf seiner Konferenz Ignite 2024 führte sie als Teil des Copilot Control Systems neue Optionen ein, mit denen die IT-Administratoren eine granuläre Kontrolle über die Erstellung von Agenten und den Datenzugriff erhalten. 

Diese Bemühungen kamen, da auch andere Forscher potenzielle Probleme markierten, wobei ein Bericht von Pen-Testpartnern im Mai zeigte, wie SharePoint-Copilot manipuliert werden konnte, um sensible Daten zu enthüllen. Der Vorstoß, die Benutzerbasis von Copilot zu erweitern, in der sie im Januar 2025 in Verbraucherpläne integriert wurde, und um das Wachstum des Benutzers inmitten eines gemeldeten Stalls Anfang des Jahres zu demonstrieren, schafft eine Umgebung, in der sich schneller als Abwehrkräfte neuer Bedrohungen ergeben können. Die Echoleak-Sicherheitsanfälligkeit dient als kritische Fallstudie und beweist, dass die KI fähiger und autonomer wird, die Angriffsoberfläche abstrakter und gefährlicher wird und ein grundlegendes Überdenken der Unternehmenssicherheit fordert.

Categories: IT Info