Ein kritischer Sicherheitsfehler in Githubs Modellkontextprotokoll (MCP) ermöglicht es KI-Codierungsassistenten, private Repository-Daten zu verlassen. Der „toxische Wirkstofffluss“ nutzt Tricks, wie Github Copilot oder verbundene Claude-Instanzen, durch speziell gestaltete Github-Probleme. Die Sicherheitsanfälligkeit zeigt eine bedeutende Herausforderung für architektonische Sicherheit für das schnell wachsende Ökosystem von AI-Agenten. Mit 14.000 Sternen auf Github-aber eher wie KI-Mittel mit nicht vertrauenswürdigen externen Daten interagieren. Invariante Labs warnten, dass Angreifer diese „promptierten Bomben“ in öffentlichen Themen pflanzen und darauf warteten, dass der KI-Agent einer Organisation während Routinaufgaben auf sie stolpert. Opus-Modell . Die Forscher zeigten, dass a bösartiges Github-Problem In einem öffentlichen Repository könnte ein AI-Agent auffordert, wenn ein Benutzer Probleme überprüft. src=”https://winbuzzer.com/wp-content/uploads/2025/04/github-copilot official.jpg”>

Dieser Agent hat den Agenten dazu gebracht, auf private Repository-Daten zuzugreifen-auch Namen, Projektdetails und sogar bezahlte Informationen, und dann exfilieren Sie es mit einem A-a Neue Pull-Anfrage im öffentlichen Repository. 

Die Mechanik eines trügerischen Flusses

Dieser Angriff nutzt den Technologieanalyst Simon Willison, in Github Copilots Agentenmodus , wodurch die AI-Anschlussbefehle und die Verwaltung von Dateien, die zu misstrauen können, misuieren, wenn das Agent das Agent beeindruckt. Vorwärts

invariante Labors, die auch kommerzielle Sicherheitstools wie Invariante GuardRays und mcp-scan schlägt mehrere Strategien für die Unterbrechung vor. Dazu gehören die Implementierung körniger, kontextbezogener Berechtigungskontrollen-zum Beispiel eine Richtlinie, die einen Agenten auf nur ein Repository pro Sitzung beschränkt. Ein Beispiel für Richtlinien Bereitstellung von invarianten Labs für seine Leitplanken ist so konzipiert, dass die gleichen Auflösungsverläufe die gleichen Auflösungen verhindern. Klar, den Endbenutzern beraten, beim Experimentieren mit MCP „sehr vorsichtig“ zu sein. Die Entdeckung folgt anderen Sicherheitsbedenken bei KI-Entwickler-Tools, wie a Verletzlichkeit in Gitlab Duo, das von einem gesetzlichen Sicherheitsbedarf berichtet wurde. AI-native Systeme, die über die Sicherheitsvorgänge auf Modellebene hinausgehen, um die gesamte Agentenarchitektur und ihre Interaktionspunkte zu sichern.