GitHub的模型上下文協議(MCP)集成中的一個關鍵安全缺陷允許AI編碼助手洩漏私人存儲庫數據, Security企業的發射實驗室揭示了 >安全性。 “有毒藥物流”通過專門精心製作的github問題來利用諸如github副駕駛或連接的克勞德實例等特工。脆弱性突出了AI代理快速擴展的生態系統的重大建築安全挑戰。

正如不變的實驗室所解釋的那樣,核心問題並不是

使用惡意github問題在公共存儲庫中,當用戶提示問題時,可以在公共存儲庫中註入AI代理。 src=“ https://winbuzzer.com/wp-content/uploads/2025/04/github-copilot-ficial.jpg”>

這欺騙了代理商訪問私人存儲庫數據,包括私人存儲庫數據-包括名稱,項目詳細信息,甚至宣稱薪水信息,甚至是exfort of exfort a e exfit a e 新的拉請求在公共存儲庫中。 

欺騙性流量的機制

此攻擊利用了

威利森指出,GitHub的MCP服務器不幸的是,這三個要素捆綁了這三個元素。即使是針對Claude 4 Opus(例如Claude 4 Opus)的攻擊成功,僅當前AI安全培訓就不足以防止此類操作。也開發商業安全工具的不變實驗室指出,該行業在廣泛地部署編碼代理的競賽使這一緊急問題成為了緊迫的問題。

這種脆弱性的建築性質意味著簡單的補丁不足以足夠,並且需要重新思考AI代理與不受信任的數據源相互作用。 This fundamental problem means that even if the MCP server itself is secure, the way agents are designed to consume and act on external information can be their undoing.

Broader Implications For AI Agent Security

GitHub’s official MCP server was released to enable developers to self-host Copilot-compatible extensions, fostering a more interoperable AI coding environment. 這是重要行業運動的一部分,開放式Microsoft通過Azure AI,並且具有自己的MCP服務器,所有採用或支持擬人化的模型上下文方案協議。

,目的是通過標準化與模型相互連接的模型來簡化AI的開發,從而將許多型號列入列表,但列出了許多定制集成。代理互動中的漏洞可能會產生廣泛的影響。 Features like GitHub Copilot’s Agent Mode, which allows the AI to run terminal commands and manage files, become potent tools for misuse if the agent is compromised.

Mitigation And The Path Forward

不變實驗室,它還開發了商業安全工具,例如 novariant Guardrails href=“ https://github.com/invariantlabs-ai/mcp-scan?tab=readme-Readme-ov-file#proxy” target=“ _ blank”> mcp-scan ,提出了幾種緩解策略。其中包括實現顆粒狀的,上下文感知的權限控件-例如,限制代理每次會話僅訪問一個存儲庫的策略。

他們還主張連續地安全監視與MCP系統的代理商交互。一個特定的策略示例不變的實驗室為其護欄提供的旨在防止訪問代理的交叉洩漏,以防止訪問不同的persosities in nim sim prederies in nim sim presories

立即清楚,建議最終用戶在嘗試MCP時要“非常謹慎”。 The discovery follows other security concerns in AI developer tools, such as a vulnerability in GitLab Duo reported by Legit Security.

This pattern indicates an urgent need for a more holistic security approach in AI本地系統,超越模型級保障,以保護整個代理體系結構及其交互點。

Categories: IT Info