Githubのモデルコンテキストプロトコル(MCP)統合の重要なセキュリティ欠陥により、AIコーディングアシスタントはプライベートリポジトリデータをリークできます。 「有毒なエージェントの流れ」は、特別に作られたGitHubの問題を通じて、Github CopilotやConnected Claudeインスタンスなどのエージェントを活用します。脆弱性は、AIエージェントの急速に拡大するエコシステムの重要なアーキテクチャセキュリティチャレンジを強調しています。
不変ラボが説明したように、コアの問題は。研究者たちは、a 悪意のあるgithub問題公開リポジトリで、ユーザーが問題のレビューを促したときにAIエージェントを挿入できることを示しました。 src=”https://winbuzzer.com/wp-content/uploads/2025/04/github-copilot-official.jpg”>
これにより、エージェントはプライベートリポジトリデータにアクセスします。 href=”https://github.com/ukend0464/pacman/pull/2″ターゲット=”_ blank”>新しいプルリクエストパブリックリポジトリ。
欺cept的な流れのメカニズム
この攻撃は、テクノロジーアナリストのサイモン・ウィリソンをレバレッジします。 Trifecta”迅速な注入のため:AIエージェントはプライベートデータにアクセスし、悪意のある命令にさらされ、情報を拡張できます。
ウィリソンは、GithubのMCPサーバーが残念ながらこれらの3つの要素をバンドルしていることを指摘しました。 Claude 4 Opusのような洗練されたモデルに対する攻撃の成功は、現在のAIの安全トレーニングだけではそのような操作を防ぐには不十分であると強調しています。商業セキュリティツールを開発するInvariant Labsは、コーディングエージェントを広く展開する業界の競争がこれを緊急の懸念にしていることを指摘しました。この基本的な問題は、MCPサーバー自体が安全であっても、エージェントが外部情報を消費して行動するように設計されている場合、AIエージェントのセキュリティに対するより広範な影響を取り消すことができることを意味します
<> Githubの公式MCPサーバーは、自己ホストでの環境を介して環境に包まれている環境を介して、自己ホストでの環境を描くために開発者を可能にするためにリリースされました。 これは、Openai、Microsoftを介してAzure AIを介してMCPサーバーを備えたAWSを備えたOpenai、Microsoftを介してすべての重要な業界運動の一部であり、すべて人類製のモデルコンテキストプロトコルを採用またはサポートしています。エージェントの相互作用における建築脆弱性は、広範な影響を与える可能性があります。 github copilotのエージェントモードフォワード
Invariant Labs。これは、などの商用セキュリティツールも開発しています。 href=”https:> mcp-scan は、いくつかの緩和戦略を提案しています。これらには、詳細なコンテキスト認識の許可コントロールの実装が含まれます。たとえば、エージェントがセッションごとに1つのリポジトリのみにアクセスすることを制限するポリシー。 1つの具体的なポリシー例ガードレールのためにInvariant Labsが提供するすぐに明確にして、エンドユーザーにMCPを試すときに「非常に注意する」ようアドバイスします。この発見は、A gitlab duoの脆弱性など、https://www.legitsecurity.com/blog/remote-plompt-injection-in-gitlab-duo”=”_ blank”など、他のセキュリティ懸念に従っています。エージェントアーキテクチャ全体とその相互作用ポイントを保護するために、モデルレベルの保護措置を除くAIネイティブシステム。