Uma falha crítica de segurança na integração do protocolo de contexto de modelo do Github (MCP) permite que os assistentes de codificação de IA vazem dados de repositório privado, Blanks InvariTs Reveled
This tricked the agent into accessing private repository data—including names, project details, and even purported salary information—and then exfiltrating it via a nova solicitação de puxar No repositório público.
The Mechanics Of A Deceptive Flow
This attack leverages what technology analyst Simon Willison, in his analysis, termed a “lethal Trifecta”Para injeção imediata: o agente de IA tem acesso a dados privados, é exposto a instruções maliciosas e pode exfiltrar as informações. O sucesso do ataque, mesmo contra modelos sofisticados como Claude 4 Opus, ressalta que o treinamento atual de segurança da IA é insuficiente para evitar tais manipulações. Os laboratórios invariantes, que também desenvolvem ferramentas de segurança comercial, observaram que a corrida do setor para implantar agentes de codificação torna isso uma preocupação urgente. Esse problema fundamental significa que, mesmo que o próprio servidor MCP esteja seguro, a maneira como os agentes são projetados para consumir e agir em informações externas podem ser sua ruína. Isso fazia parte de um movimento significativo da indústria, com o OpenAI, Microsoft através do Azure AI e AWS com seus próprios servidores MCP, todos adotando ou suportando o protocolo de contexto de modelo original-original. As vulnerabilidades nas interações dos agentes podem ter extensas repercussões. Recursos como github copilot de modo , que permite que o Terminal executado e gerencie Laboratórios invariantes, que também desenvolve ferramentas de segurança comercial como invariant guardrails e mcp-scan , propõe várias estratégias de mitigação. Isso inclui a implementação dos controles de permissão granular e com reconhecimento de contexto-por exemplo, uma política que restringe um agente a acessar apenas um repositório por sessão. Eles também defendem o monitoramento contínuo de segurança das interações dos agentes com os sistemas MCP. Um Exemplo de política específica fornecido por Laboratórios Invariantes para o SILTRAILS, o que é um dos positivos de que o FILT é o que é um agente para acessar os diferentes depositórios em que o FELT em que o FILT é um agente para acessar os diferentes relatos de que o FELTEN. Não está imediatamente claro, aconselhar os usuários finais a ter”muito cuidado”ao experimentar o MCP. A descoberta segue outras preocupações de segurança nas ferramentas de desenvolvedor de IA, como a