Ang isang kritikal na kapintasan ng seguridad sa pagsasama ng Model Context Protocol (MCP) ng GitHub ay nagbibigay-daan sa mga katulong sa pag-cod ng AI na tumagas ng pribadong data ng imbakan, security firm invariant labs na isiniwalat . Ang”nakakalason na daloy ng ahente”ay nagsasamantala sa mga ahente ng trick, tulad ng GitHub copilot o konektado na mga institusyon ng claude, sa pamamagitan ng mga espesyal na ginawa na mga isyu sa github. Ang kahinaan ay nagtatampok ng isang makabuluhang hamon sa seguridad ng arkitektura para sa mabilis na pagpapalawak ng ekosistema ng mga ahente ng AI. Ipinagmamalaki ang 14,000 mga bituin sa GitHub-ngunit sa halip kung paano nakikipag-ugnay ang mga ahente ng AI sa hindi pinagkakatiwalaang panlabas na data. Nagbabala ang mga invariant Labs na ang mga umaatake ay maaaring magtanim ng mga’prompt bomb’sa mga pampublikong isyu, naghihintay para sa ahente ng AI ng samahan na madapa sa kanila sa mga gawain na gawain. Modelong Opus . Ipinakita ng mga mananaliksik na ang isang malisyosong isyu ng github src=”https://winbuzzer.com/wp-content/uploads/2025/04/github-copilot-fficial.jpg”> href=”https://github.com/ukend0464/pacman/pull/2″target=”_ blangko”> bagong kahilingan sa paghila Sa pampublikong imbakan. 

Ang mga mekanika ng isang mapanlinlang na daloy Trifecta”Para sa Prompt Injection: Ang AI Agent ay may access sa pribadong data, ay nakalantad sa mga nakakahamak na tagubilin, at maaaring maipalabas ang impormasyon. Ang tagumpay ng pag-atake, kahit na laban sa mga sopistikadong modelo tulad ng Claude 4 Opus, ay binibigyang diin na ang kasalukuyang pagsasanay sa kaligtasan ng AI ay hindi sapat upang maiwasan ang mga manipulasyon. Ang mga invariant lab, na nagkakaroon din ng mga tool sa seguridad ng komersyal, ay nabanggit na ang lahi ng industriya upang mag-deploy ng mga ahente ng coding na malawak na ginagawang isang kagyat na pag-aalala. Ang pangunahing problemang ito ay nangangahulugan na kahit na ang MCP server mismo ay ligtas, ang paraan ng mga ahente ay idinisenyo upang ubusin at kumilos sa panlabas na impormasyon ay maaaring maging kanilang pag-undo. Ito ay bahagi ng isang makabuluhang kilusan ng industriya, kasama ang OpenAI, Microsoft sa pamamagitan ng Azure AI, at AWS na may sariling mga server ng MCP na lahat ay nagpatibay o sumusuporta sa anthropic-namula na modelo ng protocol. Ang mga kahinaan sa arkitektura sa mga pakikipag-ugnay sa ahente ay maaaring magkaroon ng malawak na mga repercussions. Mga tampok tulad ng Github copilot’s agent mode Pasulong

href=”https://github.com/invariantlabs-ai/mcp-scan?tab=readme-ov-file#proxy”target=”_ blangko”> mcp-ccan , ay nagmumungkahi ng maraming mga diskarte sa pagpapagaan. Kasama dito ang pagpapatupad ng butil, mga kontrol ng pahintulot na may kamalayan sa konteksto-halimbawa, isang patakaran na pumipigil sa isang ahente upang ma-access ang isang imbakan lamang sa bawat session. Ang isang Tukoy na halimbawa ng patakaran na ibinigay ng invariant labs para sa mga guardrail nito ay dinisenyo upang ma-access ang iba’t ibang mga pag-aayos ng impormasyon ay hindi agad malinaw, ang pagpapayo sa mga end-user na maging”maingat”kapag nag-eksperimento sa MCP. Ang pagtuklas ay sumusunod sa iba pang mga alalahanin sa seguridad sa mga tool ng developer ng AI, tulad ng isang kahinaan sa gitlab duo na iniulat ng seguridad ng lehitimo . AI-Native Systems, na lumilipat sa kabila ng mga antas ng antas ng modelo upang ma-secure ang buong arkitektura ng ahente at mga puntos ng pakikipag-ugnay nito.

Categories: IT Info