Studiuesit e sigurisë kanë ekspozuar një ndjeshmëri kritike në Microsoft 365 Copilot, të quajtur”Echoleak”, që i lejoi sulmuesit të vjedhin automatikisht të dhëna të ndjeshme të korporatave duke përdorur një email të krijuar posaçërisht. Metoda e romanit të sulmit kërkonte ndërveprim minimal të përdoruesit dhe pa klikime të qarta, duke i kthyer aftësitë e fuqishme të përpunimit të të dhënave të ndihmës së AI në një mjet për eksfiltrimin. Siguria , prezanton një klasë të re të kërcënimit specifik të AI. AIM Security argumenton se ky sulm përfaqëson një lloj të ri të cenueshmërisë, duke prezantuar termin”shkelje të fushës LLM”për të përshkruar një teknikë që mund të ketë”manifestime shtesë në chatbots të tjerë me bazë Rag dhe agjentë të AI”. Kjo teknikë manipulon një agjent gjenerues të AI duke e ushqyer atë udhëzime me qëllim të keq të fshehura brenda asaj që duket se është një input i jashtëm i padëmshëm, duke mashtruar agjentin për të hyrë dhe rrjedhin të dhëna të brendshme të privilegjuara. href=”https://msrc.microsoft.com/update-guide/vulnerability/cve-2025-32711″target=”_ bosh”> caktoi identifikuesin CVE-2025-32711 dhe të përfshirë në lëshimin e tij të të martës në qershor 2025. Ndërsa kompania deklaroi se asnjë klient nuk ishte ndikuar nga një sulm aktiv, zbulimi i dërgon një paralajmërim të ashpër industrisë në lidhje me sfidat e natyrshme të sigurisë në garën për të vendosur agjentë AI gjithnjë e më autonome në të gjithë ndërmarrjen. Në këshillën e tij zyrtare mbi të metën, Microsoft konfirmoi dobësinë e lejuar për”injeksion komandues AI”që mund të lejojë një”sulmues të paautorizuar për të zbuluar informacionin mbi një rrjet.”
a post by Varonis adds nuance, explaining that the attack flow requires a victim to eventually send a prompt to Copilot that semantically matches the attacker’s email content, making it a minimal-interaction exploit rather than a truly passive një. Klasifikuesit XPIA të Microsoft, të dizajnuar për të bllokuar injeksionin e shpejtë, u anashkaluan duke formuluar udhëzimet me qëllim të keq sikur të ishin të destinuara për një marrës njerëzor. Për ta bërë sulmin më të efektshëm, AIM Security detajoi një teknikë të armës të quajtur”Spërkatje Rag”, ku një email është i mbushur me tema të ndryshme për të maksimizuar mundësinë që pyetja e ardhshme e një përdoruesi të shkaktojë AI të marrë përmbajtjen me qëllim të keq. Kjo lejoi krijimin e një URL të dizajnuar për të dërguar të dhëna në serverin e një sulmuesi. Për të kapërcyer sigurinë e nivelit të shfletuesit, sulmuesit gjetën anashkalime në data poisoning, where threat actors intentionally compromise training datasets used for AI training to influence or manipulate the model’s output or Sjellja. Industria përfundimisht zhvilloi terminologji specifike dhe mbrojtje si “Stack Canaries” Sapo ato kërcënime të kuptoheshin siç duhet. Rreziku thelbësor është që sulmi të përdorë lejet e përdoruesit të synuar, do të thotë nëse një ekzekutiv me qasje të gjerë të të dhënave është e kompromentuar, AI mund të shndërrohet në një mjet të fuqishëm për të gjetur dhe ekzaminuar informacionin më të ndjeshëm të kompanisë. Ky ndjenjë nënvizon një shqetësim në rritje se mjetet tradicionale të sigurisë janë të paaftë për të trajtuar nuancat e AI Agjent. Gjatë gjithë pranverës së vitit 2025, kompania njoftoi”Copilot Wave 2 Spring Release”dhe deklaroi”moshën e agjentëve të AI”në konferencën e saj të ndërtimit 2025, duke zbuluar një mori mjetesh të reja për ndërtimin dhe vendosjen e tyre. Në konferencën e saj të Ignite 2024, ajo prezantoi opsione të reja si pjesë e sistemit të kontrollit Copilot, i krijuar për t’u dhënë administratorëve të IT kontroll kokërr mbi krijimin e agjentëve dhe qasjen e të dhënave.
Këto përpjekje erdhën ndërsa studiuesit e tjerë po flamuronin edhe çështjet e mundshme, me një raport nga partnerët e testit të stilolapsit në maj duke demonstruar sesi copilot SharePoint mund të manipulohet për të zbuluar të dhëna të ndjeshme. Shtytja për të zgjeruar bazën e përdoruesit të Copilot, e cila e pa atë të integruar në planet e konsumatorit në janar 2025, dhe për të demonstruar rritjen e përdoruesit në mes të një stalla të raportuar në fillim të vitit, krijon një mjedis ku kërcënimet e reja mund të shfaqen më shpejt sesa mund të ndërtohen mbrojtjet. Dobësia e Echoleak shërben si një studim kritik i çështjeve, duke dëshmuar se ndërsa AI bëhet më e aftë dhe autonome, sipërfaqja e sulmit bëhet më abstrakte dhe e rrezikshme, duke kërkuar një rimendim themelor të sigurisë së ndërmarrjes.