Studiuesit e sigurisë kanë ekspozuar një të metë kritike në ChatGPT të Openai, duke demonstruar se si mund të përdoret një dokument i vetëm ‘i helmuar’ për të vjedhur të dhëna të ndjeshme nga llogaritë e lidhura me Google Drive ose Microsoft OneDrive. Sulmi, i quajtur”Agentflayer”nga firma e sigurisë Zeniteti, është një shfrytëzim me klik zero. Përdor udhëzime të fshehura me qëllim të keq brenda një dokumenti. Kur një përdorues i kërkon Chatgpt ta përmbledhë atë, AI është urdhëruar fshehurazi të gjejë dhe të ekzaminojë të dhëna. Ai nënvizon rreziqet e lidhjes së modeleve të fuqishme të AI me të dhënat personale dhe të ndërmarrjes, një aftësi që Openai është duke u zgjeruar që nga qershori për të thelluar gjurmën e ndërmarrjes së saj. Vektori i sulmit të dokumentit
Sulmi i Agentflayer fillon me një premisë mashtruese të thjeshtë: një dokument helmues .. Një sulmues krijon një skedar që përmban udhëzime dashakeqe të fshehura nga syri i njeriut, për shembull, duke përdorur një madhësi të vogël të shkronjave ose tekst të bardhë në një sfond të bardhë. Ky dokument më pas ndahet me një objektiv, i cili mund ta ngarkojë atë për një detyrë rutinë. Në vend që të përmbledhë, AI është urdhëruar të pastrojë ruajtjen e cloud të lidhur të përdoruesit për informacione të ndjeshme si çelësat API ose skedarët konfidencialë.
Shpejtësia e fshehur është një klasë master në inxhinierinë sociale për AIS. Ai tregon një histori bindëse të një”garash zhvilluesi kundër një afati”i cili urgjentisht ka nevojë për çelësa API, një tregim i krijuar për të anashkaluar shtrirjen e sigurisë së LLM dhe për ta bindur atë të kryejë një detyrë të ndjeshme. Fillon faza e dytë: Exfiltration. Studiuesit krijuan një metodë të zgjuar për të vjedhur të dhënat e kaluara në mbrojtjen e Openai. Shpejtësia e fshehur udhëzon Chatgpt të bëjë një imazh të shënuar nga një URL e kontrolluar nga sulmuesi. Kur ndërfaqja nga ana e klientit ChatGPT merr imazhin për ta dhënë atë, një kërkesë që përmban të dhënat e vjedhura dërgohet direkt në serverin e sulmuesit, duke përfunduar vjedhjen. Vetë modeli AI nuk i dërgon të dhënat; Në vend të kësaj, ajo e kthen shënimin me qëllim të keq në shfletuesin e përdoruesit, i cili më pas bën kërkesën në serverin e sulmuesit. Bypass-i funksionoi sepse studiuesit përdori një domen të besueshëm-Microsoft’s Azure Blob Storage —To Host imazhin, të cilin Filtri e lejoi. Produktiviteti
Dobësia ekspozon një tension themelor midis fuqisë së AI dhe sigurisë së tij. Zenity cto Michael Bargury stresoi Ashpërsia e sulmit ndaj telit.”Ne kemi treguar se kjo është plotësisht klik zero; ne thjesht kemi nevojë për emailin tuaj, ne e ndajmë dokumentin me ju, dhe kjo është ajo. Pra, po, kjo është shumë, shumë e keqe.”Ai gjithashtu vuri në dukje implikimet më të gjera për industrinë.”Incredshtë tepër e fuqishme, por si zakonisht me AI, më shumë fuqi vjen me më shumë rrezik.”
Sulmi është plotësisht i automatizuar dhe nuk kërkon klikime nga viktima përtej ngarkimit fillestar të skedarit. Bargury shpjegoi,”Nuk ka asgjë që përdoruesi duhet të bëjë për të komprometuar, dhe nuk ka asgjë që përdoruesi duhet të bëjë që të dhënat të dalin jashtë”. Kjo e bën atë veçanërisht të fshehtë, pasi një përdorues merr një përgjigje në dukje normale, pa dijeni një shkelje. href=”https://www.prnewswire.com/news-releases/zenity-labs-exposes-widespread-agentflayer-vulnerablities-Aleowing-silent-hijacking-of-majior-enterprise-Agents-circumventing-human-oversight-302523580. Kërcënim i përhapur për shumë agjentë të ndërmarrjeve AI , jo vetëm Chatgpt, duke sinjalizuar se ky është një front i ri dhe i rrezikshëm në betejën për të siguruar Ai.