Ang mga mananaliksik ng seguridad ay nakalantad ng isang kritikal na kapintasan sa ChatGPT ng OpenAi, na nagpapakita kung paano maaaring magamit ang isang solong’lason’na dokumento upang magnakaw ng sensitibong data mula sa konektadong Google Drive ng isang gumagamit o Microsoft OneDrive account. Ang pag-atake, na tinawag na’AgentFlayer’ng security firm na Zenity, ay isang zero-click na pagsasamantala. Gumagamit ito ng mga nakatagong nakakahamak na tagubilin sa loob ng isang dokumento. Kapag tinanong ng isang gumagamit ang ChatGpt na buod ito, ang AI ay lihim na iniutos na hanapin at mag-exfiltrate ng data. Itinampok nito ang mga panganib ng pag-uugnay ng mga makapangyarihang modelo ng AI na may data ng personal at negosyo, ang isang kakayahan na openai ay lumawak mula noong Hunyo upang palalimin ang yapak ng negosyo nito. Ang pag-atake ng dokumento ng vector

Ang isang umaatake ay gumagawa ng isang file na naglalaman ng mga nakakahamak na tagubilin na nakatago mula sa mata ng tao, halimbawa, sa pamamagitan ng paggamit ng isang maliit na laki ng font o puting teksto sa isang puting background. Ang dokumentong ito ay pagkatapos ay ibinahagi sa isang target, na maaaring mai-upload ito para sa isang nakagawiang gawain. Sa halip na buod, ang AI ay iniutos na hampasin ang konektadong ulap ng gumagamit para sa sensitibong impormasyon tulad ng mga susi ng API o kumpidensyal na mga file. Sinasabi nito ang isang nakakahimok na kuwento ng isang”developer racing laban sa isang deadline”na agarang nangangailangan ng mga susi ng API, isang salaysay na idinisenyo upang malampasan ang kaligtasan ng kaligtasan ng LLM at hikayatin itong magsagawa ng isang sensitibong gawain. Nagsisimula: Exfiltration. Ang mga mananaliksik ay naglikha ng isang matalinong pamamaraan upang ma-sneak ang data sa nakaraang mga panlaban ng OpenAi. Ang nakatagong prompt ay nagtuturo sa CHATGPT na mag-render ng isang imahe ng markdown mula sa isang URL na kinokontrol ng pag-atake. Kapag ang interface ng kliyente ng ChatGPT ay kumukuha ng imahe upang maibigay ito, ang isang kahilingan na naglalaman ng ninakaw na data ay direktang ipinadala sa server ng pag-atake, na nakumpleto ang pagnanakaw. Ang modelo mismo ng AI ay hindi nagpapadala ng data; Sa halip, ibabalik nito ang nakakahamak na markdown sa browser ng gumagamit, na pagkatapos ay hiniling ang kahilingan sa server ng pag-atake. Ang bypass ay nagtrabaho dahil ang mga mananaliksik Gumamit ng isang pinagkakatiwalaang domain-microsoft’s azure blob storage -upang i-host ang imahe, na pinahintulutan ng filter. Ang pagiging produktibo

Ang kahinaan ay naglalantad ng isang pangunahing pag-igting sa pagitan ng kapangyarihan ng AI at seguridad nito. Zenity CTO Michael Bargury stress Ang kalubhaan ng pag-atake sa wired.”Ipinakita namin na ito ay ganap na zero-click; kailangan lang namin ang iyong email, ibinabahagi namin sa iyo ang dokumento, at iyon. Kaya oo, ito ay napakasama.”Nabanggit din niya ang mas malawak na mga implikasyon para sa industriya.”Ito ay hindi kapani-paniwalang makapangyarihan, ngunit tulad ng dati sa AI, mas maraming kapangyarihan ang may mas maraming panganib.”

Ang pag-atake ay ganap na awtomatiko at hindi nangangailangan ng mga pag-click mula sa biktima na lampas sa paunang pag-upload ng file. Ipinaliwanag ni Bargury,”Walang kailangang gawin ng gumagamit upang makompromiso, at walang kailangang gawin ng gumagamit para lumabas ang data.”Ginagawa nitong partikular na hindi mapaniniwalaan, dahil ang isang gumagamit ay tumatanggap ng isang tila normal na tugon, hindi alam ang isang paglabag na nangyari. href=”https://www.prnewswire.com/news-releases/zenity-labs-exposes-widespread-agentflayer-vulnerabilities-agents-silent-hijacking-of-major-enterprise-ai-agents-circumventing-human-oversight-302523580.html”target=”_ blangko”> kumakatawan sa isang malawak na banta sa maraming mga ahente ng negosyo AI , hindi lamang chatgpt, na nag-sign na ito ay isang bago at mapanganib na harapan sa labanan upang ma-secure ang AI.

Categories: IT Info