A

A biztonsági kutatók kritikus hibát tettek ki az Openai CHATGPT-jében, bemutatva, hogy egy „mérgezett” dokumentum hogyan használható fel érzékeny adatok ellopására a felhasználó csatlakoztatott Google Drive vagy a Microsoft OneDrive fiókjaiból. A ZENITY biztonsági cég által az „AgentFlayer”-nek nevezett támadás nulla kattintással történő kizsákmányolás. Rejtett rosszindulatú utasításokat használ egy dokumentumon belül. Amikor egy felhasználó arra kéri a CHATGPT-t, hogy foglalja össze azt, az AI-t titokban parancsolják, hogy keresse meg és exfiltrálja az adatokat. Kiemeli annak a veszélyét, hogy a hatalmas AI modelleket a személyes és vállalati adatokkal összekapcsolják, az Openai képesség június óta bővül az Enterprise lábnyomának elmélyítésére. Dokumentum “Attack Vector

Az AgentFlayer támadás megtévesztően egyszerű előfeltevéssel kezdődik: egy megmérgezett dokumentum . A támadó egy olyan fájlt készít, amely az emberi szemből rejtett rosszindulatú utasításokat tartalmaz, például egy apró betűméret vagy fehér alapon lévő fehér szöveget. Ezt a dokumentumot ezután megosztják egy célponttal, aki feltöltheti azt egy rutin feladathoz. Összefoglalás helyett az AI-t arra utasítják, hogy a felhasználó csatlakoztatott felhőalapú tárolóját olyan érzékeny információkhoz, mint az API Keys vagy a bizalmas fájlok, súrolja meg. Egy lenyűgöző történetet mesél el egy „határidő elleni versenyző”, akinek sürgősen szüksége van API Keys-re, egy olyan narratívára, amelynek célja az LLM biztonsági igazításának megkerülése, és meggyőzi azt egy érzékeny feladat elvégzésére. Kezdve: Exfiltration. A kutatók egy okos módszert dolgoztak ki az adatok kiszivárgására az Openai védekezésének múltbeli védelme előtt. A rejtett prompt arra utasítja a chatgpt-t, hogy a támadó által vezérelt URL-ből jelölje meg a jelölést. Amikor a CHATGPT ügyféloldali felülete a képet a megjelenítéshez kapja, akkor az ellopott adatokat tartalmazó kérést közvetlenül a támadó szerverére küldik, a lopás kitöltésével. Maga az AI modell nem küldi el az adatokat; Ehelyett visszaadja a rosszindulatú jelölést a felhasználó böngészőjébe, amely a kérést a támadó szerverének adja. A bypass azért működött, mert a kutatók Megbízható domaint használtak-a Microsoft Azure Blob tárolóját -A kép gazdagépe, amely a szűrő megengedett. Termelékenység

A sebezhetőség alapvető feszültséget mutat az AI hatalma és biztonsága között. ZENITY CTO Michael Bargury hangsúlyozva A támadás huzalt.”Megmutattuk, hogy ez teljesen nulla kattintás; csak szükségünk van az e-mailre, megosztjuk veled a dokumentumot, és ennyi. Tehát igen, ez nagyon-nagyon rossz.”Megjegyezte az iparág szélesebb körű következményeit is. „Hihetetlenül hatalmas, de mint általában az AI-vel, a nagyobb hatalom nagyobb kockázatot jelent. Bargury elmagyarázta:”Nincs semmi, amit a felhasználónak meg kell tennie, hogy veszélybe kerüljön, és semmi, amit a felhasználónak meg kell tennie, hogy az adatok kimenjenek.”Ez különösen félrevezetővé teszi, mivel a felhasználó látszólag normális választ kap, nem ismeri a jogsértést. href=”https://www.prnewswire.com/news-releases/zenity-labs-exposes-wides-dread-agentflayer-vulnerabiles-hiLent-silent-Hijacking—enterprise-ai-Ai-Circumventing-Human-Human-Human-Human-Human-Human-Human-Human-Human-Human-Human-Bursight-302523580.htmling. Target=”_ üres”> széles körű fenyegetést jelentenek sok vállalati AI-ügynök számára , nem csak a chatgpt, jelezve, hogy ez egy új és veszélyes front az AI biztosítása érdekében.

Categories: IT Info