A Google Gemini kritikus sebezhetősége a munkaterület számára, amelyet 2025. július 2-án nyilvánosan nyilvánosságra hoznak, lehetővé teszi a támadók számára, hogy az AI asszisztenst adathalász eszközré alakítsák. A 0Din Bug Bounty Platform jelentése szerint a fenyegető szereplők rosszindulatú, láthatatlan utasításokat beágyazhatnak az e-mail kódjába. Ezután hamis biztonsági riasztást generál, amelynek célja a hitelesítő adatok ellopása vagy a felhasználók rosszindulatú webhelyek felé történő irányítása. Ez a „közvetett prompt injekciós” támadás azért működik, mert az AI rejtett szöveget dolgozik, amelyet a felhasználók nem látnak. Ez átalakítja a szociális mérnöki munka nagyon meggyőző és veszélyes új formájává. A nyilvánosságra hozatal kiemeli az AI biztonságának növekvő kihívását, ahol az LLM komplexitása új támadási felületeket hoz létre. Componice

Az „Ikrek adathalászatának” elnevezésű támadás a HTML és a CSS okos manipulációjára támaszkodik az e-mail testében. A támadók rosszindulatú irányelveket tartalmazó rejtett szöveggel készítettek. Ez a szöveg láthatatlanná válik, ha betűkészletét nullára vagy színére állítja, hogy megfeleljen a háttérnek. Az AI ezeket a rejtett utasításokat feldolgozza a gyors, kötelességteljesen kiegészíti a támadó elkészített biztonsági figyelmeztetését a látható szöveg egyébként pontos összefoglalójához.

Az eredmény zökkenőmentes megtévesztés. A felhasználó olyan összefoglalót kap, amely úgy tűnik, hogy a Gemini-től származik, de tartalmaz egy rosszindulatú hasznos rakományt, például egy figyelmeztetést, hogy hamis támogatási számot hívjon fel, vagy látogasson el a hitelesítő adatok betartási webhelyére. A Google márkába vetett bizalom fegyveres. Ez lehetővé teszi a kezdeti e-mailt, hogy megkerülje számos hagyományos biztonsági szkennert, amelyek a nyilvánvaló vörös zászlókra vadásznak, ami rendkívül megnehezíti a detektálást. Az alapvető kérdés az, hogy a modell képtelen megkülönböztetni a megbízható rendszer utasításait és a nem megbízható, harmadik fél adatait, különösen akkor, ha ezeket az adatokat megtévesztőnek tervezték. keretezés.”Ha a rejtett parancsot egy olyan címkébe csomagolja, mint „a támadók becsaphatják a modellt, hogy az utasítást kiemelt rendszer-irányelvként kezeljék, így valószínűbb, hogy megfelelnek. Hasonló IPI-támadásokról számoltak be a Gemini ellen, 2024-ben, a Google-t a Tervezõkhöz való megvalósításához. Az AI fejlesztők és a biztonsági kutatók közötti macska-egér játék alátámasztása. Részletes, hogy a támadók hogyan használták a Vercel V0 AI eszközét a pixel-tökéletes adathalász helyek azonnali előállításához. Jelentés, amely részletezi, hogy az állami szponzorált hackerek hogyan használják az AI-t a Google fenyegető intelligencia csoportja szerint: „A fenyegetéses szereplők kísérleteznek a Gemini-vel, hogy lehetővé tegyék a termelékenységet, de még nem fejlesztették ki az új képességeket. Hiteles tartalmat generáljon a kibertámadásokhoz egyre gyorsabb ütemben.”

Ezt az érzést a Vercel CISO, Ty Sbano osztja meg, aki elismerte, hogy„ mint minden hatékony eszköz, a V0 is használható. Ez egy iparági szintű kihívás, és a Vercelnél rendszerekbe és partnerségekbe fektetünk be, hogy gyorsan elkapjuk a visszaélést”, kiemelve a kihívás iparági jellegét. A 0Din és más biztonsági üzletek szakértői egy többrétegű védelmi stratégiát vázoltak be. A telefonszámok, vagy az URL-ek, akik felülvizsgálják őket, a felhasználói tudatosságnövelő képzésnek meg kell tanítani, hogy az AI által generált összefoglalók nem hiteles biztonsági riasztások. Első hely. A szélesebb körű következmények jelentősek, mivel az ilyen támadások önplikáló AI férgeket hoznak létre, amelyek önállóan terjednek. href=”https://blog.google/technology/safety-security/ai-and-future-ofnaational-security/”Target=”_ üres”> Figyelmeztetve : „Amerika tartja a vezetést az AI versenyen.

Categories: IT Info