Krytyczna podatność w Google Gemini dla obszaru roboczego, publicznie ujawniona 2 lipca 2025 r., Pozwala atakującym przekształcić asystenta AI w narzędzie phishingowe. Według raportu z platformy nagród 0din, aktorzy zagrożeń mogą osadzić złośliwe, niewidoczne instrukcje w kodzie e-mail.
Gdy użytkownik prosi Gemini o podsumowanie wiadomości, AI wykonuje ukryte polecenie. Następnie generuje fałszywy alert bezpieczeństwa zaprojektowany w celu kradzieży poświadczeń lub kierowania użytkownikami na złośliwe strony. Ten atak „pośredniego szybkiego wstrzyknięcia” działa, ponieważ AI przetwarza ukryty tekst, którego użytkownicy nie widzą.
Technika, odkryta przez naukowca Marco Figueroa, podważa zaufaną funkcję wydajności. Przekształca go w bardzo przekonującą i niebezpieczną nową formę inżynierii społecznej. Ujawnienie podkreśla rosnące wyzwanie w zakresie bezpieczeństwa AI, w którym złożoność LLM tworzy nowe powierzchnie ataku.
missible gemini do phishing Wspólnik
Atak, nazywany „phishing for Gemini”, opiera się na sprytnej manipulacji HTML i CSS w ciele wiadomości e-mail. Atakerzy tworzą wiadomości z ukrytym tekstem zawierającym złośliwe dyrektywy. Ten tekst jest niewidoczny, ustawiając rozmiar czcionki na zero lub kolor, aby pasował do tła.
Podczas gdy użytkownik widzi tylko łagodną wiadomość, podsumowanie Bliźniaczki spożywa surowy, niefiltrowany HTML. AI przetwarza te ukryte instrukcje w ramach jego szybkiego, sumiennie dołączając ostrzeżenie bezpieczeństwa napastnika do jego dokładnego podsumowania widocznego tekstu.
Wynik jest bezproblemowe oszustwa. Użytkownik otrzymuje podsumowanie, które wydaje się pochodzić z Gemini, ale zawiera złośliwy ładunek, taki jak ostrzeżenie, aby zadzwonić do fałszywego numeru wsparcia lub odwiedzić witrynę z trudem uwierzytelniania. Zaufanie do marki Google jest przeciwko nim.
Ta metoda jest szczególnie podstępna, ponieważ nie wymaga złośliwych linków ani załączników w widocznej treści, jak zauważają badacze bezpieczeństwa. Umożliwia to początkowy e-mail na ominięcie wielu tradycyjnych skanerów bezpieczeństwa, które polują na oczywiste czerwone flagi, co utrudnia wykrycie.
Dekonstruowanie ataku „IPI pod wrażeniem, pod wrażeniem, jest podręcznikowym przykładem podręcznika. Podstawowym problemem jest niezdolność modelu do rozróżnienia między zaufanymi instrukcjami systemowymi a niezaufnymi danymi stron trzecich, zwłaszcza gdy dane te są zaprojektowane tak, aby były zwodnicze.
Eksperci z 0din i innych punktów bezpieczeństwa przedstawili wielowarstwową strategię obrony dla zespołów bezpieczeństwa. Podejrzany język, podmioty URL, które mają ostatecznie przegląd. Przetwarzane w pierwszej kolejności.Ponadto dostarczanie „haczyków wyjaśniających”, które pozwalają użytkownikom zobaczyć, dlaczego wygenerowany był konkretny tekst, może ujawnić ukryty podpowiedź, oddzielając się wizualnie tekstu e-mail, może również pomóc, gdyby lew. Uznania, jeśli uwolnienie się od tego, jeśli lew. Uznaj. staje się zagrożeniem wykonywalnym. href=”https://blog.google/technology/safety-security/ai-and-the-future-of-national-security/”target=”_ puste”> ostrzega „Ameryka posiada główną wyścig AI-ale nasza przewaga może nie trwać”.