Een kritieke kwetsbaarheid in Google Gemini voor werkruimte, publiekelijk bekendgemaakt op 2 juli 2025, stelt aanvallers in staat om van de AI-assistent een phishing-tool te maken. Volgens een rapport van het 0din bug bounty-platform kunnen bedreigingsacteurs kwaadaardig, onzichtbare instructies binnen de code van een e-mail insluiten.

Wanneer een gebruiker Gemini vraagt om het bericht samen te vatten, voert de AI de verborgen opdracht uit. Vervolgens genereert het een nep-beveiligingswaarschuwing die is ontworpen om referenties te stelen of gebruikers naar kwaadaardige sites te leiden. Deze”indirecte snelle injectie”-aanval werkt omdat de AI verborgen tekst verwerkt die gebruikers niet kunnen zien.

De techniek, ontdekt door onderzoeker Marco Figueroa, ondermijnt een vertrouwde productiviteitsfunctie. Het transformeert het in een zeer overtuigende en gevaarlijke nieuwe vorm van sociale engineering. De openbaarmaking benadrukt een groeiende uitdaging in de AI-veiligheid, waarbij LLM-complexiteit nieuwe aanvalsoppervlakken creëert.

Het resultaat is een naadloze misleiding. De gebruiker ontvangt een samenvatting die van Gemini lijkt te zijn, maar het bevat een kwaadaardige lading, zoals een waarschuwing om een nep-ondersteuningsnummer te bellen of een website voor een referentie-oogsting te bezoeken. Het vertrouwen in het merk Google is tegen hen bewapend.

Deze methode is bijzonder verraderlijk omdat het geen kwaadaardige links of bijlagen in de zichtbare inhoud vereist, zoals opgemerkt door beveiligingsonderzoekers. Hierdoor kan de initiële e-mail veel traditionele beveiligingsscanners omzeilen die jagen op voor de hand liggende rode vlaggen, waardoor detectie extreem moeilijk wordt.

Deconstrueren van de”indirecte snelle injectie”Attack

De Gemini-exploit is een tekstboek Voorbeeld van indirecte prompt injectie (IPI), een bekende kwetsbaarheidsklasse voor LLMS. Het kernprobleem is het onvermogen van het model om onderscheid te maken tussen vertrouwde systeeminstructies en niet-vertrouwde gegevens van derden, vooral wanneer die gegevens zijn ontworpen om misleidend te zijn.

de onderzoeks op 0din De aanval is amplited by”Authority IS AMPLED BIJ”Autority IS AMPLED BIJ”Autority is AMPLED BIJ”Autority is AMPLED BIJ”Autority is AMPLED BIJ”Autority IS AMPLED IS AMPLED BIJ”Autority is AMPLED. framing.”Door het verborgen commando in een tag zoals “te maken als“, kunnen aanvallers het model misleiden om de instructie te behandelen als een systeemrichtlijn met een hoge prioriteit, waardoor het waarschijnlijker is om te voldoen.

Dit maakt gebruik van de hiërarchische aard van hoe LLMS-proces wordt gevraagd, in wezen de standaard taak van summarisatie. Het is een sociale engineering die een sociale engineering is, is een sociale engineering van de machine zelf. Soortgelijke IPI-aanvallen op Gemini werden gerapporteerd in 2024, waardoor Google werd aangevraagd tot Emplementeren EHKO>. Levensvatbaar, onderstreept het cat-and-muisspel tussen AI-ontwikkelaars en beveiligingsonderzoekers.

Een nieuw front in AI-gewapend cybercriminaliteit

Het incident is niet geïsoleerd, maar een deel van een bredere, versnellende trend van AI-wapens. Winbuzzer Report gedetailleerd hoe aanvallers het V0 AI-tool van Vercel gebruikten om onmiddellijk pixel-perfecte phishing-sites te genereren.

Deze”Instant Phishing”Capaciteit verwijdert de behoefte aan technische vaardigheden in webdesign, waardoor minder verfijnde acteurs kunnen zijn om vlekkeloze nep van loginepagina’s voor merken als Microsoft 365 en OKTA te maken. 2025 Google Report, waarin wordt gedetailleerd hoe door de staat gesponsorde hackers AI gebruiken om de operationele efficiëntie te verbeteren. waardoor het gemakkelijker en goedkoper wordt om geloofwaardige inhoud te genereren voor cyberaanvallen in een snelle snelheid.”

Dit sentiment wordt gedeeld door Vercel’s CISO, Ty Sbano, die erkende dat”zoals elk krachtig hulpmiddel, V0 kan worden misbruikt. Dit is een brede uitdaging, en bij Vercel investeren we in systemen en partnerschappen om snel misbruik te vangen,”benadrukken het brede karakter van de uitdaging.

Het gemak van misbruik democratiseert geavanceerde cybercriminaliteit, het verplaatsen van krachtige tools uit de handen van natiestaten naar de bredere criminele ecosystem.

Experts van 0din en andere beveiligingsuitzendingen hebben een meerlagige verdedigingsstrategie geschetst. Taal, telefoonnummers of URL’s, ze markeren voor beoordeling. In de eerste plaats verwerkt.

Bovendien kan het bieden van”uitlegbaarheidshaken”waarmee gebruikers kunnen zien waarom een bepaald stuk tekst werd gegenereerd, de verborgen prompt kan blootleggen. Uitvoerende bedreiging. href=”https://blog.google/technology/safety-security/ai-and-the-future-of-national-security/”target=”_ blank”> gewaarschuwd ,”Amerika houdt de leiding in de AI-race in de AI-race.

Categories: IT Info