Μια κρίσιμη ευπάθεια στο Google Gemini για χώρο εργασίας, που αποκαλύπτεται δημοσίως στις 2 Ιουλίου 2025, επιτρέπει στους επιτιθέμενους να μετατρέψουν τον βοηθό AI σε εργαλείο ηλεκτρονικού”ψαρέματος”. Σύμφωνα με μια αναφορά από την πλατφόρμα bounty bug bug, οι ηθοποιοί απειλών μπορούν να ενσωματώσουν κακόβουλες, αόρατες οδηγίες μέσα σε έναν κωδικό ηλεκτρονικού ταχυδρομείου. Στη συνέχεια δημιουργεί μια ψεύτικη ειδοποίηση ασφαλείας που έχει σχεδιαστεί για να κλέβει τα διαπιστευτήρια ή να κατευθύνει τους χρήστες σε κακόβουλους ιστότοπους. Αυτή η επίθεση”έμμεσου άμεσης ένεσης”λειτουργεί επειδή το AI επεξεργάζεται το κρυφό κείμενο που δεν μπορούν να δουν οι χρήστες. Το μετατρέπει σε μια εξαιρετικά πειστική και επικίνδυνη νέα μορφή κοινωνικής μηχανικής. Η αποκάλυψη υπογραμμίζει μια αυξανόμενη πρόκληση στην ασφάλεια AI, όπου η πολυπλοκότητα LLM δημιουργεί νέες επιφάνειες επίθεσης. Ο συνεργός
Η επίθεση, που ονομάζεται”phishing for gemini”, βασίζεται σε έξυπνη χειραγώγηση των HTML και CSS μέσα στο σώμα ενός μηνύματος. Οι επιτιθέμενοι δεν έχουν μηνύματα με κρυφό κείμενο που περιέχει κακόβουλες οδηγίες. Το κείμενο αυτό καθίσταται αόρατο ρυθμίζοντας το μέγεθος της γραμματοσειράς στο μηδέν ή το χρώμα του ώστε να ταιριάζει με το φόντο. Το AI επεξεργάζεται αυτές τις κρυμμένες οδηγίες ως μέρος της άμεσης, προσαρμόζοντας ευφυώς την προειδοποίηση ασφαλείας του επιτιθέμενου για την κατά τα άλλα ακριβής περίληψη του ορατού κειμένου.
Το αποτέλεσμα είναι μια απρόσκοπτη εξαπάτηση. Ο χρήστης λαμβάνει μια σύνοψη που φαίνεται να προέρχεται από το Gemini, αλλά περιέχει ένα κακόβουλο ωφέλιμο φορτίο, όπως μια προειδοποίηση για να καλέσετε έναν ψεύτικο αριθμό υποστήριξης ή να επισκεφθείτε έναν ιστότοπο συγκομιδής διαπιστευτηρίων. Η εμπιστοσύνη στη μάρκα Google είναι οπλισμένη εναντίον τους. Αυτή η μέθοδος είναι ιδιαίτερα ύπουλη επειδή δεν απαιτεί κακόβουλες συνδέσεις ή συνημμένα στο ορατό περιεχόμενο, όπως σημειώνεται από ερευνητές ασφαλείας. Αυτό επιτρέπει στο αρχικό μήνυμα ηλεκτρονικού ταχυδρομείου να παρακάμψει πολλούς παραδοσιακούς σαρωτές ασφαλείας που κυνηγούν προφανείς κόκκινες σημαίες, καθιστώντας την ανίχνευση εξαιρετικά δύσκολη. Το βασικό ζήτημα είναι η αδυναμία του μοντέλου να διακρίνει μεταξύ των οδηγιών αξιόπιστου συστήματος και των μη αξιόπιστων δεδομένων τρίτου μέρους, ειδικά όταν τα δεδομένα αυτά έχουν σχεδιαστεί για να είναι παραπλανητικά. Με την περιτύλιξη της κρυμμένης εντολής σε μια ετικέτα όπως”, οι επιτιθέμενοι μπορούν να εξαπατήσουν το μοντέλο για να αντιμετωπίσουν την οδηγία ως οδηγία συστήματος υψηλής προτεραιότητας, καθιστώντας πιο πιθανό να συμμορφωθεί. Νέοι. Υπογραμμίζοντας το παιχνίδι Cat-and-Mouse μεταξύ των προγραμματιστών AI και των ερευνητών ασφαλείας. Λεπτομερείς πώς οι επιτιθέμενοι χρησιμοποίησαν το εργαλείο Vercel V0 AI για να δημιουργήσουν άμεσα pixel-τέλειες θέσεις phishing. Λεπτομερείς πως οι χάκερ που χρηματοδοτούνται από το κράτος χρησιμοποιούν το AI για να βελτιώσουν την επιχειρησιακή αποτελεσματικότητα. Για να δημιουργήσει πιστευτό περιεχόμενο για τους κυβερνοχώρους με όλο και πιο γρήγορο ρυθμό.”Αυτό το συναίσθημα μοιράζεται από τον CISO της Vercel, τον Ty Sbano, ο οποίος αναγνώρισε ότι”όπως κάθε ισχυρό εργαλείο, το V0 μπορεί να χρησιμοποιηθεί κατάχρηση. Πρόκειται για μια πρόκληση σε ολόκληρο τον κλάδο και στο Vercel επενδύουμε σε συστήματα και εταιρικές σχέσεις για να πιάσουμε γρήγορα την κατάχρηση”, υπογραμμίζοντας την ευρύτερη φύση της πρόκλησης. Ασφάλεια
Εμπειρογνώμονες από το 0din και άλλα καταστήματα ασφαλείας έχουν περιγράψει μια πολυεπίπεδη στρατηγική αμυντικής. Η έξοδος που δημιουργήθηκε για την ύποπτη γλώσσα, τους αριθμούς τηλεφώνου ή τις διευθύνσεις URL, που τους επισημαίνονται. αποτρέπει την επεξεργασία των κακόβουλων οδηγιών. Ότι, αν αφεθεί μη εξασφαλισμένη, γίνεται εκτελέσιμη απειλή. href=”https://blog.google/technology/safety-security/ai-and-the-future-of-national-security/”target=”_ blank”> Προειδοποιημένο ,”Η Αμερική κατέχει το προβάδισμα στον αγώνα AI-αλλά το πλεονέκτημα μας μπορεί να μην διαρκέσει”.