Οι επιτιθέμενοι εκμεταλλεύονται εσφαλμένα ανοικτά περιπτώσεις WebUI χρησιμοποιώντας κακόβουλο λογισμικό που παράγονται από AI σε συμβιβασμούς. Το Open Webui χρησιμοποιείται από τις δημοφιλείς πλατφόρμες AI chatbot όπως το Ollama και το LM Studio για να παρέχουν μια αυτο-φιλοξενούμενη διεπαφή με βάση το πρόγραμμα περιήγησης για αλληλεπίδραση με μεγάλα γλωσσικά μοντέλα.
Η εκλεπτυσμένη καμπάνια σηματοδοτεί μια κλιμάκωση. Τα εργαλεία AI τώρα όχι μόνο δημιουργούν κακόβουλα ωφέλιμα φορτία, αλλά είναι επίσης στόχοι εκμετάλλευσης. Οι επιθέσεις επηρεάζουν το Linux και τα Windows, με στόχο την εγκατάσταση κρυπτογράφων και infostealers μέσω προηγμένης φοροδιαφυγής.
Το περιστατικό αυτό υπογραμμίζει μια κρίσιμη νέα ευπάθεια, καθώς οι διεπαφές AI που έχουν σχεδιαστεί για την παραγωγικότητα μπορούν επίσης να γίνουν σημαντικές επιφάνειες επίθεσης εάν δεν είναι σωστά ασφαλισμένα. Η έρευνα του Sysdig διαπίστωσε ότι οι επιτιθέμενοι απέκτησαν την αρχική πρόσβαση σε ένα ανοιχτό σύστημα Webui, το οποίο εκτέθηκε στο διαδίκτυο με διοικητικά δικαιώματα και χωρίς έλεγχο ταυτότητας μεταφορτώντας ένα βαριά σενάριο Python. href=”https://sysdig.com/blog/attacker-exploits-misconfigured-ai-tool-to-run-ai-ai-payload/”target=”_ blank”> Μια ανάλυση ανιχνευτή κώδικα CHATGPT, που αναφέρθηκε από το Sysdig, κατέληξε στο συμπέρασμα ότι το σενάριο ήταν”πολύ πιθανό (~ 85-90%) είναι έντονα προς αυτή την κατεύθυνση”. Το κακόβουλο λογισμικό AI, που ονομάστηκε”Pyklump”από την ερευνητική ομάδα, χρησίμευσε ως ο κύριος φορέας για την επακόλουθη επίθεση. Αυτό ισχύει ιδιαίτερα καθώς τα αυτο-φιλοξενούμενα εργαλεία AI αναπτύσσονται σε δημοτικότητα. Ο Sysdig ανέφερε ότι μια διαφωνία Webhook διευκόλυνε τις επικοινωνίες εντολών και ελέγχου (C2). Αυτή η τεχνική είναι μια αυξανόμενη τάση, καθώς αναμειγνύεται εύκολα με τη νόμιμη κυκλοφορία του δικτύου. Επιπλέον, χρησιμοποίησαν «argvhider» για να κρύψουν τις κρίσιμες παραμέτρους γραμμής εντολών, όπως οι διευθύνσεις URL και οι διευθύνσεις πορτοφολιών εξόρυξης. Αυτό το εργαλείο επιτυγχάνει την αφάνεια μεταβάλλοντας το διάνυσμα επιχειρήματος της διαδικασίας στη μνήμη, έτσι ώστε τα εργαλεία επιθεώρησης να μην μπορούν να διαβάσουν τα αρχικά ευαίσθητα δεδομένα
Η διαδρομή επίθεσης των Windows που συνεπάγεται την εγκατάσταση του κιτ ανάπτυξης Java (JDK). Αυτό επρόκειτο να εκτελέσει ένα αρχείο κακόβουλου βάζου (Java Archive), Application-Ref.Jar, που κατεβάστηκε από διακομιστή C2. Αυτό το αρχικό βάζο ενήργησε ως φορτωτής για περαιτέρω κακόβουλα στοιχεία. Αυτές περιελάμβαναν int_d.dat, ένα Windows DLL 64-bit (βιβλιοθήκη δυναμικής σύνδεσης) που χαρακτηρίζει το XOR-decoding (μέθοδο κρυπτογράφησης) και την αποφυγή του sandbox.
Ένα άλλο στοιχείο ήταν int_j.dat. Το τελευταίο βάζο περιείχε ένα άλλο dll, app_bound_decryptor.dll, παράλληλα με διάφορους infostealers. Αυτά τα στοχευμένα διαπιστευτήρια από τις επεκτάσεις του προγράμματος περιήγησης Chrome και τη διαφωνία. Το ίδιο το app_bound_decryptor.dll χρησιμοποίησε την κωδικοποίηση XOR, που χρησιμοποιείται ονομαζόμενοι σωλήνες (μηχανισμός για επικοινωνία μεταξύ της επεξεργασίας) και ενσωματωμένα χαρακτηριστικά ανίχνευσης sandbox.
Ο αναπτυσσόμενος ρόλος του AI στη σύγκρουση στον κυβερνοχώρο
Αυτή η ανοικτή εκμετάλλευση webui είναι ένα πρόσφατο παράδειγμα μέσα σε ένα ευρύτερο πρότυπο, καθώς το AI ενσωματώνεται όλο και περισσότερο στις επιχειρήσεις στον κυβερνοχώρο. Ήδη από τον Οκτώβριο του 2024, η Microsoft ανέφερε μια αύξηση των κυβερνοεγκαταστάσεις που βασίζονται σε AI που υπερβαίνουν τα 600 εκατομμύρια ημερήσια περιστατικά, υπογραμμίζοντας ότι οι επιτιθέμενοι”βλέπουν αύξηση του τρόπου με τον οποίο οι εγκληματίες του κυβερνοχώρου μπορούν να αυτοματοποιήσουν τις μεθόδους τους μέσω του γενετικού AI”. Η έκθεση ψηφιακής άμυνας 2024 δήλωσε επίσης ότι”ο όγκος των επιθέσεων είναι πάρα πολύ μεγάλος για οποιαδήποτε ομάδα να χειριστεί μόνοι τους”
Ένας αυξανόμενος αριθμός καμπανιών κακόβουλου λογισμικού που χρησιμοποιεί τις ψεύτικες εφαρμογές και τα captchas για να στοχεύουν τους χρήστες. Συχνά χρησιμοποιούν εργαλεία AI Dark Web όπως το WormGPT και το FRAUDGPT για τη δημιουργία εξελιγμένων ηλεκτρονικών μηνυμάτων ηλεκτρονικού ταχυδρομείου ηλεκτρονικού”ψαρέματος”και κακόβουλου λογισμικού. Αυτό οφείλεται σε μεγάλο βαθμό στην ικανότητα της AI να δημιουργήσει πιο πειστικά και τοπικά δολάρια, σύμφωνα με την έκθεση Cloud και Threat της Netskope. Το LLMS μπορεί να παρέχει καλύτερους εντοπισμούς και περισσότερη ποικιλία για να προσπαθήσει να αποφύγει τα φίλτρα ανεπιθύμητης αλληλογραφίας και να αυξήσει την πιθανότητα να ξεγελάσει τα θύματα. Η Google, για παράδειγμα, ξεκίνησε το Sec-Gemini V1 τον Απρίλιο. Αυτό το μοντέλο AI βοηθά τους επαγγελματίες ασφαλείας με ανίχνευση και ανάλυση απειλών σε πραγματικό χρόνο. Αυτή η πρωτοβουλία ακολούθησε προηγούμενες επιτυχίες, όπως ο μεγάλος πράκτορας Sleep AI της Google, ο οποίος πέρυσι αναγνώρισε σημαντική ευπάθεια στον κινητήρα βάσης δεδομένων SQLite. Η Google είχε ανακοινώσει την ανακάλυψη και την αποκατάσταση αυτού του ελάττωμα προτού επηρεάσει τους χρήστες. Η Fortinet, τον περασμένο Νοέμβριο, επέκτεινε τα εργαλεία ασφαλείας του AI με νέες ενσωματώσεις για βελτιωμένη ανίχνευση απειλών. Τον Απρίλιο του 2025, η Google ενίσχυσε περαιτέρω τη στρατηγική ασφαλείας της AI, αποκαλύπτοντας την ενοποιημένη πλατφόρμα ασφαλείας της, η οποία ενσωματώνει τη Gemini AI για να εδραιώσει την ανίχνευση και την ανταπόκριση των απειλών με τη χρήση δομημένης συλλογιστικής. Αυτό έρχεται σε αντίθεση με προσεγγίσεις όπως το Copilot Security της Microsoft, το οποίο επικεντρώνεται περισσότερο στη αρθρωτή αυτοματοποίηση.