Atakerzy wykorzystują błędnie skonfigurowane otwarte instancje WebUi za pomocą złośliwego oprogramowania wygenerowanego przez AI do kompromisowych systemów. Otwarte WebUi jest używane przez popularne platformy AI Chatbot, takie jak Ollama i LM Studio, aby zapewnić samozwańczy interfejs oparty na przeglądarce do interakcji z dużymi modelami języka.
Wyrafinowana kampania oznacza eskalację. Narzędzia sztucznej inteligencji nie tylko tworzą złośliwe ładunki, ale także cele eksploatacyjne. Ataki wpływają na Linux i Windows, mające na celu zainstalowanie kryptominerów i infostealatorów poprzez zaawansowane uchylanie się.
Ten incydent podkreśla nową krytyczną podatność, ponieważ interfejsy AI zaprojektowane dla wydajności mogą również stać się znaczącymi powierzchniami ataku, jeśli nie są odpowiednio zabezpieczone. Dochodzenie Sysdiga wykazało, że atakujący osiągnęli początkowy dostęp do otwartego systemu WebUi, który został ujawniony online z prawami administracyjnymi i bez uwierzytelniania, przesyłając mocno zaciemniony skrypt Python.
href=”https://sysdig.com/blog/attacker-exploits-misconfigured-ai-tool-to-run-ai-generated-tayload/”target=”_ blank”> badacze zauważyli stylistyczne halutarmarki generacji AI. Analiza detektora kodu chatgpt, cytowana przez SYSDIG, doszła do wniosku, że skrypt był „wysoce prawdopodobny (~ 85–90%) jest generowany AI lub mocno wspomagany. Zespół badawczy wspomagane przez AI-AI, nazwane przez zespół badawczy „Pyklump”, służyło jako główny wektor do następnego ataku.
AI podwójną rolę-narzędzie do tworzenia złośliwego oprogramowania i celów eksploatacyjnych-przedstawia nowe wyzwanie związane z bezpieczeństwem cybernetycznym i ułatwia pilną potrzebę bezpieczeństwa w zakresie zastosowań AI i infrastruktury. Jest to szczególnie prawdziwe wraz ze wzrostem popularności narzędzi AI.
Anatomia wtargnięcia napędzanego przez AI
Skrypt Pythona generowanego przez AI, po wykonaniu za pomocą otwartych narzędzi WebUI, zainicjował wieloetapowy zamieszanie. SYSDIG zgłosił komunikację Discord Webhook, ułatwioną komunikację dowodzenia i kontroli (C2). Ta technika jest rosnącą trendem, ponieważ łatwo łączy się z legalnym ruchem sieciowym.
Aby uniknąć wykrycia, atakujący wykorzystali „procesher”, narzędzie, które powoduje, że złośliwe procesy, takie jak kryptominery, znika ze standardowych ofert systemowych poprzez przechwycenie i modyfikowanie wyjściowych wywołań systemów procesowych. Ponadto używali „argvhider” do ukrycia kluczowych parametrów wiersza poleceń, takich jak wyniszczowe adresy URL basenów i portfele; To narzędzie osiąga niejasność, zmieniając wektor argumentu procesu w pamięci, aby narzędzia inspekcji nie mogły odczytać oryginalnych wrażliwych danych
Ścieżka ataku systemu Windows polegała na instalacji zestawu programistycznego Java (JDK). Miało to uruchomić plik złośliwego słoika (archiwum Java), Application-ref.jar, pobrany z serwera C2. Ten początkowy słoik działał jako ładowarka dla dalszych złośliwych elementów. Obejmowały one INT_D.DAT, 64-bitowy DLL Windows (Dynamic Link Library) zawierający Xor-Decoding (metoda szyfrowania) i uchylanie się od piaskownicy.
Innym komponentem był int_j.dat. Ten ostatni słoik zawierał kolejny DLL, app_bound_decryptor.dll, wraz z różnymi infostealecami. Te ukierunkowane poświadczenia z rozszerzeń i niezgody przeglądarki Chrome. App_bound_decryptor.dll zastosował kodowanie XOR, używane o nazwie rur (mechanizm komunikacji między procesami) i włączono funkcje wykrywania piaskownicy.
Ponad 17 000 otwartych instancji Webui jest podobno narażonych online, zgodnie z danymi Shodan cytowanymi przez SYSDIG, które tworzą znaczącą potencjalną powierzchnię ataku.
Rozszerzająca się rola AI w cyberplii
Ta otwarta eksploatacja webUI jest najnowszym przykładem w szerszym wzorze, ponieważ AI jest coraz częściej zintegrowana z operacjami cyberprzestępcznymi. Już w październiku 2024 r. Microsoft zgłosił wzrost cyberataków opartych na AI przekraczający 600 milionów dziennych incydentów, co podkreśla, że napastnicy „obserwują wzrost cyberprzestępców może zautomatyzować swoje metody poprzez generatywne AI”. Ich cyfrowy raport obrony 2024 stwierdził również, że „ilość ataków jest po prostu zbyt duża, aby każda jedna grupa mogła sobie poradzić na własną rękę”
Rosnąca liczba kampanii złośliwego oprogramowania związanego z AI korzysta z fałszywych aplikacji i captchas, aby celować w użytkowników. Często używają ciemnych narzędzi AI Web, takich jak WormGpt i FraudGPT do tworzenia wyrafinowanych e-maili phishingowych i złośliwego oprogramowania.
Do stycznia 2025 r. Wskaźniki sukcesu ataku phishingowego podobno potroiły się rok do roku. Zgodnie z raportem Cloud i zagrożeń NetSkope, w dużej mierze przypisano to zdolności AI do tworzenia bardziej przekonujących i zlokalizowanych przynęt. LLM mogą zapewnić lepszą lokalizację i większą różnorodność, aby próbować uniknąć filtrów spamowych i zwiększyć prawdopodobieństwo oszukiwania ofiar.
Rasa zbrojeń cyberbezpieczeństwa AI
Podczas gdy napastnicy wykorzystują AI, przemysł cyberbezpieczeństwa jednocześnie rozwija defensatę AI. Na przykład Google uruchomił SEC-Gemini V1 w kwietniu. Ten model AI pomaga specjalistom ds. Bezpieczeństwa w wykrywaniu zagrożeń w czasie rzeczywistym i analizie. Ta inicjatywa odbyła się wcześniejszych sukcesów, takich jak agent AI Big Sleep Google, który w ubiegłym roku zidentyfikował znaczną podatność w silniku bazy danych SQLITE. Google ogłosił odkrycie i naprawę tej wady, zanim wpłynęło to na użytkowników.
Inni główni dostawcy również wzmacniają swoje możliwości AI. Fortinet, w listopadzie ubiegłego roku rozszerzył swoje narzędzia bezpieczeństwa sztucznej inteligencji o nowe integracje w celu lepszego wykrywania zagrożeń. W kwietniu 2025 r. Google ustalił swoją strategię bezpieczeństwa sztucznej inteligencji, ujawniając swoją zunifikowaną platformę bezpieczeństwa, która integruje Gemini AI do konsolidacji wykrywania zagrożeń i reakcji przy użyciu ustrukturyzowanego rozumowania. Kontrastuje to z podejściami takimi jak Security Copilot firmy Microsoft, który koncentruje się bardziej na automatyzacji modułowej.