Angreifer nutzen falsch konfigurierte offene Webui-Instanzen mithilfe von AI-generierten Malware, um Systeme zu beeinträchtigen. Open Webui wird von beliebten AI-Chatbot-Plattformen wie Ollama und LM Studio verwendet, um eine selbst gehostete, browserbasierte Schnittstelle für die Interaktion mit großartigen Modellen zu bieten.
Die ausgefeilte Kampagne markiert eine besorgniserregende Eskalation. KI-Tools erzeugen jetzt nicht nur böswillige Nutzlasten, sondern sind auch Ausbeutungsziele. Die Angriffe wirken sich auf Linux und Windows aus und zielen darauf ab, Kryptionsmittel und Infostaler durch fortgeschrittene Umgehung zu installieren. Die Untersuchung von Sysdig ergab, dass Angreifer anfängliche Zugriff auf ein offenes Webui-System erhielten, das online mit administrativen Rechten und keine Authentifizierung ausgesetzt wurde, indem ein stark verschleierter Python-Skript hochgeladen wurde. href=”https://sysdig.com/blog/attacker-exploits-misconfigured-ai-tool-to–lun-aigenated-payload/”target=”_ leer”> stellten die Forscher fest stilistische Kennzeichen der AI-Generation. Eine von Sysdig zitierte ChatGPT-Code-Detektoranalyse kam zu dem Schluss, dass das Skript „sehr wahrscheinlich (~ 85–90%) generiert oder stark unterstützt ist. Die von dem Forschungsteam als”Pyklump”bezeichnete AI-unterstützte Malware diente als Hauptvektor für den folgenden Angriff. Dies gilt insbesondere dann, da selbst gehostete KI-Tools immer beliebter werden. Sysdig berichtete, dass eine Discord-Webhook-Kommunikation mit Befehls-und Steuerungskommunikation (C2) erleichtert wurde. Diese Technik ist ein wachsender Trend, da sie leicht mit dem legitimen Netzwerkverkehr einbindet. Darüber hinaus verwendeten sie „Argvhider“, um wichtige Befehlszeilenparameter wie Mining-Pool-URLs und Brieftaschenadressen zu verbergen. Dieses Tool erreicht die Dunkelheit, indem der Argumentvektor des Prozesses im Speicher geändert wird, sodass Inspektionstools die ursprünglichen sensiblen Daten nicht lesen können. Der Windows-Angriffspfad beinhaltete die Installation des Java Development Kit (JDK). Dies bestand darin, eine böswillige Jar-Datei (Java Archive), Application-ref.jar, von einem C2-Server heruntergeladen zu haben. Dieses anfängliche Glas fungierte als Lader für weitere böswillige Komponenten. Dazu gehörten int_d.dat, eine 64-Bit-Windows-DLL-Bibliothek (dynamische Linkbibliothek) mit XOR-Dekodierung (eine Verschlüsselungsmethode) und Sandbox-Ausweichen.
Eine andere Komponente war int_j.dat. Das letztere Glas enthielt neben verschiedenen Infostalern eine weitere DLL, app_bound_decryptor.dll. Diese gezielten Anmeldeinformationen aus Chrom-Browser-Erweiterungen und Zwietracht. Der App_Bound_Decryptor.dll selbst verwendete XOR-Codierung, verwendete mit dem Namen Pipes (ein Mechanismus für die Kommunikation mit Interprozess) und die Erkennung von Sandboxen.
AI von Cyber -Konflikten
Diese offene Webui-Ausbeutung ist ein aktuelles Beispiel innerhalb eines breiteren Musters, da KI zunehmend in Cyberkriminelle integriert wird. Bereits im Oktober 2024 berichtete Microsoft über einen Anstieg der AI-gesteuerten Cyberangriffe von mehr als 600 Millionen täglichen Vorfällen, was hervorgehoben wurde, dass Angreifer”eine Zunahme der Art und Weise sehen, wie Cyberkriminale ihre Methoden durch generative AI automatisieren können”. In ihrem digitalen Verteidigungsbericht 2024 wurde auch festgestellt, dass „das Volumen der Angriffe für eine Gruppe zu groß ist, um ihre eigenen zu bewältigen“
Eine zunehmende Anzahl von AI-gesteuerten Malware-Kampagnen verwenden gefälschte Anwendungen und Captchas, um Benutzer zu zielen. Sie verwenden häufig dunkle Web-KI-Tools wie Wormgpt und Betrugsgpt, um ausgefeilte Phishing-E-Mails und Malware zu erstellen. Dies wurde hauptsächlich auf die Fähigkeit von AI zurückgeführt, überzeugende und lokalisierte Köder zu schaffen, so Netskopes Cloud-und Bedrohungsbericht. LLMs können eine bessere Lokalisierung und mehr Abwechslung bieten, um Spamfiltern auszuweichen und die Wahrscheinlichkeit zu erhöhen, Opfer zu täuschen. Google hat beispielsweise im April SEC-Gemini V1 gestartet. Dieses KI-Modell unterstützt Sicherheitsexperten bei der Erkennung und Analyse von Bedrohungen in Echtzeit. Diese Initiative folgte frühere Erfolge, wie beispielsweise Googles Big Sleep AI-Agent, der im vergangenen Jahr eine erhebliche Anfälligkeit in der SQLite-Datenbank-Engine identifizierte. Google hatte die Entdeckung und Sanierung dieses Fehlers angekündigt, bevor er die Benutzer beeinflusste. Fortinet hat im vergangenen November seine KI-Sicherheitsinstrumente mit neuen Integrationen für eine verbesserte Erkennung von Bedrohungen erweitert. Im April 2025 verfestigte Google seine KI-Sicherheitsstrategie weiter durch die Enthüllung seiner einheitlichen Sicherheitsplattform, die die Gemini-AI zur Konsolidierung der Bedrohungserkennung und-reaktion unter Verwendung strukturierter Argumentation integriert. Dies steht im Gegensatz zu Ansätzen wie dem Sicherheitscopilot von Microsoft, der sich mehr auf die modulare Automatisierung konzentriert.