Ang mga umaatake ay nagsasamantala sa maling pag-configure ng mga bukas na webui na mga pagkakataon gamit ang ai-generated malware upang makompromiso ang mga system. Ang Open WebUI ay ginagamit ng mga sikat na platform ng AI chatbot tulad ng Ollama at LM Studio upang magbigay ng isang self-host, interface na batay sa browser para sa pakikipag-ugnay sa mga malalaking modelo ng wika.
Ang sopistikadong kampanya ay nagmamarka ng isang tungkol sa pagtaas. Ang mga tool ng AI ngayon ay hindi lamang mga malisyosong kargamento ngunit ang mga target na pagsasamantala din. Ang pag-atake ay nakakaapekto sa Linux at Windows, na naglalayong mag-install ng mga cryptoater at infostealers sa pamamagitan ng advanced na pag-iwas. Ang pagsisiyasat ni Sysdig ay natagpuan ang mga umaatake na nakakuha ng paunang pag-access sa isang bukas na sistema ng webui, na nakalantad sa online na may mga karapatan sa administratibo at walang pagpapatunay sa pamamagitan ng pag-upload ng isang mabigat na na-obfuscated python script. href=”https://sysdig.com/blog/attacker-exploits-misconfigured-ai-tool-to-run-ai-generated-payload/”target=”_ blangko”> nabanggit ng mga mananaliksik stylistic hallmars ng AI generation. Ang isang pagsusuri ng detektor ng CHATGPT Code, na binanggit ni Sysdig, ay nagtapos na ang script ay”lubos na malamang (~ 85-90%) ay nabigyan ng AI-nabigyan ng halaga o mabigat na AI-tinulungan. Ang masalimuot na pansin sa mga kaso ng gilid, balanseng cross-platform logic, nakabalangkas na dokumento, at unipormeng formating point na malakas sa direksyon na iyon.”Ang AI-assisted malware, na tinawag na”Pyklump”ng pangkat ng pananaliksik, ay nagsilbi bilang pangunahing vector para sa sumunod na pag-atake. Ito ay totoo lalo na habang ang mga tool na naka-host sa sarili ay lumalaki sa katanyagan. Iniulat ni Sysdig ang isang Discord Webhook na pinadali ang Command and Control (C2) na komunikasyon. Ang pamamaraan na ito ay isang lumalagong takbo dahil madali itong pinagsama sa lehitimong trapiko sa network. Bukod dito, ginamit nila ang’argvhider’upang itago ang mga mahahalagang parameter ng command-line, tulad ng mga url ng pagmimina at mga address ng pitaka; Ang tool na ito ay nakakamit ng pagiging malalim sa pamamagitan ng pagbabago ng vector ng argumento ng proseso upang ang mga tool sa inspeksyon ay hindi mabasa ang orihinal na sensitibong data
Ang landas ng pag-atake ng Windows na kasangkot sa pag-install ng Java Development Kit (JDK). Ito ay upang magpatakbo ng isang nakakahamak na garapon (Java Archive) file, application-ref.jar, na-download mula sa isang server ng C2. Ang paunang garapon na ito ay kumilos bilang isang loader para sa karagdagang mga nakakahamak na sangkap. Kasama dito ang int_d.dat, isang 64-bit na Windows DLL (dynamic na library ng link) na nagtatampok ng xor-decoding (isang paraan ng pag-encrypt) at pag-iwas sa sandbox.
Ang isa pang sangkap ay int_j.dat. Ang huli na garapon ay naglalaman ng isa pang DLL, app_bound_decryptor.dll, kasama ang iba’t ibang mga infostealer. Ang mga naka-target na kredensyal mula sa mga extension ng browser ng Chrome at pagtatalo. Ang app_bound_decryptor.dll mismo ay nagtatrabaho XOR encoding, ginamit na pinangalanang mga tubo (isang mekanismo para sa inter-process na komunikasyon), at isinama ang mga tampok ng pagtuklas ng sandbox.
Maaga pa noong Oktubre 2024, iniulat ng Microsoft ang isang pag-akyat sa mga cyberattacks na hinihimok ng AI na lumampas sa 600 milyong pang-araw-araw na insidente, na binibigyang diin na ang mga umaatake ay”nakakakita ng pagtaas sa kung paano mai-automate ng mga cybercriminals ang kanilang mga pamamaraan sa pamamagitan ng generative AI.”Ang kanilang Digital Defense Report 2024 ay nagsabi din na”ang dami ng pag-atake ay napakahusay lamang para sa sinumang pangkat na hawakan sa kanilang sariling”
Kadalasan ay gumagamit sila ng madilim na web AI tool tulad ng WormGPT at Fraudgpt para sa paggawa ng mga sopistikadong phishing emails at malware. Ito ay higit na naiugnay sa kakayahan ng AI na lumikha ng mas nakakumbinsi at naisalokal na mga pang-akit, ayon sa ulat ng Cloud and Threat ng Netskope. Ang mga LLM ay maaaring magbigay ng mas mahusay na lokalisasyon at mas maraming iba’t-ibang upang subukang maiwasan ang mga filter ng spam at dagdagan ang posibilidad ng mga niloloko na biktima. Halimbawa, inilunsad ng Google ang SEC-Gemini v1 noong Abril. Ang modelong AI na ito ay tumutulong sa mga propesyonal sa seguridad na may real-time na pagbabanta at pagsusuri. Ang inisyatibo na ito ay sumunod sa mga naunang tagumpay, tulad ng Big Sleep AI Agent ng Google na noong nakaraang taon ay nakilala ang isang makabuluhang kahinaan sa SQLite database engine. Inanunsyo ng Google ang pagtuklas at remediation ng kapintasan na iyon bago ito nakakaapekto sa mga gumagamit. Ang Fortinet, noong nakaraang Nobyembre ay pinalawak ang mga tool sa seguridad ng AI na may mga bagong pagsasama para sa pinabuting pagbabanta ng banta. Noong Abril 2025, lalo pang pinatibay ng Google ang diskarte sa seguridad ng AI sa pamamagitan ng pag-unve ng pinag-isang platform ng seguridad, na nagsasama ng Gemini AI upang pagsamahin ang pagbabanta at pagtugon gamit ang nakabalangkas na pangangatuwiran. Ito ay kaibahan sa mga pamamaraang tulad ng security copilot ng Microsoft, na higit na nakatuon sa modular automation.