A

A támadók az AI által generált rosszindulatú szoftverek segítségével a téves konfigurált Open Webui példányokat használják ki a rendszerek veszélyeztetésére. Az Open Webui-t olyan népszerű AI chatbot platformok használják, mint például az Ollama és az LM Studio, hogy önálló, böngésző-alapú felületet biztosítsanak a nagy nyelvi modellekkel való interakcióhoz. 

A kifinomult kampány az eszkalációt érinti. Az AI Tools most nemcsak a rosszindulatú hasznos rakományokat is készíti, hanem kizsákmányolási célok is. A támadások befolyásolják a Linux-ot és a Windowsot, amelynek célja a kriptominerek és az infostealerek telepítésének előrehaladott kijátszás útján történő telepítése. A Sysdig vizsgálata szerint a támadók kezdeti hozzáférést szereztek egy nyitott Webui rendszerhez, amelyet online közigazgatási jogokkal tettek ki, és nincs hitelesítés egy erősen elárasztott python szkript feltöltésével. href=”https://sysdig.com/blog/attacker-exploits-misconfigured-ai-tool-to-run—-enerated-payload/”Target=”_ üres”> A kutatók megjegyezték az AI generáció stilisztikai hallmarkáit. A CHYSDIG által idézett CHATGPT-kóddetektor elemzés azt a következtetést vonta le, hogy a szkript „nagyon valószínű (~ 85–90%) AI-generált vagy erősen AI-asszisztens. A kutatócsoport „Pyklump”-nak nevezett AI-asszisztált rosszindulatú programok a következő támadás elsődleges vektoraként szolgáltak. Ez különösen igaz, amikor az önálló AI-eszközök népszerűsége növekszik. A Sysdig egy Discord WebHook megkönnyített parancs-és vezérlő (C2) kommunikációról számolt be. Ez a technika egyre növekvő tendencia, mivel könnyen összekevered a legitim hálózati forgalmat. Ezenkívül az „Argvhider”-t használták a kritikus parancssori paraméterek elrejtésére, például a bányászati ​​medencék URL-ek és a pénztárca címek; Ez az eszköz homályosságot ér el azáltal, hogy megváltoztatja a folyamat argumentumvektorát a memóriában, így az ellenőrző eszközök nem tudják olvasni az eredeti érzékeny adatokat

A Windows Attack elérési útja a Java Development Kit (JDK) telepítését jelentette. Ennek célja egy rosszindulatú JAR (Java Archive) fájl futtatása volt, az Application-REF.jar, a C2 szerverről letöltve. Ez a kezdeti edény rakodóként működött a további rosszindulatú alkatrészekhez. Ide tartoztak az Int_d.dat, egy 64 bites Windows DLL (Dinamic Link Library), amelyen XOR-decoding (titkosítási módszer) és a homokozó kialakulását tartalmazza. Az utóbbi edény egy másik DLL-t, az APP_BOUND_DECRYPTOR.DLL-t tartalmazott, a különféle infostealerek mellett. Ezek a célzott hitelesítő adatok a Chrome böngésző-kiterjesztésekből és a diszkrécióból. Az APP_BOUND_DECRYPTOR.DLL maga alkalmazta XOR kódolást, a nevezett csöveket (a folyamatközi kommunikáció mechanizmusa) és a beépített homokozó detektálási funkciókat. 

ai bővítő szerepe a számítógépes konfliktusban

Ez a nyílt webui kizsákmányolás egy legfrissebb példa egy szélesebb mintán belül, mivel az AI egyre inkább integrálódik a számítógépes műveletekbe. Már 2024 októberében a Microsoft a 600 millió napi eseményt meghaladó AI-vezérelt kibertámadások növekedését jelentette, kiemelve, hogy a támadók „növelik azt, hogy a számítógépes bűnözők hogyan képesek automatizálni módszereiket a generatív AI révén”. A 2024-es digitális védelmi jelentésük azt is kijelentette, hogy „a támadások mennyisége túl nagy ahhoz, hogy bármelyik csoport saját magának kezelje”

Egyre több AI-vezérelt malware kampány használ hamis alkalmazásokat és captCHA-kat a felhasználók számára. Gyakran használnak sötét Web AI eszközöket, mint például a WormGPT és a FaudGPT a kifinomult adathalász e-mailek és a rosszindulatú programok készítéséhez. A Netskope Cloud és fenyegetés jelentése szerint ezt nagymértékben az AI képességének tulajdonítják, hogy meggyőzőbb és lokalizáltabb csaliket hozzon létre. Az LLMS jobb lokalizációt és több változatosságot biztosíthat a spamszűrők elkerülésére és az áldozatok bolondozásának valószínűségének növelésére. A Google például áprilisban indította el a SEC-Gemini V1-et. Ez az AI modell segíti a biztonsági szakembereket a valós idejű fenyegetések észlelésében és elemzésében. Ez a kezdeményezés a korábbi sikereket követte, mint például a Google Big Sleep AI ügynöke, amely tavaly jelentős sebezhetőséget azonosított az SQLite Database motorjában. A Google bejelentette ennek a hibának a felfedezését és orvoslását, mielőtt a felhasználókat érinti. A Fortinet tavaly novemberben kibővítette AI biztonsági eszközeit új integrációval a fenyegetések jobb észlelése érdekében. 2025 áprilisában a Google tovább erősítette az AI biztonsági stratégiáját az egységes biztonsági platform bemutatásával, amely integrálja a Gemini AI-t a fenyegetések észlelésének és válaszának konszolidálására a strukturált érveléssel. Ez ellentétben áll olyan megközelítésekkel, mint a Microsoft Security Copilot, amely inkább a moduláris automatizálásra összpontosít.

Categories: IT Info