攻擊者正在使用AI生成的惡意軟件來利用錯誤配置的打開WebUI實例來損害系統。 Open WebUI被流行的AI聊天機器人平台(例如Ollama和LM Studio)使用,以提供一個自託管的,基於瀏覽器的界面,用於與大語言模型進行交互。 

複雜的廣告系列標誌著有關升級的一個。 AI工具現在不僅制定惡意有效載荷,而且是剝削目標。攻擊會影響Linux和Windows,旨在通過高級逃避來安裝加密機構和InfosoStealer。

此事件突出了一個至關重要的新漏洞,因為設計用於生產力的AI接口(如果無法正確保護)也可以變為重要的攻擊表面。 Sysdig的調查發現,攻擊者最初可以訪問開放的WebUI系統,該系統通過上傳大量混淆的Python腳本。

研究人員指出了 AI Generation的風格標誌。 Sysdig引用的ChatGpt代碼探測器分析得出的結論是,該腳本“很有可能(約85-90%)是AI生成的或重大的AI輔助。對邊緣案例的細緻關注,平衡的跨平台邏輯,結構化的示威型和統一的格式在該方向上強烈。 ” AI輔助惡意軟件被研究團隊稱為“ Pyklump”,是隨後攻擊的主要向量。

ai的雙重角色(一種創建惡意軟件和剝削目標的工具)-負責新的網絡安全挑戰和高高的迫切需求,即圍繞AI應用程序進行嚴格的安全性和INFRASTRASTRASITION和INFRASTRASURASTURATION和INFRASTRASURASTURESTURATION和INFRASTRASURESTURES。隨著自我託管的AI工具在受歡迎程度上增長。

AI驅動的入侵的解剖結構

曾經通過open webui工具執行的AI生成的Python腳本,啟動了多階段的妥協。 Sysdig報導了一個Discord Webhook促進命令和控制(C2)通信。該技術是一種增長的趨勢,因為它很容易將其與合法的網絡流量融為一體。

為了避免檢測,攻擊者利用了“ ProcessHider”,該實用程序使諸如隱ryptominers之類的惡意流程通過攔截和修改流程快速系統呼叫的輸出而從標準系統列表中消失。此外,他們使用“ argvhider”隱藏關鍵的命令行參數,例如採礦池URL和錢包地址。該工具通過在內存中更改過程的參數向量來實現晦澀難懂,以便檢查工具無法讀取原始敏感數據

Windows攻擊路徑涉及安裝Java開發套件(JDK)。這是為了運行從C2服務器下載的惡意罐(Java Archive)文件Application-ref.jar。這個最初的罐子充當了更多惡意組件的裝載機。其中包括INT_D.DAT,一個64位Windows DLL(動態鏈接庫),具有XOR編碼(一種加密方法)和SandBox Exusion。

另一個組件是int_j.dat。後一個罐子包含另一個dll,app_bound_decryptor.dll,以及各種InfoStealer。這些來自Chrome瀏覽器擴展和不和諧的有針對性憑證。 app_bound_decryptor.dll本身採用XOR編碼,使用了名為Pipes(一種用於過程間通信的機制)和合併的沙盒檢測功能。

據報導,根據Sysdig所引用的Shodan數據,可以在線曝光17,000多個開放式webUI實例,從而產生了實質性的潛在攻擊表面。 

AI在網絡衝突中的擴展作用

這種開放的webUI開發是更廣泛模式中的一個示例,因為AI越來越多地集成到網絡犯罪分子操作中。早在2024年10月,微軟就報告了AI驅動的網絡攻擊激增,每天發生的事件超過6億次,這強調了攻擊者“看到網絡犯罪分子可以通過生成AI自動化其方法的增加。 “他們的數字防禦報告2024還指出:“攻擊的數量太大了,任何人都無法自行處理”

越來越多的AI-Drive惡意軟件活動正在使用偽造的應用程序和Captchas來實現目標用戶。他們經常使用諸如Wormgpt和欺詐的黑暗網絡AI工具來製作複雜的網絡釣魚電子郵件和惡意軟件。

到2025年1月,據報導,網絡釣魚攻擊成功率逐年增加了三倍。根據Netskope的雲和威脅報告,這在很大程度上歸因於AI創建更具說服力和本地化的誘餌的能力。 LLM可以提供更好的本地化和更多的品種來試圖逃避垃圾郵件過濾器並增加欺騙受害者的可能性。

AI網絡安全武器競賽

攻擊者利用AI,而網絡安全行業則同時發展了AI-Powers powers powers的防禦力。例如,Google在4月推出了SEC-Gemini V1。該AI模型有助於安全專業人員進行實時威脅檢測和分析。這項舉措遵循了早期的成功,例如Google的Big Sleep AI代理,去年確定了SQLite數據庫引擎中的重大脆弱性。 Google宣布了在影響用戶之前發現和修復該缺陷。

其他主要供應商也支持其AI功能。 Fortinet,去年11月,擴大了其AI安全工具,並提供了新的集成,以改善威脅檢測。 2025年4月,Google通過揭示其統一的安全平台,進一步鞏固了其AI安全策略,該平台將Gemini AI集成以使用結構化推理鞏固威脅檢測和響應。這與Microsoft的Security Copilot之類的方法形成鮮明對比,該方法更著重於模塊化自動化。

Categories: IT Info