Antropik firma AI mendedahkan hari ini bahawa model AI yang maju sedang aktif disembah oleh penjenayah siber untuk serangan canggih, end-to-end. Dalam laporan perisikan ancaman baru, syarikat itu memperincikan trend yang mengganggu ia memanggil”penggodam getaran,”di mana seorang pelakon berniat jahat menggunakan agen AI seperti Claude sebagai kedua-dua perunding teknikal dan pengendali aktif.
Ia membolehkan pelaku ancaman dengan kemahiran terhad untuk membina ransomware, menganalisis data yang dicuri, dan juga membantu koperasi Korea Utara secara fraud dengan selamat menjamin pekerjaan berteknologi tinggi untuk membiayai program yang ditaja oleh negara. Ini menandakan evolusi yang signifikan dalam penggunaan AI untuk tujuan berniat jahat.”Sistem AI AIS sedang dipersembahkan.”Ini menggerakkan ancaman melampaui bantuan mudah untuk pelaksanaan serangan aktif oleh agen AI. Memperkenalkan istilah”penggodam getaran”sebagai metodologi yang mewakili evolusi dalam jenayah siber AI-dibantu. Pendekatan ini melihat AI berfungsi sebagai perunding teknikal dan pengendali aktif, yang membolehkan serangan yang akan menjadi lebih sukar bagi individu untuk melaksanakan secara manual. Ia menandakan peralihan asas dari AI sebagai alat mudah kepada AI sebagai rakan kongsi dalam operasi. Operasi Cybercriminal (dikesan sebagai GTG-2002) di mana seorang pelakon menggunakan ejen kod Claude untuk menjalankan kempen pemerasan data berskala. Dalam masa satu bulan, operasi itu dikompromikan sekurang-kurangnya 17 organisasi yang berbeza di seluruh sektor seperti penjagaan kesihatan, perkhidmatan kecemasan, dan kerajaan.
AI bukan sekadar mengikuti skrip. Walaupun pelakon menyediakan fail panduan dengan taktik pilihan, ejen itu masih dimanfaatkan untuk membuat keputusan taktikal dan strategik. Ia menentukan cara terbaik menembusi rangkaian, data apa yang hendak dikeluarkan, dan bagaimana untuk membuat tuntutan perasmian yang disasarkan secara psikologi.
Operasi menunjukkan integrasi AI yang belum pernah terjadi sebelumnya di seluruh kitaran hayat serangan. Dalam fasa peninjauan, ejen mengautomasikan pengimbasan beribu-ribu titik akhir VPN untuk mengenal pasti sistem yang terdedah. Semasa pencerobohan, ia memberikan bantuan masa nyata, mengenal pasti sistem kritikal seperti pengawal domain dan mengekstrak kelayakan.
Kod Claude juga digunakan untuk pembangunan malware tersuai. Ia mencipta versi yang obfuscated alat terowong sedia ada untuk menghindari Windows Defender dan bahkan membangunkan kod proksi TCP yang baru dari awal. Apabila percubaan pengelakan awal gagal, AI mencadangkan teknik-teknik baru seperti penyulitan rentetan dan nama fail yang menyamar untuk menyamar sebagai executable yang berniat jahat. Ia menganalisis data yang dicuri untuk mewujudkan strategi pemerasan pelbagai peringkat, menghasilkan”pelan keuntungan”yang terperinci yang termasuk pemerasan organisasi langsung, jualan data kepada penjenayah lain, dan memberi tekanan kepada individu yang datanya dikompromi. href=”https://www.theverge.com/ai-artificial-intelligence/766435/anthropic-claude-threat-intelligence-report-ai-cybersecurity-hacking”sasaran=”_ blank”AI mengira jumlah tebusan yang optimum berdasarkan analisisnya, dengan tuntutan kadang-kadang melebihi $ 500,000. Ini secara asasnya mengubah landskap ancaman, menjadikannya lebih sukar untuk menilai kecanggihan penyerang berdasarkan kerumitan operasi mereka sahaja. href=”https://www-cdn.anthropic.com/b2a76c6f69992465c09a6f2fce282f6c0cea8c200.pdf”target=”_ blank”Laporan itu menyatakan,”AI merendahkan halangan kepada jenayah siber yang canggih.”Ini bukan risiko teoritis; Syarikat itu mengenal pasti pelakon yang berpangkalan di UK (GTG-5004) yang sempurna merangkumi paradigma baru ini. Pelakon itu tidak dapat melaksanakan penyulitan kompleks atau menyelesaikan masalah teknikal tanpa bantuan Claude, namun berjaya memasarkan dan menjual ransomware yang mampu. DLL ransomware asas dan boleh dilaksanakan ditawarkan dengan harga $ 400, kit RAAS penuh dengan konsol php yang selamat dan alat-alat yang dikendalikan dan dikawal dengan harga yang tidak dapat dikesan untuk mendapatkan Pelakon itu mengekalkan keselamatan operasi dengan mengedarkan melalui laman web. Dan menggunakan e-mel yang disulitkan, dengan menipu mendakwa produk itu”untuk penggunaan pendidikan dan penyelidikan sahaja”semasa mengiklankan di forum jenayah. Ciri-ciri terasnya termasuk cipher aliran ChaCHA20 untuk penyulitan fail, penggunaan API Windows CNG untuk pengurusan kunci RSA, dan mekanisme anti-pemulihan seperti penghapusan salinan bayang-bayang volum untuk mencegah pemulihan mudah. Kaedah ini menggunakan penyerahan syscall langsung untuk memintas cangkuk API mod pengguna yang biasa digunakan oleh penyelesaian EDR. Ini mewakili transformasi operasi yang signifikan di mana kecekapan teknikal disalurkan kepada AI dan bukannya diperoleh melalui pengalaman.
Insiden ini hanyalah satu contoh trend industri AI yang lebih luas. Seperti laporan Winbuzzer sebelumnya telah terperinci, peralihan ini dapat dilihat di seluruh landskap ancaman, dari penyerang yang menggunakan V0 V0 untuk”phishing segera”ke evolusi alat-alat seperti wormgpt, yang kini merampas model-model yang sah seperti grok dan mixtral. Membongkar kempen yang sistematik dan canggih oleh pekerja IT Korea Utara yang memanfaatkan Claude untuk mendapatkan dan mengekalkan pekerjaan teknologi tinggi di syarikat Fortune 500. Menurut siasatan antropik, operasi ini direka untuk mengelakkan sekatan antarabangsa dan menjana beratus-ratus juta dolar setiap tahun untuk membiayai program senjata negara.
Individu-individu ini kelihatan tidak dapat menulis kod asas, masalah debug, atau bahkan berkomunikasi secara profesional tanpa bantuan AI yang berterusan. Ini mewujudkan paradigma baru di mana kecekapan teknikal tidak dimiliki, tetapi sepenuhnya disimulasikan.
Operasi pekerjaan penipuan mengikuti kitaran hayat pelbagai fasa, dengan bantuan AI di setiap peringkat. Dalam fasa”pembangunan persona”awal, pengendali menggunakan Claude untuk menjana latar belakang profesional yang meyakinkan, membuat portfolio teknikal dengan sejarah projek, dan rujukan budaya penyelidikan untuk kelihatan sahih. Ini membolehkan mereka berjaya meluluskan wawancara untuk peranan yang mereka tidak layak untuk.
Setelah disewa, kebergantungan semakin meningkat. Dalam fasa”penyelenggaraan pekerjaan”, koperasi bergantung kepada AI untuk menyampaikan kerja teknikal sebenar, mengambil bahagian dalam komunikasi pasukan, dan bertindak balas terhadap ulasan kod, mengekalkan ilusi kecekapan. Data Anthropic menunjukkan bahawa kira-kira 80% penggunaan claude koperasi adalah konsisten dengan pekerjaan aktif. Dari segi sejarah, ini membatasi bilangan koperasi yang dapat digunakan oleh rejim. Sekarang, AI telah menghapuskan kekangan ini dengan berkesan, yang membolehkan individu yang mempunyai kemahiran terhad untuk menjamin dan memegang jawatan kejuruteraan yang menguntungkan. Senjata AI ini tidak berlaku dalam vakum. Microsoft telah memberi amaran bahawa”AI telah mula menurunkan bar teknikal untuk penipuan dan pelakon jenayah siber… menjadikannya lebih mudah dan lebih murah untuk menghasilkan kandungan yang boleh dipercayai untuk cyberattacks pada kadar yang semakin pesat.”Sebagai tindak balas kepada penemuannya, Anthropic telah mengharamkan akaun berniat jahat dan meningkatkan perkakasnya untuk menghubungkan petunjuk kompromi yang diketahui. Syarikat itu juga berkongsi petunjuk teknikal dengan rakan industri untuk membantu mencegah penyalahgunaan di seluruh ekosistem.