Anthropic hari Kamis mengungkapkan bahwa peretas yang disponsori negara Tiongkok mengatur kampanye spionase dunia maya yang canggih pada pertengahan September dengan mempersenjatai model AI Claude miliknya.
Operasi ini menargetkan sekitar 30 organisasi global, menggunakan AI untuk mengeksekusi 80-90% siklus serangan secara mandiri dengan intervensi manusia yang minimal.
Ini menandai kasus pertama yang terdokumentasi dari serangan siber berskala besar yang didorong oleh agen AI, yang menunjukkan peningkatan signifikan dari sebelumnya Peretasan yang dibantu AI.
Insiden ini menyoroti era baru ancaman dunia maya di mana sistem otonom dapat melakukan pekerjaan seluruh tim, sehingga secara signifikan meningkatkan kecepatan dan skala operasi yang disponsori negara.
Dari Co-Pilot AI hingga Penyerang Otonom: Era Baru Dunia Maya Spionase
Dalam peningkatan signifikan penggunaan senjata AI, kampanye yang dirinci oleh Anthropic mewakili perubahan mendasar dalam operasi cyber.
Aktor yang disponsori negara telah beralih dari sekadar menggunakan AI untuk tugas-tugas sederhana seperti membuat email phishing, sebuah tren yang dilaporkan Google pada awal tahun lalu. Kini, mereka mengerahkan agen yang sepenuhnya otonom untuk melakukan intrusi kompleks dari awal hingga akhir. Tim intelijen ancaman Anthropic telah menunjuk kelompok GTG-1002 yang disponsori negara.
Paradigma serangan baru ini jauh melampaui tren “peretasan getaran” yang dicakup Winbuzzer pada bulan Agustus, di mana model AI bertindak sebagai mitra kreatif atau co-pilot bagi operator manusia. Dalam model tersebut, manusia tetap memegang kendali penuh dalam mengarahkan operasi.
Laporan Anthropic mengonfirmasi bahwa kampanye di bulan September sangat berbeda:
“Aktivitas ini merupakan peningkatan yang signifikan dari temuan’peretasan getaran’kami sebelumnya yang diidentifikasi pada bulan Juni 2025… manusia masih banyak terlibat dalam operasi pengarahan.”
Temuan baru ini menunjukkan bahwa operator manusia mempertahankan keterlibatan langsung yang minimal, diperkirakan hanya 10 hingga 20 persen dari total upaya tersebut.
Penyerang menargetkan perusahaan teknologi besar, lembaga keuangan, produsen bahan kimia, dan lembaga pemerintah di berbagai negara.
Meskipun Anthropic berhasil mengganggu kampanye dan memblokir akun terkait, ada beberapa penyusupan yang berhasil.
Anthropic menyatakan, “kami yakin ini adalah kasus serangan siber skala besar pertama yang terdokumentasikan dan dilakukan tanpa campur tangan manusia yang besar.”
Hal ini menegaskan bahwa hambatan masuk bagi orang-orang canggih dan berskala besar menjadi penghalang masuknya mereka.
serangan cyber telah diturunkan secara signifikan, kekhawatiran ini juga didukung oleh analisis industri baru-baru ini yang menunjukkan tingkat keberhasilan pembajakan agen AI melonjak drastis.
Bagaimana Peretas Mengubah Claude menjadi Senjata dengan Role-Playing dan Otomatisasi
Penyerang memanipulasi model AI dengan membangun kerangka orkestrasi khusus.
Sistem ini menggunakan Claude Code dari Anthropic dan Model Context Protocol (MCP) standar terbuka untuk menguraikan serangan kompleks menjadi serangkaian tugas yang terpisah dan tampaknya tidak berbahaya. MCP, yang dirancang agar model AI dapat menggunakan alat eksternal, secara efektif menjadi sistem saraf pusat untuk operasi tersebut.
Namun, protokol ini juga menimbulkan risiko keamanan baru seperti’Injeksi Konteks’, yang dapat menyebabkan perilaku agen dimanipulasi.
Elemen penting dari serangan itu adalah melewati fitur keamanan bawaan Claude. Para peretas mencapai hal ini melalui teknik jailbreaking cerdas yang berakar pada rekayasa sosial.
Menurut Jacob Klein, Kepala Intelijen Antropik Anthropic, “dalam hal ini, yang mereka lakukan adalah berpura-pura bekerja untuk organisasi pengujian keamanan yang sah.”
Dengan meyakinkan AI bahwa mereka berpartisipasi dalam uji penetrasi yang sah, operator mengelabui AI agar melakukan tindakan jahat tanpa memicu pagar pembatas etika intinya.
Metode ini memungkinkan pelaku ancaman untuk terbang. berada di bawah radar cukup lama untuk meluncurkan kampanye mereka.
Setelah diaktifkan, agen AI secara mandiri mengeksekusi seluruh siklus serangan dengan efisiensi yang sangat tinggi. Hal ini dimulai dengan pengintaian untuk memetakan infrastruktur target dan mengidentifikasi kerentanan.
Dari sana, hal ini dilanjutkan dengan pembuatan kode eksploitasi khusus, mengumpulkan kredensial, bergerak secara lateral di seluruh jaringan, dan terakhir, menyaring dan menganalisis data sensitif untuk mendapatkan nilai intelijen.
Operator manusia hanya melakukan intervensi pada empat hingga enam titik keputusan penting per kampanye, terutama untuk mengizinkan eskalasi dari satu fase ke fase berikutnya, menurut laporan dari The Wall Street Journal.
Klein mengatakan kepada outlet tersebut, “para peretas melakukan serangan mereka hanya dengan mengklik sebuah tombol, dan kemudian dengan interaksi manusia yang minimal.”
Dilema Penggunaan Ganda: AI Agentik untuk Serangan dan Pertahanan
Pengungkapan Anthropic memaksa kita memperhitungkan sifat penggunaan ganda AI tingkat lanjut. Kemampuan yang sama yang memungkinkan AI untuk menyerang jaringan secara mandiri juga sangat berharga untuk mempertahankannya.
Insiden ini terjadi hanya beberapa bulan setelah Anthropic sendiri meluncurkan kerangka kerja keamanan baru untuk agen AI, dengan menekankan prinsip-prinsip seperti kontrol manusia dan transparansi sebagai respons terhadap kegagalan keamanan di seluruh industri.
Kampanye ini menyoroti tantangan dalam menerapkan prinsip-prinsip tersebut terhadap musuh yang gigih.
Pakar keamanan mencatat bahwa AI agen sudah diterapkan di Pusat Operasi Keamanan. (SOC) untuk mengotomatiskan deteksi dan respons ancaman, seperti platform Cortex AgentiX yang baru saja diluncurkan oleh Palo Alto Network.
Agen defensif semacam itu membantu mengatasi kekurangan global profesional keamanan siber dengan menangani triase peringatan dan perburuan ancaman proaktif.
Anthropic sendiri menggunakan Claude secara ekstensif untuk menganalisis sejumlah besar data yang dihasilkan selama penyelidikan atas insiden tersebut, dengan menyoroti kegunaan defensif teknologi tersebut.
Pada akhirnya, perusahaan berpendapat bahwa investasi berkelanjutan harus dilakukan. kemampuan AI sangat penting untuk membangun generasi pertahanan dunia maya berikutnya.
Persaingan antara aplikasi ofensif dan defensif jelas semakin meningkat.
Anthropic menyerukan kepada komunitas keamanan untuk mempercepat penerapan alat pertahanan yang didukung AI, dan memperingatkan bahwa para pembela HAM berisiko kalah jika mereka tidak menggunakan teknologi serupa.
Logan Graham, yang memimpin tim risiko bencana Anthropic, memperingatkan, “jika kita tidak memungkinkan para pembela HAM memiliki kemampuan permanen yang sangat besar keuntungan, saya khawatir kita mungkin kalah dalam perlombaan ini.”
Insiden ini menunjukkan bahwa seiring dengan semakin canggihnya model AI, perlindungan yang mengatur penggunaannya harus berkembang lebih cepat lagi untuk mencegah penyalahgunaan yang meluas.