OpenAI telah mengambil tindakan tegas terhadap ancaman dunia maya yang disponsori negara, dengan melarang beberapa akun yang terkait dengan aktor di Tiongkok dan Korea Utara. Dalam laporan ancaman yang dirilis pada tanggal 8 Oktober, perusahaan tersebut mengungkapkan bahwa kelompok-kelompok ini menggunakan model AI-nya untuk menyusun proposal alat pengawasan, mengembangkan kampanye phishing, dan membantu pembuatan malware.
Langkah ini menggarisbawahi perkembangan perang dingin AI, di mana OpenAI secara aktif berupaya mencegah teknologinya dijadikan senjata oleh rezim otoriter.
Sementara para pelaku berupaya meningkatkan operasi cyber mereka yang ada, OpenAI mempertahankan perlindungannya berhasil memblokir permintaan langsung untuk kode berbahaya dan tidak ada kemampuan baru yang disediakan.
Aktor yang Didukung Negara Mengeksploitasi AI untuk Pengawasan dan Phishing
laporan merinci pola penyalahgunaan oleh entitas yang terkait dengan pemerintahan otoriter. Pelaku yang memiliki hubungan dengan Tiongkok kedapatan menggunakan ChatGPT untuk merancang sistem pemantauan media sosial berskala besar. Salah satu proposal yang mengkhawatirkan bertujuan untuk menciptakan “Model Peringatan Arus Masuk Terkait Uighur Berisiko Tinggi”untuk melacak perjalanan individu yang menjadi sasaran.
Akun lain yang terkait dengan Tiongkok menggunakan AI untuk pengumpulan intelijen sumber terbuka, berupaya mengidentifikasi kritikus pemerintah dan menemukan sumber pendanaan mereka. Kegiatan ini merupakan upaya nyata dalam menggunakan teknologi canggih untuk pengawasan negara dan penindasan terhadap perbedaan pendapat, menurut temuan perusahaan.
Sementara itu, operator Korea Utara fokus pada taktik kejahatan dunia maya yang lebih tradisional. Mereka memanfaatkan ChatGPT untuk meneliti teknik phishing, pencurian kredensial, dan pengembangan malware, dengan fokus khusus pada macOS Apple. Pertanyaan mereka mencakup proses debug kode berbahaya dan eksplorasi strategi rekayasa sosial.
Sebuah ‘Zona Abu-Abu’ Penyalahgunaan: Efisiensi Dibandingkan Kebaruan
Investigasi OpenAI mengungkap wawasan penting mengenai kondisi kejahatan dunia maya yang dibantu AI saat ini: aktor-aktor negara tidak mengembangkan senjata super baru. Sebaliknya, laporan menekankan bahwa pelaku ancaman adalah “mengintegrasikan AI ke dalam alur kerja mereka yang ada, dibandingkan membangun alur kerja baru berdasarkan AI.”
Perusahaan tidak menemukan bukti bahwa model mereka memberikan taktik atau kemampuan ofensif baru kepada penyerang yang tidak bisa mereka dapatkan di tempat lain.
Pendekatan ini sering kali beroperasi dalam apa yang disebut OpenAI sebagai “zona abu-abu”aktivitas penggunaan ganda. Sebagian besar penggunaan berbahaya melibatkan permintaan untuk melakukan tugas-tugas yang tampaknya tidak berbahaya seperti menerjemahkan teks, mengubah kode, atau membuat situs web.
Permintaan ini hanya menjadi ancaman berdasarkan konteks dan niat pengguna, sehingga menimbulkan tantangan pendeteksian yang rumit.
Operator berbahasa Korea, misalnya, membuat banyak permintaan yang dapat melibatkan aplikasi sah seperti debugging perangkat lunak atau pengembangan browser. Namun, sebagaimana dicatat dalam laporan tersebut, aktivitas-aktivitas ini “memiliki arti yang berbeda ketika digunakan kembali oleh pelaku ancaman.” Tujuannya bukanlah penemuan, melainkan percepatan operasi cyber yang ada.
Demikian pula, kelompok phishing yang terkait dengan Tiongkok menggunakan AI untuk mencari efisiensi tambahan. Keuntungan utama yang mereka peroleh adalah dari “kefasihan linguistik, lokalisasi, dan ketekunan.” Hal ini berarti menghasilkan email dengan kesalahan bahasa yang lebih sedikit, membuat “kode lem yang lebih cepat”, dan membuat penyesuaian yang lebih cepat ketika serangan awal gagal.
Tujuan utamanya adalah kecepatan dan skala. Bagi para pelaku ini, kesuksesan berarti menghasilkan email phishing yang siap dikirim dan mencapai “siklus iterasi yang diperpendek untuk kode rutin dan otomatisasi.” Fokus pada peningkatan keahlian tradisional, dibandingkan menciptakan bentuk serangan baru, merupakan temuan utama dari investigasi OpenAI.
Sepanjang operasi ini, OpenAI menekankan bahwa perlindungannya secara konsisten menjaga keteguhannya terhadap ancaman langsung. Laporan tersebut menyatakan bahwa modelnya “secara konsisten menolak permintaan jahat.” Dalam kasus pengembang malware berbahasa Rusia, sistem secara khusus menolak permintaan langsung untuk eksploitasi dan keylogger.
Namun, pelaku ancaman mulai beradaptasi. Laporan tersebut menyoroti contoh “adaptasi dan kebingungan,” di mana pengguna jahat mengubah perilaku mereka untuk menghindari deteksi. Beberapa jaringan scam, yang mengetahui adanya diskusi online tentang pola teks yang dihasilkan AI, secara khusus menginstruksikan model tersebut untuk menghapus em-dash agar keluarannya tampak lebih manusiawi.
Dinamika ini menggambarkan tantangan inti platform AI. Menurut OpenAI. pertahanan yang efektif memerlukan “pendekatan yang bernuansa dan terinformasi yang berfokus pada pola perilaku pelaku ancaman, bukan interaksi model yang terisolasi.” Membedakan kueri pengkodean yang tidak berbahaya dari kueri yang dimaksudkan untuk menyaring malware adalah garis depan baru dalam keamanan platform.