Microsoft pada hari Selasa mengungkapkan Project IRE, agen AI baru yang secara otonom membalikkan rekayasa dan mengklasifikasikan perangkat lunak berbahaya. Langkah ini meningkatkan perlombaan senjata cybersecurity AI, memposisikan pemburu malware Microsoft terhadap agen”Big Sleep”Google, yang berfokus pada menemukan kelemahan perangkat lunak.
Dikembangkan oleh tim penelitian dan keamanan Microsoft, Project IRE bertujuan untuk mengotomatiskan pekerjaan analisis malware yang kompleks. Hal ini memungkinkan tim keamanan untuk meningkatkan pertahanan mereka terhadap serangan canggih, yang digerakkan oleh AI dan membebaskan para ahli manusia untuk fokus pada ancaman paling kritis.
Pengumuman ini menggarisbawahi perbedaan strategis dalam bagaimana raksasa teknologi mempersenjatai AI untuk pertahanan. Sementara Google Hunts untuk kerentanan dalam kode, Microsoft sekarang menargetkan biner jahat itu sendiri.
collaboration between Microsoft Research, Microsoft Defender Research, and Microsoft Discovery & Quantum, combining AI research with operational security Keahlian.
Agen beroperasi dengan menggunakan model bahasa canggih, tersedia melalui Azure AI Foundry, untuk mengarahkan serangkaian alat khusus. Arsitekturnya memungkinkannya untuk beralasan di berbagai tingkatan, dari analisis biner tingkat rendah hingga interpretasi tingkat tinggi dari perilaku kode, membedakannya dari alat yang hanya cocok dengan pola.
Proses analisis dimulai dengan triase, di mana alat otomatis mengidentifikasi jenis dan struktur file. Dari sana, sistem merekonstruksi grafik aliran kontrol perangkat lunak menggunakan kerangka kerja open-source seperti ghidra dan tank”> blanko”. Ini menciptakan peta logis dari jalur eksekusi program, membentuk tulang punggung model memori AI.
Melalui analisis fungsi berulang, AI memanggil alat khusus untuk mengidentifikasi dan merangkum fungsi-fungsi utama. Setiap hasil dimasukkan ke dalam”rantai bukti,”jejak terperinci dan dapat diaudit yang menunjukkan bagaimana sistem mencapai kesimpulannya. Log ini sangat penting untuk tinjauan manusia dan penyempurnaan sistemnya
p> PROYPER PROYPER TERPENUHI-nya adalah tinjauan manusia dan penyempurnaan sistemnya
Periksa silang klaimnya terhadap basis pengetahuan pernyataan ahli dari insinyur malware Microsoft sendiri. Dalam satu contoh, itu adalah sistem pertama di Microsoft-manusia atau mesin-untuk menulis laporan ancaman yang cukup kuat untuk memicu blok otomatis sendiri.
Dalam tes awal pada driver windows publik, sistem ini sangat akurat, mencapai presisi 98% dan salah menandai file aman hanya dalam 2% kasus. Tingkat positif palsu yang rendah ini menunjukkan potensi yang jelas untuk penyebaran dalam operasi keamanan.
Ketika diuji terhadap hampir 4.000 file”target keras”yang telah merusak sistem otomatis lainnya, ia mencapai presisi 89% dan penarikan 26%, dengan tingkat positif palsu 4%. Sementara Recall sedang moderat, keakuratannya pada kasus-kasus sulit ini menyoroti potensinya untuk menambah analisis manusia.
Perlombaan senjata AI di Cybersecurity
Project debut IRE tiba di tengah kompetisi yang lebih luas dan mengintensifkan dalam keamanan yang digerakkan AI. Fokusnya pada klasifikasi malware sangat kontras dengan proyek Big Sleep Google, yang baru-baru ini mendapat perhatian untuk secara mandiri menemukan 20 kerentanan baru dalam perangkat lunak sumber terbuka yang banyak digunakan seperti FFMPEG dan Imagemagick.
Agen Google, sebuah produk dari tim proyek DeepMind dan Elite Zer. Proyek ini pertama kali membuktikan potensinya pada akhir 2024 dengan mengungkap bug di mesin basis data SQLite. Taruhannya dinaikkan pada bulan Juli 2025, ketika Google mengungkapkan tidur yang besar telah secara proaktif menetralkan ancaman yang akan segera terjadi, CVE-2025-6965, dalam perlombaan langsung terhadap penyerang.
Tidak seperti metode tradisional seperti fuzzing, Big Sleep menggunakan LLM untuk analisis akar akar yang mendalam, mensimulasikan pendekatan peneliti manusia. Wakil Presiden Teknik Google, Royal Hansen, merayakan temuan itu sebagai”perbatasan baru dalam penemuan kerentanan otomatis.”
Tren ini tidak terbatas hanya pada dua pemain. Ekosistem alat keamanan AI yang berkembang dari startup dan perusahaan mapan muncul. Raksasa teknologi lainnya sedang membangun sistem pelengkap. Meta, misalnya, baru-baru ini mengumumkan AutoPatchBench untuk mengevaluasi seberapa baik AI dapat secara otomatis memperbaiki bug, bersama LlamafireWall, sebuah alat yang dirancang untuk mencegah model AI menghasilkan kode tidak aman di tempat pertama. Sementara itu, alat-alat seperti Runsybil dan Xbow juga menjadi berita utama, dengan Xbow baru-baru ini Topping hackerOne leaderboard .
Namun, inovasi ini adalah double hackerOne .
Namun, inovasi ini adalah double-double. Model AI yang sama yang digunakan untuk pertahanan juga dapat melanggengkan praktik pengkodean yang tidak aman. Penelitian akademis baru-baru ini mengungkapkan bahwa banyak LLM, yang dilatih pada kode publik dari GitHub, telah belajar mereplikasi bug lama, sebuah fenomena yang dijuluki masalah”LLM”yang beracun. Ini menciptakan siklus setan di mana alat-alat yang dimaksudkan untuk membangun masa depan mewarisi kesalahan masa lalu.
Sifat ganda AI memaksa evolusi cepat dalam strategi defensif, karena serangan yang digerakkan AI menjadi lebih canggih. Seperti yang dicatat oleh Sheetal Mehta dari NTT Data dalam konteks terkait,”Alat keamanan yang terfragmentasi tidak dapat mengikuti serangan otomatis saat ini.”Ini mencerminkan konsensus yang berkembang tentang perlunya memanfaatkan AI untuk pertahanan sambil mengurangi potensinya untuk menyalahgunakan.
Seperti yang sebelumnya dinyatakan oleh Brad Smith,”tujuan kami adalah menjaga AI terus maju sebagai alat defensif lebih cepat daripada memajukan senjata ofensif.”Pengembangan agen khusus seperti IRE dan Big Sleep mewakili front kritis dalam pertempuran itu.
Menyeimbangkan otomatisasi dengan keahlian manusia
Sementara otomatisasi berjanji untuk membantu tim keamanan yang kewalahan, itu juga menciptakan tantangan baru. Kekhawatiran industri utama adalah “AI Slop,” istilah untuk banjir laporan bug berkualitas rendah atau tidak relevan yang dihasilkan oleh alat otomatis.
Ini dapat melelahkan pemelihara sukarelawan dari proyek open-source. Seperti Vlad Ionescu, salah satu pendiri startup keamanan AI Runsybil, mengatakan kepada TechCrunch,”Itulah masalah yang ditemui orang, apakah kita mendapatkan banyak hal yang terlihat seperti emas, tetapi sebenarnya hanya omong kosong.”
Untuk melawan ini, baik Microsoft maupun Google menekankan bahwa keahlian manusia tetap diandalkan. Seorang juru bicara Google, Kimberly Samra, mengkonfirmasi bahwa “untuk memastikan berkualitas tinggi dan laporan yang dapat ditindaklanjuti, kami memiliki ahli manusia dalam loop sebelum melaporkan, tetapi setiap kerentanan ditemukan dan direproduksi oleh agen AI tanpa intervensi manusia.”
Microsoft menggemakan sentimen ini. Mike Walker, seorang manajer peneliti di Microsoft, menjelaskan bahwa pengalaman awal dengan Project IRE menunjukkan”[apa yang kami pelajari dari contoh-contoh itu adalah] bahwa kami dapat memanfaatkan kekuatan komplementer baik manusia dan AI untuk perlindungan.”Jejak bukti terperinci sistem dirancang khusus untuk memfasilitasi kolaborasi mesin manusia ini.
Microsoft berencana untuk mengintegrasikan prototipe ke dalam produk keamanannya sebagai”Binary Analyzer.”Visi utama perusahaan adalah untuk mendeteksi malware baru secara langsung dalam memori, meningkatkan kemampuan otonomnya untuk melindungi miliaran perangkat secara lebih efektif.