Microsoft เมื่อวันอังคารเปิดเผยว่า Project IRE ตัวแทน AI ใหม่ที่ย้อนกลับเครื่องยนต์และจัดประเภทซอฟต์แวร์ที่เป็นอันตราย การเคลื่อนไหวดังกล่าวทำให้การแข่งขัน AI Cybersecurity Arms วางตำแหน่งนักล่ามัลแวร์ของ Microsoft กับตัวแทน”Big Sleep”ของ Google ซึ่งมุ่งเน้นไปที่การค้นหาข้อบกพร่องของซอฟต์แวร์

พัฒนาโดยทีมวิจัยและความปลอดภัยของ Microsoft สิ่งนี้ช่วยให้ทีมรักษาความปลอดภัยสามารถปรับขนาดการป้องกันของพวกเขาจากการโจมตีที่มีความซับซ้อนและขับเคลื่อนด้วย AI และปลดปล่อยผู้เชี่ยวชาญของมนุษย์ให้มุ่งเน้นไปที่ภัยคุกคามที่สำคัญที่สุด

การประกาศตอกย้ำความแตกต่างเชิงกลยุทธ์ ในขณะที่ Google Hunts สำหรับช่องโหว่ในรหัสตอนนี้ Microsoft กำลังกำหนดเป้าหมายไบนารีที่เป็นอันตรายเอง

เอเจนต์ทำงานโดยใช้แบบจำลองภาษาขั้นสูงผ่าน Azure AI Foundry เพื่อนำชุดเครื่องมือพิเศษ สถาปัตยกรรมของมันช่วยให้เหตุผลในหลายระดับตั้งแต่การวิเคราะห์ไบนารีระดับต่ำไปจนถึงการตีความพฤติกรรมโค้ดระดับสูงแยกแยะจากเครื่องมือที่จับคู่รูปแบบ

กระบวนการวิเคราะห์เริ่มต้นด้วย triage ซึ่งเครื่องมืออัตโนมัติระบุประเภทไฟล์และโครงสร้าง จากนั้นระบบจะสร้างกราฟการควบคุมการควบคุมของซอฟต์แวร์โดยใช้เฟรมเวิร์กโอเพนซอร์ซเช่น ghidra และ

ผ่านการวิเคราะห์ฟังก์ชั่นซ้ำ AI เรียกเครื่องมือพิเศษเพื่อระบุและสรุปฟังก์ชั่นคีย์ แต่ละผลลัพธ์จะป้อนเข้าสู่“ ห่วงโซ่หลักฐาน” เส้นทางที่มีรายละเอียดและตรวจสอบได้ซึ่งแสดงให้เห็นว่าระบบมาถึงข้อสรุปได้อย่างไร บันทึกนี้มีความสำคัญสำหรับ

ในการทดสอบก่อนหน้านี้เกี่ยวกับไดรเวอร์ Windows สาธารณะระบบมีความแม่นยำสูงบรรลุความแม่นยำ 98% อัตราการบวกเท็จต่ำนี้แสดงให้เห็นถึงศักยภาพที่ชัดเจนสำหรับการปรับใช้ในการดำเนินงานด้านความปลอดภัย

เมื่อทดสอบกับไฟล์“ เป้าหมายยาก” เกือบ 4,000 ไฟล์ที่ทำให้ระบบอัตโนมัติอื่น ๆ หยุดยั้งระบบอัตโนมัติอื่น ๆ มันได้รับความแม่นยำ 89% และการเรียกคืน 26% ในขณะที่การเรียกคืนอยู่ในระดับปานกลางความแม่นยำในกรณีที่ยากลำบากเหล่านี้เน้นถึงศักยภาพในการเพิ่มการวิเคราะห์ของมนุษย์

การแข่งขัน AI อาวุธในโลกไซเบอร์

การเปิดตัวโครงการ IRE ของ IRE มาถึงการแข่งขันที่กว้างขึ้น การมุ่งเน้นไปที่การจำแนกมัลแวร์นั้นมีความแตกต่างอย่างมากกับโครงการ Big Sleep ของ Google ซึ่งเพิ่งได้รับความสนใจจากการค้นพบช่องโหว่ใหม่ 20 รายการในซอฟต์แวร์โอเพนซอร์ซที่ใช้กันอย่างแพร่หลายเช่น FFMPEG และ ImageMagick

ตัวแทนของ Google โครงการพิสูจน์ศักยภาพครั้งแรกในช่วงปลายปี 2567 โดยการเปิดเผยข้อผิดพลาดในเอ็นจินฐานข้อมูล SQLite เงินเดิมพันได้รับการเลี้ยงดูอย่างมากในเดือนกรกฎาคม 2568 เมื่อ Google เปิดเผยว่าการนอนหลับขนาดใหญ่ได้ทำให้เกิดภัยคุกคามที่ใกล้เข้ามาในเชิงรุก CVE-201025-6965 ในการแข่งขันโดยตรงกับผู้โจมตี

ซึ่งแตกต่างจากวิธีการดั้งเดิม Royal Hansen รองประธานฝ่ายวิศวกรรมของ Google ได้เฉลิมฉลองการค้นพบว่า“ ชายแดนใหม่ในการค้นพบช่องโหว่อัตโนมัติ”

แนวโน้มนี้ไม่ได้ จำกัด อยู่แค่ผู้เล่นสองคนเท่านั้น ระบบนิเวศที่เพิ่มขึ้นของเครื่องมือรักษาความปลอดภัย AI จาก บริษัท สตาร์ทอัพและ บริษัท ที่จัดตั้งขึ้นกำลังเกิดขึ้น ยักษ์ใหญ่ด้านเทคโนโลยีอื่น ๆ กำลังสร้างระบบเสริม ตัวอย่างเช่น Meta ประกาศ AutopatchBench เมื่อเร็ว ๆ นี้เพื่อประเมินว่า AI สามารถแก้ไขข้อบกพร่องได้ดีเพียงใดควบคู่ไปกับ LlamaFirewall ซึ่งเป็นเครื่องมือที่ออกแบบมาเพื่อป้องกันไม่ให้โมเดล AI สร้างรหัสที่ไม่ปลอดภัยตั้งแต่แรก ในขณะเดียวกันเครื่องมือเช่น Runsybil และ Xbow ก็กำลังพาดหัวข่าวด้วย Xbow เมื่อเร็ว ๆ นี้ topping ลีดเดอร์ โมเดล AI เดียวกันกับที่ใช้สำหรับการป้องกันยังสามารถยืดอายุการใช้งานการเข้ารหัสที่ไม่ปลอดภัย การวิจัยทางวิชาการเมื่อเร็ว ๆ นี้เปิดเผยว่า LLMs จำนวนมากที่ผ่านการฝึกอบรมเกี่ยวกับรหัสสาธารณะจาก GitHub ได้เรียนรู้ที่จะทำซ้ำแมลงเก่าปรากฏปรากฏการณ์ที่ขนานนามว่าปัญหา“ LLM ที่เป็นพิษ” สิ่งนี้สร้างวงจรอุบาทว์ที่เครื่องมือหมายถึงการสร้างอนาคตกำลังสืบทอดความผิดพลาดในอดีต

ลักษณะการใช้งานแบบคู่ของ AI กำลังบังคับให้วิวัฒนาการอย่างรวดเร็วในกลยุทธ์การป้องกันเนื่องจากการโจมตีที่ขับเคลื่อนด้วย AI กลายเป็นความซับซ้อนมากขึ้น เนื่องจากข้อมูล Mehta ของ NTT ที่ระบุไว้ในบริบทที่เกี่ยวข้อง“ เครื่องมือรักษาความปลอดภัยที่กระจัดกระจายไม่สามารถติดตามการโจมตีอัตโนมัติของวันนี้ได้” สิ่งนี้สะท้อนให้เห็นถึงฉันทามติที่เพิ่มขึ้นเกี่ยวกับความจำเป็นในการควบคุม AI เพื่อป้องกันในขณะที่ลดศักยภาพในการใช้ในทางที่ผิด

ในฐานะแบรดสมิ ธ ของ Microsoft กล่าวก่อนหน้านี้ว่า การพัฒนาตัวแทนพิเศษเช่น IRE และ Big Sleep แสดงให้เห็นถึงแนวหน้าที่สำคัญในการต่อสู้นั้น

การปรับสมดุลระบบอัตโนมัติด้วยความเชี่ยวชาญของมนุษย์

ในขณะที่ระบบอัตโนมัติสัญญาว่าจะช่วยทีมรักษาความปลอดภัยที่ครอบงำ ความกังวลของอุตสาหกรรมที่สำคัญคือ“ AI Slop” คำศัพท์สำหรับน้ำท่วมของรายงานข้อผิดพลาดที่มีคุณภาพต่ำหรือไม่เกี่ยวข้องที่สร้างขึ้นโดยเครื่องมืออัตโนมัติ

สิ่งนี้สามารถทำให้ผู้ดูแลอาสาสมัครของโครงการโอเพนซอร์ซ ในฐานะ Vlad Ionescu ผู้ร่วมก่อตั้ง AI Security Startup Runsybil กล่าวกับ TechCrunch ว่า“ นั่นเป็นปัญหาที่ผู้คนกำลังวิ่งเข้ามาเราได้รับสิ่งต่าง ๆ มากมายที่ดูเหมือนทองคำ โฆษกของ Google Kimberly Samra ยืนยันว่า“ เพื่อให้แน่ใจว่ารายงานที่มีคุณภาพและดำเนินการได้สูงเรามีผู้เชี่ยวชาญของมนุษย์ในการวนรอบก่อนการรายงาน แต่พบว่ามีช่องโหว่และทำซ้ำโดยตัวแทน AI โดยไม่มีการแทรกแซงของมนุษย์”

Microsoft echoes Mike Walker ผู้จัดการฝ่ายวิจัยของ Microsoft อธิบายว่าประสบการณ์ในช่วงต้นของ Project Ire แสดงให้เห็นว่า“ [สิ่งที่เราเรียนรู้จากกรณีเหล่านั้นคือ] ว่าเราสามารถใช้ประโยชน์จากจุดแข็งเสริมของมนุษย์และ AI เพื่อการป้องกัน” เส้นทางหลักฐานโดยละเอียดของระบบได้รับการออกแบบมาโดยเฉพาะเพื่ออำนวยความสะดวกในการทำงานร่วมกันของมนุษย์เครื่องจักร

Microsoft วางแผนที่จะรวมต้นแบบเข้ากับผลิตภัณฑ์รักษาความปลอดภัยในฐานะ”เครื่องวิเคราะห์ไบนารี”วิสัยทัศน์ที่ดีที่สุดของ บริษัท คือการตรวจจับมัลแวร์นวนิยายโดยตรงในหน่วยความจำโดยปรับขนาดความสามารถในการปกครองตนเองเพื่อปกป้องอุปกรณ์หลายพันล้านเครื่องได้อย่างมีประสิทธิภาพมากขึ้น