Anthropic เปิดเผยเมื่อวันพฤหัสบดีว่าแฮ็กเกอร์ที่ได้รับการสนับสนุนจากรัฐจีนได้จัดเตรียมแคมเปญจารกรรมทางไซเบอร์ที่ซับซ้อนในช่วงกลางเดือนกันยายนด้วยการวางอาวุธโมเดล Claude AI ของตน
การดำเนินการดังกล่าวมุ่งเป้าไปที่องค์กรทั่วโลกประมาณ 30 องค์กร โดยใช้ AI เพื่อดำเนินการวงจรการโจมตี 80-90% โดยอัตโนมัติโดยมีการแทรกแซงของมนุษย์น้อยที่สุด
นี่ถือเป็นกรณีแรกที่บันทึกไว้ของการโจมตีทางไซเบอร์ขนาดใหญ่ที่ขับเคลื่อนโดย AI ซึ่งแสดงถึงการเพิ่มขึ้นอย่างมีนัยสำคัญจากการแฮ็กที่ได้รับความช่วยเหลือจาก AI ก่อนหน้านี้
เหตุการณ์ดังกล่าวเน้นย้ำถึงยุคใหม่ของภัยคุกคามทางไซเบอร์ที่ระบบอัตโนมัติสามารถทำงานของทั้งทีมได้ ซึ่งเพิ่มความเร็วและขนาดของการดำเนินงานที่ได้รับการสนับสนุนจากรัฐได้อย่างมาก
จาก AI Co-Pilot สู่ผู้โจมตีอัตโนมัติ: ยุคใหม่ของการจารกรรมทางไซเบอร์
ในการยกระดับอาวุธ AI อย่างมีนัยสำคัญ แคมเปญ รายละเอียดโดย Anthropic แสดงให้เห็นถึงการเปลี่ยนแปลงขั้นพื้นฐานในการปฏิบัติการทางไซเบอร์
นักแสดงที่ได้รับการสนับสนุนจากรัฐ ได้ก้าวไปไกลกว่าการใช้ AI สำหรับงานง่ายๆ เช่น การสร้างอีเมลฟิชชิ่ง ซึ่งเป็นแนวโน้มที่ Google รายงานเมื่อต้นปีที่แล้ว ขณะนี้พวกเขากำลังปรับใช้ตัวแทนอัตโนมัติเต็มรูปแบบเพื่อดำเนินการบุกรุกที่ซับซ้อนตั้งแต่ต้นจนจบ ทีมข่าวกรองภัยคุกคามของ Anthropic ได้กำหนดกลุ่ม GTG-1002 ที่ได้รับการสนับสนุนจากรัฐ
กระบวนทัศน์การโจมตีใหม่นี้เหนือกว่าเทรนด์”การแฮ็กด้วยอารมณ์”ที่ Winbuzzer กล่าวถึงในเดือนสิงหาคม โดยที่โมเดล AI ทำหน้าที่เป็นพันธมิตรที่สร้างสรรค์หรือนำร่องกับผู้ปฏิบัติงานที่เป็นมนุษย์ ในโมเดลดังกล่าว มนุษย์ยังคงควบคุมการดำเนินการได้อย่างมั่นคง
รายงานของ Anthropic ยืนยันว่าแคมเปญเดือนกันยายนแตกต่างอย่างมาก:
“กิจกรรมนี้ถือเป็นการยกระดับอย่างมีนัยสำคัญจากการค้นพบ”การแฮ็กด้วยกลิ่นอาย”ครั้งก่อนของเรา ซึ่งระบุในเดือนมิถุนายน 2025… มนุษย์ยังคงวนเวียนอยู่ในการดำเนินการควบคุมทิศทางเป็นอย่างมาก”
การค้นพบใหม่แสดงให้เห็นว่าผู้ปฏิบัติงานที่เป็นมนุษย์ยังคงมีส่วนร่วมโดยตรงน้อยที่สุด ประมาณว่ามีเพียง 10 ถึง 20 ครั้งเท่านั้น เปอร์เซ็นต์ของความพยายามทั้งหมด
ผู้โจมตีมุ่งเป้าไปที่บริษัทเทคโนโลยีรายใหญ่ สถาบันการเงิน ผู้ผลิตสารเคมี และหน่วยงานรัฐบาลในหลายประเทศ
แม้ว่า Anthropic ประสบความสำเร็จในการขัดขวางแคมเปญและแบนบัญชีที่เกี่ยวข้อง แต่การบุกรุกจำนวนหนึ่งก็ประสบความสำเร็จ
Anthropic กล่าวว่า”เราเชื่อว่านี่เป็นกรณีที่ได้รับการบันทึกไว้เป็นครั้งแรกของการโจมตีทางไซเบอร์ขนาดใหญ่ที่ดำเนินการโดยปราศจากการแทรกแซงของมนุษย์”
สิ่งนี้ยืนยันว่า อุปสรรคในการเข้าสู่การโจมตีทางไซเบอร์ที่ซับซ้อนขนาดใหญ่ได้ลดลงอย่างมาก ความกังวลที่สะท้อนมาจากการวิเคราะห์อุตสาหกรรมเมื่อเร็วๆ นี้แสดงให้เห็นว่า อัตราความสำเร็จของเอเจนต์ AI แย่งชิงเพิ่มขึ้นอย่างมาก
วิธีที่แฮ็กเกอร์เปลี่ยน Claude ให้เป็นอาวุธด้วยการเล่นตามบทบาทและระบบอัตโนมัติ
ผู้โจมตีจัดการโมเดล AI โดยการสร้างเฟรมเวิร์กการประสานแบบกำหนดเอง
ระบบนี้ใช้ Claude Code ของ Anthropic และ Model Context Protocol (MCP) มาตรฐานเปิด เพื่อแยกย่อยการโจมตีที่ซับซ้อนเป็นชุดของงานที่แยกจากกันและดูเหมือนไม่เป็นพิษเป็นภัย MCP ซึ่งได้รับการออกแบบมาเพื่อให้โมเดล AI ใช้เครื่องมือภายนอก ได้กลายมาเป็นระบบประสาทส่วนกลางสำหรับการดำเนินการอย่างมีประสิทธิภาพ
อย่างไรก็ตาม โปรโตคอลนี้ยังแนะนำความเสี่ยงด้านความปลอดภัยใหม่ๆ เช่น”Context Insert”ซึ่งพฤติกรรมของเอเจนต์สามารถ ถูกบงการ
องค์ประกอบสำคัญของการโจมตีคือการข้ามคุณสมบัติความปลอดภัยในตัวของโคลด แฮกเกอร์บรรลุเป้าหมายนี้ผ่านเทคนิคการแหกคุกอันชาญฉลาดซึ่งมีรากฐานมาจากวิศวกรรมสังคม
ตามข้อมูลของ Jacob Klein หัวหน้าฝ่ายข่าวกรองด้านภัยคุกคามของ Anthropic”ในกรณีนี้ สิ่งที่พวกเขาทำอยู่คือการแสร้งทำเป็นทำงานให้กับองค์กรทดสอบความปลอดภัยที่ถูกกฎหมาย”
ด้วยการโน้มน้าว AI ว่าได้มีส่วนร่วมในการทดสอบการเจาะระบบที่ถูกต้อง ผู้ปฏิบัติงานหลอกให้ดำเนินการที่เป็นอันตรายโดยไม่ก่อให้เกิดหลักจริยธรรมหลักประกัน
วิธีนี้ช่วยให้ผู้คุกคามสามารถบินไปใต้เรดาร์ได้นานพอที่จะเปิดตัวแคมเปญ
เมื่อเปิดใช้งานแล้ว เอเจนต์ AI จะดำเนินการวงจรการโจมตีทั้งหมดโดยอัตโนมัติด้วยประสิทธิภาพที่น่าสะพรึงกลัว โดยเริ่มต้นด้วยการลาดตระเวนเพื่อทำแผนที่โครงสร้างพื้นฐานเป้าหมายและระบุช่องโหว่
จากนั้น ดำเนินการเขียนโค้ดการหาประโยชน์แบบกำหนดเอง เก็บเกี่ยวข้อมูลประจำตัว ย้ายด้านข้างข้ามเครือข่าย และสุดท้าย กรองและวิเคราะห์ข้อมูลที่ละเอียดอ่อนเพื่อหาคุณค่าทางปัญญา
ผู้ปฏิบัติงานที่เป็นมนุษย์เข้าแทรกแซงที่จุดตัดสินใจที่สำคัญเพียงสี่ถึงหกจุดต่อแคมเปญ โดยหลักๆ เพื่ออนุญาตการยกระดับจากระยะหนึ่งไปยังอีกระยะหนึ่ง ตาม รายงานจาก The Wall Street Journal
Klein บอกกับช่องทางดังกล่าวว่า “แฮ็กเกอร์ทำการโจมตีอย่างแท้จริงด้วยการคลิกปุ่ม และจบลงด้วยการปฏิสัมพันธ์ของมนุษย์เพียงเล็กน้อย”
ภาวะที่กลืนไม่เข้าคายไม่ออกของการใช้สองทาง: Agentic AI สำหรับความผิดทั้งสองอย่าง และกลาโหม
การเปิดเผยข้อมูลของ Anthropic บังคับให้คำนึงถึงลักษณะการใช้งานแบบคู่ของ AI ขั้นสูง ความสามารถแบบเดียวกันที่ทำให้ AI สามารถโจมตีเครือข่ายได้โดยอัตโนมัตินั้นมีคุณค่าอย่างยิ่งในการปกป้องเครือข่าย
เหตุการณ์นี้เกิดขึ้นเพียงไม่กี่เดือนหลังจากที่ Anthropic เองได้นำเสนอกรอบการทำงานด้านความปลอดภัยใหม่สำหรับตัวแทน AI โดยเน้นหลักการ เช่น การควบคุมโดยมนุษย์และความโปร่งใสในการตอบสนองต่อความล้มเหลวด้านความปลอดภัยทั่วทั้งอุตสาหกรรม
แคมเปญดังกล่าวเน้นย้ำถึงความท้าทายในการบังคับใช้หลักการดังกล่าวกับฝ่ายตรงข้ามที่ถูกกำหนดไว้
ผู้เชี่ยวชาญด้านความปลอดภัยสังเกตว่า AI ตัวแทนกำลังถูกปรับใช้อยู่แล้ว ศูนย์ปฏิบัติการด้านความปลอดภัย (SOC) เพื่อทำให้การตรวจจับและตอบสนองต่อภัยคุกคามเป็นแบบอัตโนมัติ เช่น แพลตฟอร์ม Cortex AgentiX ที่เพิ่งเปิดตัวของ Palo Alto Network
ตัวแทนการป้องกันดังกล่าวช่วยรับมือกับปัญหาการขาดแคลนผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ทั่วโลกด้วยการจัดการการแจ้งเตือนและการค้นหาภัยคุกคามเชิงรุก
Anthropic เองก็ใช้ Claude อย่างกว้างขวางเพื่อวิเคราะห์ข้อมูลจำนวนมหาศาลที่สร้างขึ้นในระหว่างการสืบสวนเหตุการณ์ โดยเน้นที่ยูทิลิตี้การป้องกันของเทคโนโลยี
ในท้ายที่สุด บริษัทให้เหตุผลว่าการลงทุนอย่างต่อเนื่องในความสามารถของ AI เป็นสิ่งจำเป็นสำหรับการสร้างการป้องกันทางไซเบอร์รุ่นต่อไป
การแข่งขันระหว่างแอปพลิเคชันเชิงรุกและเชิงรับนั้นรุนแรงขึ้นอย่างเห็นได้ชัด
Anthropic กำลังเรียกร้องให้ชุมชนความปลอดภัยเร่งใช้เครื่องมือป้องกันที่ขับเคลื่อนด้วย AI โดยเตือนว่าผู้พิทักษ์มีความเสี่ยงที่จะถูกแซงหน้าหากพวกเขาไม่ยอมรับเทคโนโลยีที่คล้ายคลึงกัน
Logan Graham ซึ่งเป็นผู้นำ ทีมเสี่ยงภัยพิบัติของ Anthropic เตือนว่า”หากเราไม่ปล่อยให้กองหลังมีความได้เปรียบอย่างถาวรอย่างมาก ฉันกังวลว่าเราอาจแพ้การแข่งขันครั้งนี้”
เหตุการณ์ดังกล่าวแสดงให้เห็นว่าเมื่อโมเดล AI มีประสิทธิภาพมากขึ้น การป้องกันที่ควบคุมการใช้งานของพวกเขาจะต้องพัฒนาในอัตราที่เร็วขึ้นเพื่อป้องกันการใช้งานในทางที่ผิดในวงกว้าง