การวิจัยใหม่ได้ให้ความสำคัญกับช่องโหว่ด้านความปลอดภัยที่สำคัญภายใน Copilot ของ Microsoft สำหรับ SharePoint แสดงให้เห็นว่าตัวแทนที่ขับเคลื่อนด้วย AI สามารถจัดการได้อย่างไรโดยผู้โจมตีเพื่อค้นพบข้อมูลองค์กรที่มีความละเอียดอ่อน การค้นพบที่ตีพิมพ์เมื่อวันที่ 7 พฤษภาคม 2568 โดย บริษัท รักษาความปลอดภัยทางไซเบอร์

ปมของช่องโหว่อยู่ในความอ่อนแอของตัวแทน AI ต่อการหลอกลวง พันธมิตรทดสอบปากการายละเอียดว่าตัวแทนเริ่มต้นซึ่งเป็นผู้ช่วย AI ที่สร้างไว้ล่วงหน้าของ Microsoft เปิดใช้งานเมื่อองค์กรใบอนุญาต Microsoft 365 Copilot สามารถเปลี่ยนเป็นเครื่องมือรวบรวมข่าวกรองที่ซับซ้อนสำหรับนักแสดงที่เป็นอันตราย

นักวิจัยแสดงสิ่งนี้โดยประสบความสำเร็จในการใช้พรอมต์ที่สร้างขึ้นอย่างรอบคอบซึ่งผู้โจมตีถูกวางเป็นสมาชิกในทีมรักษาความปลอดภัยภายในเพื่อบังคับตัวแทนเพื่อสแกนและเปิดเผยข้อมูลที่ละเอียดอ่อนเช่นรหัสผ่านและกุญแจส่วนตัว

ตัวแทนปฏิบัติตามเปิดเผยข้อมูลรวมถึงรหัสผ่านซึ่งสามารถคัดลอกได้ง่ายจากอินเทอร์เฟซ บริษัท ตั้งข้อสังเกตว่ากลไกที่แม่นยำที่อยู่เบื้องหลังบายพาสนี้อยู่ภายใต้การตรวจสอบอย่างต่อเนื่อง

ความสามารถในการดำเนินงานที่ซ่อนเร้นนี้นำเสนอข้อได้เปรียบอย่างมากต่อผู้โจมตี “ ผู้โจมตีจะมองหาการใช้ประโยชน์จากสิ่งที่พวกเขาสามารถทำได้” นักวิจัยเขียน

รายงานแสดงให้เห็นว่าหลายองค์กรรวมถึงผู้ที่มีท่าทางความปลอดภัยที่ครบกำหนดอาจยังไม่สามารถตรวจสอบตัวแทน AI ใหม่เหล่านี้ได้อย่างเพียงพอสำหรับสัญญาณของกิจกรรมที่เป็นอันตราย “ การควบคุมและการเข้าสู่ระบบในปัจจุบันของคุณอาจไม่เพียงพอ” บริษัท เตือน

นอกจากนี้การวิจัยได้เตือนว่าตัวแทนที่กำหนดเองซึ่งสามารถพัฒนาและได้รับการฝึกอบรมโดยองค์กรที่ใช้เครื่องมือเช่น Copilot Studio อาจแนะนำความเสี่ยงเพิ่มเติม ลักษณะของความเสี่ยงเหล่านี้จะขึ้นอยู่กับการกำหนดค่าเฉพาะและชุดข้อมูลที่พวกเขาได้รับการฝึกฝนอาจทำให้ผู้โจมตีสามารถเข้าถึงข้อมูลในหลาย ๆ ไซต์หรือแม้แต่ฐานความรู้ของตัวแทน

ระบบนิเวศและการควบคุมของ Microsoft ในการเปิดตัว Microsoft 365 Copilot Wave 2 Spring ในเดือนเมษายน บริษัท ได้เปิดตัวตัวแทนพิเศษใหม่และร้านค้าตัวแทนพร้อมกับ

Abhas Ricky หัวหน้าเจ้าหน้าที่กลยุทธ์ของ Cloudera ให้ความเห็นว่า“ Agentic AI กำลังใช้เวทีกลางสร้างแรงผลักดันของ AI กำเนิด แต่มีผลกระทบในการดำเนินงานมากขึ้น” แนวโน้มนี้เน้นไปที่

การวิจัยจาก Zenity ในการดำเนินการ Copilot ระยะไกล (RCE) ในตัวแทน AI เช่น Microsoft 365 Copilot เน้นความสำคัญของการตรวจสอบที่แข็งแกร่งเพื่อระบุและลดการแสวงหาผลประโยชน์ที่อาจเกิดขึ้น”.

ในขณะที่ Microsoft กำลังพัฒนาการจัดการ ในอดีต SharePoint เป็นเป้าหมายที่พบบ่อยโดย CISA ออกการแจ้งเตือนเกี่ยวกับช่องโหว่ที่ใช้ประโยชน์อย่างแข็งขันในเซิร์ฟเวอร์ SharePoint

เพื่อตอบโต้ความเสี่ยงของตัวแทน AI ที่ระบุใหม่ การ จำกัด การสร้างตัวแทนใหม่การอนุมัติสำหรับการปรับใช้ของพวกเขาและการใช้ประโยชน์จาก เครื่องมือตรวจสอบของ Microsoft Microsoft เองให้