Google DeepMind ได้นำเสนอกรอบการทำงานที่ครอบคลุมซึ่งมีวัตถุประสงค์เพื่อประเมินและลดความเสี่ยงที่อาจเกิดขึ้นที่เกี่ยวข้องกับโมเดล AI ขั้นสูง กรอบการทำงานด้านความปลอดภัยชายแดน พยายามที่จะจัดการกับความสามารถที่เป็นอันตรายในขณะที่เทคโนโลยี AI ยังคงพัฒนาต่อไป

กรอบการรักษาความปลอดภัยของ AI ซึ่งเผยแพร่โดย Google DeepMind ได้สรุปกระบวนการที่เป็นระบบสำหรับการประเมินโมเดล AI การประเมินจะเกิดขึ้นเมื่อใดก็ตามที่พลังการคำนวณที่ใช้ในการฝึกแบบจำลองเพิ่มขึ้นหกเท่า หรือเมื่อแบบจำลองผ่านการปรับแต่งอย่างละเอียดเป็นเวลาสามเดือน ระหว่างการประเมิน ระบบเตือนภัยล่วงหน้าได้รับการออกแบบมาเพื่อตรวจจับความเสี่ยงที่เกิดขึ้น DeepMind วางแผนที่จะร่วมมือกับบริษัท นักวิชาการ และฝ่ายนิติบัญญัติอื่นๆ เพื่อปรับแต่งและปรับปรุงกรอบการทำงาน ด้วยการนำเครื่องมือการตรวจสอบมาใช้ซึ่งจะเริ่มในปี 2568

แนวทางปฏิบัติในการประเมินปัจจุบัน

ในปัจจุบัน การประเมินแบบจำลอง AI ที่มีประสิทธิภาพเป็นกระบวนการเฉพาะกิจ ซึ่งจะพัฒนาไปเมื่อนักวิจัยพัฒนาเทคนิคใหม่ๆ “ทีมสีแดง” ใช้เวลาทดสอบโมเดลเป็นระยะเวลานานโดยพยายามเลี่ยงการป้องกันโดยใช้การแจ้งเตือนต่างๆ
 
บริษัทจึงใช้เทคนิคต่างๆ เช่น การเรียนรู้แบบเสริมกำลังและการแจ้งเตือนพิเศษเพื่อให้แน่ใจว่ามีการปฏิบัติตามข้อกำหนด แม้ว่าแนวทางนี้จะเพียงพอสำหรับโมเดลปัจจุบัน ซึ่งไม่ แต่ยังทรงพลังพอที่จะก่อให้เกิดภัยคุกคามที่สำคัญ กระบวนการที่แข็งแกร่งยิ่งขึ้นก็ถือว่าจำเป็นเมื่อความสามารถของ AI ก้าวหน้า

ระดับความสามารถที่สำคัญ

DeepMind ได้สร้างระดับความสามารถที่สำคัญเฉพาะสำหรับสี่โดเมน ได้แก่ ความเป็นอิสระ ความปลอดภัยทางชีวภาพ ความปลอดภัยทางไซเบอร์ และการวิจัยและพัฒนาการเรียนรู้ของเครื่อง ระดับเหล่านี้ได้รับการออกแบบมาเพื่อระบุโมเดลที่อาจควบคุมมนุษย์หรือสร้างมัลแวร์ที่ซับซ้อน บริษัทเน้นย้ำถึงความสำคัญของการสร้างสมดุลในการลดความเสี่ยงด้วยการส่งเสริมนวัตกรรมและการเข้าถึงเทคโนโลยี AI

วิวัฒนาการของกรอบงานและ การทำงานร่วมกัน

กรอบการทำงานด้านความปลอดภัยของชายแดนได้รับการออกแบบมาเพื่อระบุเชิงรุกและลดความเสี่ยงในอนาคตที่เกิดจากโมเดล AI ขั้นสูง โดยจัดการกับอันตรายร้ายแรงที่อาจเกิดขึ้น เช่น หน่วยงานพิเศษหรือความสามารถทางไซเบอร์ที่ซับซ้อน
 
มีจุดมุ่งหมายเพื่อเสริมการวิจัยการจัดตำแหน่ง AI ที่มีอยู่และชุดความรับผิดชอบและความปลอดภัยของ AI ของ Google กรอบงานจะพัฒนาไปตามความก้าวหน้าในการดำเนินการและเมื่อความร่วมมือกับอุตสาหกรรม นักวิชาการ และรัฐบาลมีความลึกซึ้งยิ่งขึ้น

ทีม Frontier Safety ได้พัฒนาชุดการประเมินผลเพื่อประเมินความเสี่ยงจากความสามารถที่สำคัญ โดยเน้นที่ตัวแทน LLM ที่เป็นอิสระ รายงานล่าสุดของพวกเขาสำรวจกลไกสำหรับ”ระบบเตือนภัยล่วงหน้า”เพื่อคาดการณ์ความสามารถในอนาคต กรอบงานจะได้รับการตรวจสอบและพัฒนาเป็นระยะ ซึ่งสอดคล้องกับหลักการ AI ของ Google เพื่อให้มั่นใจว่าจะได้รับประโยชน์อย่างกว้างขวางในขณะเดียวกันก็ลดความเสี่ยงด้วย

นักวิจารณ์เช่น Eliezer Yudkowsky แสดงความกังขาเกี่ยวกับความสามารถในการตรวจจับสติปัญญาขั้นสูงในโมเดล AI ทันทีที่เพียงพอ ป้องกันภัยคุกคามที่อาจเกิดขึ้น พวกเขาโต้แย้งว่าธรรมชาติของเทคโนโลยี AI อาจช่วยให้สามารถเอาชนะมาตรการด้านความปลอดภัยที่มนุษย์คิดขึ้นได้

จะมีการหารือเกี่ยวกับกรอบการทำงานของ Google DeepMind ที่ การประชุมสุดยอด AI ใน โซล ที่ซึ่งผู้นำในอุตสาหกรรมจะมารวมตัวกันเพื่อแบ่งปันข้อมูลเชิงลึกและความก้าวหน้าด้านความปลอดภัยของ AI

Categories: IT Info