Google กำลังผลักดันให้มีการดำเนินการทั่วโลกเกี่ยวกับข่าวกรองทั่วไป (AGI) โดยเน้นความเร่งด่วนในการสร้างการป้องกันก่อนที่ระบบเหล่านี้จะก้าวไปข้างหน้านอกเหนือจากการควบคุมของมนุษย์ ในบล็อกโพสต์ที่ตีพิมพ์เมื่อวานนี้โดย DeepMind บริษัท เปิดเผยกรอบความปลอดภัยระหว่างประเทศใหม่ที่สร้างขึ้นรอบเสาหลักสามเสา: การสนับสนุนการวิจัยทางเทคนิคการใช้ระบบการเตือนล่วงหน้าและส่งเสริมความร่วมมือระหว่างประเทศผ่านการกำกับดูแล บริษัท เน้นว่าความต้องการมาตรการด้านความปลอดภัยนั้นไม่ได้เป็นเรื่องที่ห่างไกล แต่เป็นความท้าทายในทันที “ [a] องค์ประกอบสำคัญของกลยุทธ์ของเราคือการระบุและ จำกัด การเข้าถึงความสามารถที่เป็นอันตรายซึ่งอาจถูกนำไปใช้ในทางที่ผิดรวมถึงการโจมตีไซเบอร์” DeepMind ระบุไว้ใน
สะท้อนจากคู่แข่ง-และความขัดแย้งเล็กน้อย
การเรียกร้องความปลอดภัย มันมาถึงห้องแล็บ AI ที่สำคัญอื่น ๆ เริ่มทำตามขั้นตอนที่คล้ายกัน มานุษยวิทยาซึ่งเป็นหนึ่งในคู่แข่งที่สำคัญที่สุดของ DeepMind ได้ออกคำเตือนที่คล้ายกันในเดือนพฤศจิกายน 2567 กระตุ้นให้หน่วยงานกำกับดูแลดำเนินการอย่างรวดเร็วภายใน 18 เดือนเพื่อป้องกันการพัฒนา AI ที่หลบหนี
บริษัท แนะนำนโยบายภายในใหม่รวมถึง มานุษยวิทยายังทำงานร่วมกับการบริหารความมั่นคงนิวเคลียร์แห่งชาติของกระทรวงพลังงานของสหรัฐอเมริกาซึ่งดำเนินการแบบฝึกหัดการฝึกซ้อมสีแดงเพื่อทดสอบแบบจำลอง Claude ในการตั้งค่าความปลอดภัยสูง ความคิดริเริ่มนี้เน้นการมุ่งเน้นที่เพิ่มขึ้นเกี่ยวกับความปลอดภัยของ AI โดยเฉพาะอย่างยิ่งในบริบทที่ AI สามารถส่งผลกระทบต่อความมั่นคงของชาติ
meta ซึ่งได้รับการสนับสนุนการพัฒนา AI ที่เปิดมานาน ในเดือนกุมภาพันธ์ 2568 บริษัท ได้ประกาศเปลี่ยนกลยุทธ์ AI ด้วยกรอบ AI Frontier AI ซึ่งแบ่งโมเดลออกเป็นหมวดหมู่“ ความเสี่ยงสูง” และ“ ความเสี่ยงที่สำคัญ” Meta อธิบายว่าโมเดลความเสี่ยงที่สำคัญจะไม่ถูกเปิดเผยต่อสาธารณะอีกต่อไปหากไม่มีการป้องกันที่เข้มงวดในสถานที่
การตัดสินใจครั้งนี้ตามการใช้แบบจำลอง Llama ในทางที่ผิดในการสร้างสคริปต์ที่เป็นอันตรายและแชทบอททางทหารที่ไม่ได้รับอนุญาต Meta เน้นว่าเป้าหมายของมันคือการลดความเสี่ยงหายนะที่เกี่ยวข้องกับโมเดลเหล่านี้
ในขณะที่การเคลื่อนไหวเหล่านี้สะท้อนให้เห็นถึงการเปลี่ยนไปสู่ความระมัดระวังพวกเขายังแสดงให้เห็นถึงความสัมพันธ์ที่ซับซ้อนมากขึ้นระหว่างการพัฒนา AI และการใช้ในทางที่ผิด เมื่อ บริษัท จำนวนมากขึ้นปรับกลยุทธ์ของพวกเขาข้อเสนอของ DeepMind นั้นเหมาะสมกับรูปแบบที่ใหญ่กว่าของความระมัดระวังเนื่องจากอุตสาหกรรมการต่อสู้กับอนาคตของ AGI
การสร้างเครื่องมือสำหรับการบรรจุแบบจำลอง
ในขณะที่การสนทนาส่วนใหญ่รอบศูนย์ความปลอดภัย AI ในเดือนกุมภาพันธ์มานุษยวิทยาได้เปิดตัวตัวจําแนกรัฐธรรมนูญซึ่งเป็นระบบการกรองภายนอกที่ออกแบบมาเพื่อป้องกันการแจ้งเตือนที่เป็นที่รู้จักและผลลัพธ์ที่เป็นอันตรายจากโมเดล AI การทดสอบแสดงให้เห็นว่าตัวจําแนกลดอัตราความสำเร็จในการแหกคุกจาก 86% เป็นเพียง 4.4%
เพื่อตรวจสอบประสิทธิภาพของมันมานุษยวิทยาวิ่งไปสู่ความท้าทายสาธารณะที่เสนอเงิน $ 15,000 ให้กับทุกคนที่สามารถข้ามระบบได้ ไม่มีผู้เข้าร่วมที่ประสบความสำเร็จในการทำลายมันอย่างสมบูรณ์โดยเน้นย้ำถึงความซับซ้อนที่เพิ่มขึ้นของเครื่องมือที่ออกแบบมาเพื่อมีระบบ AI
เพิ่มความมุ่งมั่นต่อความปลอดภัยมานุษยวิทยาในเดือนมีนาคมเปิดตัวกรอบการตีความของมันเรียกมันว่า”กล้องจุลทรรศน์ AI”เป็นเครื่องมือที่ให้ข้อมูลเชิงลึก โดยการวิเคราะห์การเปิดใช้งานระบบประสาทมันสามารถติดตามวิธีที่โมเดลประมวลผลข้อมูลและตรวจจับพฤติกรรมที่อาจเป็นอันตราย
ความสามารถในการตีความนี้เป็นสิ่งจำเป็น เปิดตัวในเดือนธันวาคม 2567 Clio วิเคราะห์การสนทนาหลายล้านครั้งกับ Claude เพื่อตรวจจับรูปแบบของการใช้ในทางที่ผิด ระบบจัดลำดับความสำคัญความเป็นส่วนตัวโดยการไม่ระบุชื่อการสนทนาก่อนประมวลผล วิธีการเชิงรุกนี้ในการตรวจสอบพฤติกรรม AI สอดคล้องกับการเน้นของ DeepMind เกี่ยวกับความต้องการการกำกับดูแลด้านความปลอดภัยอย่างต่อเนื่องในขณะที่ระบบ AI เติบโตขึ้นอย่างซับซ้อนมากขึ้น