Google กำลังผลักดันให้มีการดำเนินการทั่วโลกเกี่ยวกับข่าวกรองทั่วไป (AGI) โดยเน้นความเร่งด่วนในการสร้างการป้องกันก่อนที่ระบบเหล่านี้จะก้าวไปข้างหน้านอกเหนือจากการควบคุมของมนุษย์ ในบล็อกโพสต์ที่ตีพิมพ์เมื่อวานนี้โดย DeepMind บริษัท เปิดเผยกรอบความปลอดภัยระหว่างประเทศใหม่ที่สร้างขึ้นรอบเสาหลักสามเสา: การสนับสนุนการวิจัยทางเทคนิคการใช้ระบบการเตือนล่วงหน้าและส่งเสริมความร่วมมือระหว่างประเทศผ่านการกำกับดูแล บริษัท เน้นว่าความต้องการมาตรการด้านความปลอดภัยนั้นไม่ได้เป็นเรื่องที่ห่างไกล แต่เป็นความท้าทายในทันที “ [a] องค์ประกอบสำคัญของกลยุทธ์ของเราคือการระบุและ จำกัด การเข้าถึงความสามารถที่เป็นอันตรายซึ่งอาจถูกนำไปใช้ในทางที่ผิดรวมถึงการโจมตีไซเบอร์” DeepMind ระบุไว้ใน

สะท้อนจากคู่แข่ง-และความขัดแย้งเล็กน้อย

การเรียกร้องความปลอดภัย มันมาถึงห้องแล็บ AI ที่สำคัญอื่น ๆ เริ่มทำตามขั้นตอนที่คล้ายกัน มานุษยวิทยาซึ่งเป็นหนึ่งในคู่แข่งที่สำคัญที่สุดของ DeepMind ได้ออกคำเตือนที่คล้ายกันในเดือนพฤศจิกายน 2567 กระตุ้นให้หน่วยงานกำกับดูแลดำเนินการอย่างรวดเร็วภายใน 18 เดือนเพื่อป้องกันการพัฒนา AI ที่หลบหนี

บริษัท แนะนำนโยบายภายในใหม่รวมถึง มานุษยวิทยายังทำงานร่วมกับการบริหารความมั่นคงนิวเคลียร์แห่งชาติของกระทรวงพลังงานของสหรัฐอเมริกาซึ่งดำเนินการแบบฝึกหัดการฝึกซ้อมสีแดงเพื่อทดสอบแบบจำลอง Claude ในการตั้งค่าความปลอดภัยสูง ความคิดริเริ่มนี้เน้นการมุ่งเน้นที่เพิ่มขึ้นเกี่ยวกับความปลอดภัยของ AI โดยเฉพาะอย่างยิ่งในบริบทที่ AI สามารถส่งผลกระทบต่อความมั่นคงของชาติ

meta ซึ่งได้รับการสนับสนุนการพัฒนา AI ที่เปิดมานาน ในเดือนกุมภาพันธ์ 2568 บริษัท ได้ประกาศเปลี่ยนกลยุทธ์ AI ด้วยกรอบ AI Frontier AI ซึ่งแบ่งโมเดลออกเป็นหมวดหมู่“ ความเสี่ยงสูง” และ“ ความเสี่ยงที่สำคัญ” Meta อธิบายว่าโมเดลความเสี่ยงที่สำคัญจะไม่ถูกเปิดเผยต่อสาธารณะอีกต่อไปหากไม่มีการป้องกันที่เข้มงวดในสถานที่

การตัดสินใจครั้งนี้ตามการใช้แบบจำลอง Llama ในทางที่ผิดในการสร้างสคริปต์ที่เป็นอันตรายและแชทบอททางทหารที่ไม่ได้รับอนุญาต Meta เน้นว่าเป้าหมายของมันคือการลดความเสี่ยงหายนะที่เกี่ยวข้องกับโมเดลเหล่านี้

ในขณะที่การเคลื่อนไหวเหล่านี้สะท้อนให้เห็นถึงการเปลี่ยนไปสู่ความระมัดระวังพวกเขายังแสดงให้เห็นถึงความสัมพันธ์ที่ซับซ้อนมากขึ้นระหว่างการพัฒนา AI และการใช้ในทางที่ผิด เมื่อ บริษัท จำนวนมากขึ้นปรับกลยุทธ์ของพวกเขาข้อเสนอของ DeepMind นั้นเหมาะสมกับรูปแบบที่ใหญ่กว่าของความระมัดระวังเนื่องจากอุตสาหกรรมการต่อสู้กับอนาคตของ AGI

การสร้างเครื่องมือสำหรับการบรรจุแบบจำลอง

ในขณะที่การสนทนาส่วนใหญ่รอบศูนย์ความปลอดภัย AI ในเดือนกุมภาพันธ์มานุษยวิทยาได้เปิดตัวตัวจําแนกรัฐธรรมนูญซึ่งเป็นระบบการกรองภายนอกที่ออกแบบมาเพื่อป้องกันการแจ้งเตือนที่เป็นที่รู้จักและผลลัพธ์ที่เป็นอันตรายจากโมเดล AI การทดสอบแสดงให้เห็นว่าตัวจําแนกลดอัตราความสำเร็จในการแหกคุกจาก 86% เป็นเพียง 4.4%

เพื่อตรวจสอบประสิทธิภาพของมันมานุษยวิทยาวิ่งไปสู่ความท้าทายสาธารณะที่เสนอเงิน $ 15,000 ให้กับทุกคนที่สามารถข้ามระบบได้ ไม่มีผู้เข้าร่วมที่ประสบความสำเร็จในการทำลายมันอย่างสมบูรณ์โดยเน้นย้ำถึงความซับซ้อนที่เพิ่มขึ้นของเครื่องมือที่ออกแบบมาเพื่อมีระบบ AI

เพิ่มความมุ่งมั่นต่อความปลอดภัยมานุษยวิทยาในเดือนมีนาคมเปิดตัวกรอบการตีความของมันเรียกมันว่า”กล้องจุลทรรศน์ AI”เป็นเครื่องมือที่ให้ข้อมูลเชิงลึก โดยการวิเคราะห์การเปิดใช้งานระบบประสาทมันสามารถติดตามวิธีที่โมเดลประมวลผลข้อมูลและตรวจจับพฤติกรรมที่อาจเป็นอันตราย

ความสามารถในการตีความนี้เป็นสิ่งจำเป็น เปิดตัวในเดือนธันวาคม 2567 Clio วิเคราะห์การสนทนาหลายล้านครั้งกับ Claude เพื่อตรวจจับรูปแบบของการใช้ในทางที่ผิด ระบบจัดลำดับความสำคัญความเป็นส่วนตัวโดยการไม่ระบุชื่อการสนทนาก่อนประมวลผล วิธีการเชิงรุกนี้ในการตรวจสอบพฤติกรรม AI สอดคล้องกับการเน้นของ DeepMind เกี่ยวกับความต้องการการกำกับดูแลด้านความปลอดภัยอย่างต่อเนื่องในขณะที่ระบบ AI เติบโตขึ้นอย่างซับซ้อนมากขึ้น

การกระทำของสหภาพยุโรปและความพยายามนโยบายระดับชาติ พระราชบัญญัติ AI ของสหภาพยุโรปซึ่งมีผลบังคับใช้ในวันที่ 2 กุมภาพันธ์ห้ามระบบ AI บางอย่างที่ถือว่าเป็น“ ความเสี่ยงที่ยอมรับไม่ได้” และกำหนดข้อกำหนดความโปร่งใสที่เข้มงวดสำหรับผู้ที่มีความเสี่ยงสูง บริษัท อย่าง OpenAI และ Meta มุ่งมั่นที่จะปฏิบัติตามข้อกำหนดเหล่านี้แม้ว่าหลายคนยังไม่ได้ปฏิบัติตามอย่างเต็มที่

การดำเนินงานของพระราชบัญญัติของสหภาพยุโรปเป็นไปตามการอภิปรายหลายเดือนในอุตสาหกรรมเกี่ยวกับวิธีที่ดีที่สุดในการสร้างสมดุลนวัตกรรมด้วยความปลอดภัย คณะกรรมาธิการยุโรปได้ระบุแล้วว่าการไม่ปฏิบัติตามอาจส่งผลให้เกิดค่าปรับจำนวนมาก-สูงถึง 6% ของรายได้ทั่วโลกของ บริษัท สำหรับการละเมิด

ในสหรัฐอเมริกาทำเนียบขาวได้เริ่มพิจารณาข้อเสนอล่าสุดของมานุษยวิทยา อย่างไรก็ตามตามที่รายงานโดย TechCrunch มานุษยวิทยาย้อนกลับไปอย่างเงียบ ๆ หลายประการที่เกิดขึ้นในช่วงแรก ๆ ของการบริหารไบเดนทำให้เกิดคำถามเกี่ยวกับความสอดคล้องของความพยายามในการกำกับดูแลตนเองของอุตสาหกรรม ฉากหลังนี้เป็นเวทีสำหรับการเรียกของ DeepMind สำหรับการกำกับดูแลที่แข็งแกร่งยิ่งขึ้น

guardrails ในฮาร์ดแวร์และพันธมิตรอุตสาหกรรม

ไดรฟ์เพื่อความปลอดภัย AI ไม่ได้ จำกัด อยู่เพียงซอฟต์แวร์เพียงอย่างเดียว บริษัท ฮาร์ดแวร์ยังมีบทบาทในการสร้างโครงสร้างพื้นฐานด้านความปลอดภัยของ AI ยกตัวอย่างเช่น Nvidia แนะนำ Nemo Guardrails ในเดือนมกราคม 2568 ชุดไมโครไซต์ที่ออกแบบมาเพื่อให้การป้องกันแบบเรียลไทม์กับพฤติกรรม AI ที่เป็นอันตราย เครื่องมือรวมถึงตัวกรองความปลอดภัยของเนื้อหาการตรวจจับการแหกคุกและการควบคุมหัวข้อทั้งหมดได้รับการออกแบบมาเพื่อทำงานควบคู่กับโมเดลที่มีอยู่เพื่อให้แน่ใจว่าพวกเขายังคงสอดคล้องกับโปรโตคอลความปลอดภัย

เครื่องมือเหล่านี้ได้ถูกนำไปใช้ในภาคส่วนต่าง ๆ เช่นการดูแลสุขภาพการค้าปลีกและยานยนต์ Kari Briski รองประธานของ Models AI Enterprise AI ที่ Nvidia กล่าวว่าระบบเหล่านี้อนุญาตให้ธุรกิจ“ รักษาความปลอดภัยโมเดลของพวกเขาจากผลลัพธ์ที่เป็นอันตราย” ในขณะที่ยังคงประสิทธิภาพการใช้งานต่ำ ด้วยการบูรณาการเทคโนโลยีเหล่านี้ Nvidia กำลังวางตำแหน่งตัวเองในฐานะผู้เล่นหลักในความปลอดภัยในอนาคตของ AI

การทำงานร่วมกันระหว่าง บริษัท ฮาร์ดแวร์และ บริษัท ซอฟต์แวร์ได้เน้นย้ำถึงความรับผิดชอบร่วมกันที่ใช้ร่วมกันทั่วทั้งอุตสาหกรรมเพื่อจัดการกับความเสี่ยงของ AGI ในขณะที่กรอบการทำงานของ DeepMind สำหรับโครงสร้างการกำกับดูแลทั่วโลกเป็นที่ชัดเจนว่าเส้นทางที่จะรักษาความปลอดภัย AI จะต้องดำเนินการร่วมกันจากทั้งนักพัฒนาและผู้ให้บริการฮาร์ดแวร์