AI ผู้นำด้านความปลอดภัยของมนุษย์คือ proposin กรอบนโยบายใหม่ ข้อเสนอดังกล่าวเรียกร้องให้ บริษัท AI ขนาดใหญ่เปิดเผยโปรโตคอลความปลอดภัยของพวกเขาผ่าน“ กรอบการพัฒนาที่ปลอดภัย” และรายละเอียด“ การ์ดระบบ”

การเคลื่อนไหวนี้เกิดขึ้นเมื่ออุตสาหกรรม AI เผชิญกับการตรวจสอบความล้มเหลวด้านความปลอดภัยข้อบกพร่องด้านความปลอดภัยและความกังวลด้านจริยธรรม วิธีการ”สัมผัสแสง”ของมานุษยวิทยาพยายามที่จะสร้างความไว้วางใจและความรับผิดชอบสาธารณะโดยการรายงานความปลอดภัยที่เป็นมาตรฐาน มันเสนอทางเลือกที่ยืดหยุ่นในการควบคุมของรัฐบาลที่เข้มงวดในขณะที่จัดการกับความต้องการเร่งด่วนสำหรับการกำกับดูแล

กรอบการพัฒนาที่ปลอดภัยอธิบาย

ที่แกนกลางข้อเสนอต้องการนักพัฒนารุ่นที่มีความสามารถมากที่สุดในการสร้าง href=”https://www-cdn.anthropic.com/19cc4bf9eb6a94f9762ac67368f3322cf82b09fe.pdf”เป้าหมาย=”blank”> เฟรมเวิร์กการพัฒนาที่ปลอดภัย (SDF) เอกสารนี้จะร่างว่า บริษัท ประเมินและบรรเทาความเสี่ยงภัยพิบัติที่ไม่สมเหตุสมผลได้อย่างไรก่อนที่จะปรับใช้โมเดลใหม่

การกำหนดมาตรฐานสนธิสัญญาสมัครใจท่ามกลางการอภิปรายด้านกฎระเบียบ

ข้อเสนอของมานุษยวิทยาโดยเจตนา บริษัท ให้เหตุผลว่า“ มาตรฐานที่กำหนดโดยรัฐบาลจะต้องต่อต้านโดยเฉพาะอย่างยิ่งเนื่องจากวิธีการประเมินผลล้าหลังภายในไม่กี่เดือนเนื่องจากการเปลี่ยนแปลงทางเทคโนโลยี” พยักหน้ารับนวัตกรรมอย่างรวดเร็วซึ่งสามารถทำให้กฎทางเทคนิคเฉพาะล้าสมัยเกือบจะในทันที มานุษยวิทยาแนะนำเกณฑ์เช่น $ 100 ล้านในรายได้ต่อปีหรือการใช้จ่ายด้านการวิจัยและพัฒนา $ 1 พันล้านเพื่อหลีกเลี่ยงการเริ่มต้นที่เป็นภาระ นอกจากนี้ยังรวมถึงบทบัญญัติสำหรับการปกป้องผู้แจ้งเบาะแสทำให้ผิดกฎหมายสำหรับห้องปฏิบัติการที่จะโกหกเกี่ยวกับการปฏิบัติตาม

วิธีการนี้พยายามที่จะประมวลและสร้างมาตรฐานสิ่งที่เป็นข้อผูกพันด้านความปลอดภัยโดยสมัครใจจากห้องปฏิบัติการหลัก บริษัท เช่น Google DeepMind, openai และ

กรอบที่เสนอของมานุษยวิทยา ด้วยการผลักดันความรับผิดชอบสาธารณะและการเปิดเผยความปลอดภัยที่เป็นมาตรฐาน บริษัท พยายามสร้างพื้นฐานใหม่สำหรับการพัฒนาที่รับผิดชอบ ข้อเสนอทำหน้าที่เป็นทั้งเครื่องมือที่ใช้งานได้จริงและการเคลื่อนไหวเชิงกลยุทธ์เพื่อกำหนดอนาคตของการควบคุม AI