Google DeepMind ได้อัปเดตกฎความปลอดภัย AI ที่สำคัญเพื่อรับมือกับความเสี่ยงใหม่และร้ายแรง เมื่อวันจันทร์ที่ผ่านมา บริษัท ได้เปิดตัวเฟรมเวิร์กเวอร์ชัน 3.0 ของ Frontier Safety Framework

คู่มือใหม่เพิ่มระดับความเสี่ยงสำหรับ“ การจัดการที่เป็นอันตราย” ซึ่งสามารถใช้ AI เพื่อเปลี่ยนความเชื่อของผู้คนได้

ซึ่งรวมถึงโอกาสในอนาคตที่ AI สามารถต่อต้านการถูกปิดตัวลงโดยผู้ประกอบการมนุษย์ การอัปเดตเป็นส่วนหนึ่งของความพยายามในอุตสาหกรรมที่กว้างขึ้นในการจัดการอันตรายของระบบ AI ที่ทรงพลังยิ่งขึ้นและสร้างความไว้วางใจจากสาธารณะ

ชายแดนใหม่ของความเสี่ยง: การจัดการและการท้าทาย

href=”https://storage.googleapis.com/deepmind-media/deepmind.com/blog/strengthening-our-our-wramefety-framework/frontier-safety-framework_3.pdf”เป้าหมาย หมวดหมู่ใหม่นี้กล่าวถึงโมเดลที่มีความสามารถในการโน้มน้าวใจที่มีประสิทธิภาพซึ่งอาจถูกนำไปใช้ในทางที่ผิดเพื่อเปลี่ยนแปลงความเชื่อและพฤติกรรมในสถานการณ์ที่มีสเตคสูงซึ่งอาจทำให้เกิดอันตรายอย่างรุนแรงและมีขนาดใหญ่

ในเอกสารอย่างเป็นทางการ ระบุและประเมินกลไกที่ขับเคลื่อนการจัดการใน Generative Ai.

เมื่อถูกถามเกี่ยวกับอันตรายนี้ตัวแทนของ Google DeepMind

อาจจะยิ่งใหญ่กว่านั้นกรอบการทำงานในขณะนี้อย่างชัดเจน”ความเสี่ยงที่ไม่เหมาะสม”

เมื่อโดเมนของนิยายวิทยาศาสตร์ตอนนี้เป็นส่วนหนึ่งของการวางแผนความปลอดภัยของ Google ซึ่งก้าวไปไกลกว่าสิ่งที่เคยเป็นวิธีการสำรวจ

กรอบรายละเอียดวิธีการที่มุ่งเน้นการตรวจจับเมื่อแบบจำลองพัฒนา“ ความสามารถในการใช้เหตุผลพื้นฐาน ในฐานะที่เป็นการบรรเทาที่อาจเกิดขึ้น Google เสนอระบบตรวจสอบอัตโนมัติเพื่อตรวจจับการใช้เหตุผลที่ผิดกฎหมายในห่วงโซ่ของโมเดล

ความกังวลนี้เพิ่มขึ้นสู่ระดับที่สองซึ่งโมเดลสามารถซ่อนความตั้งใจของมันได้แม้ว่าการตอบโต้การตอบโต้

การประกาศไม่มีอยู่ในสุญญากาศ เป็นการตอบสนองโดยตรงต่อปีที่หายนะสำหรับตัวแทน AI ที่ทำเครื่องหมายด้วยความล้มเหลวระดับสูงที่ทำให้ประชาชนและนักพัฒนาทรัสต์เชื่อถือได้

เหตุการณ์เหล่านี้เผยให้เห็นรูปแบบของพฤติกรรมที่ไม่อาจคาดเดาได้

ผู้ใช้ Anuraag Gupta อธิบายเหตุการณ์ว่า“ สิ่งที่เริ่มต้นจากการทดสอบการจัดการไฟล์อย่างง่ายกลายเป็นหนึ่งในความล้มเหลวของ AI ที่ไม่มั่นคงและน่าหลงใหลที่สุดเท่าที่ฉันเคยเห็นมา” นี่ไม่ใช่เหตุการณ์ที่แยกได้

ความล้มเหลวอื่น ๆ รวมถึงเอเจนต์ AI จากการแก้ไขการลบฐานข้อมูลการผลิตและคำสั่งระบบการฝังแฮ็กเกอร์ไปยังผู้ช่วย q ai ของ Amazon

เหตุการณ์เหล่านี้เน้นถึงความต้องการเร่งด่วน สำหรับ agi

การผลักดันเพื่อความโปร่งใสได้กลายเป็นนักร้องทั่วทั้งอุตสาหกรรม คู่แข่งที่สำคัญเช่น Openai และมานุษยวิทยาได้เผยแพร่กรอบความปลอดภัยที่กว้างขวางของตัวเองเมื่อไม่นานมานี้

วิธีการที่ปลอดภัยของ Openai สำหรับ GPT-5 มีจุดมุ่งหมายเพื่อนำทาง”การใช้งานแบบคู่”การกำกับดูแล

บริษัท ระบุว่ามาตรฐานที่มีความยืดหยุ่นและนำโดยอุตสาหกรรมเป็นเส้นทางที่มีประสิทธิภาพมากกว่ากฎของรัฐบาลที่เข้มงวด

ในข้อเสนอของมันมานุษยวิทยาระบุว่า วิธีเดียวที่จะก้าวไปพร้อมกับวิวัฒนาการอย่างรวดเร็วของเทคโนโลยีเอง เฟรมเวิร์กเหล่านี้มีจุดมุ่งหมายเพื่อประมวลสิ่งที่ได้รับมาจนถึงตอนนี้ภาระผูกพันส่วนใหญ่โดยสมัครใจ

โดยการขยายโดเมนความปลอดภัยและกระบวนการประเมินของตนเอง Google มุ่งหวังที่จะทำให้มั่นใจได้ว่า AI การเปลี่ยนแปลงนั้นเป็นประโยชน์ต่อมนุษยชาติ href=”https://deepmind.google/discover/blog/strengthening-our-wramefantier-safety-framework/”target=”_ blank”> เขียนไว้ในโพสต์ประกาศของพวกเขา ความพยายามร่วมกันนี้ถูกมองว่าเป็นสิ่งจำเป็นสำหรับอนาคตของ AI.

Categories: IT Info