Google DeepMind ได้อัปเดตกฎความปลอดภัย AI ที่สำคัญเพื่อรับมือกับความเสี่ยงใหม่และร้ายแรง เมื่อวันจันทร์ที่ผ่านมา บริษัท ได้เปิดตัวเฟรมเวิร์กเวอร์ชัน 3.0 ของ Frontier Safety Framework
คู่มือใหม่เพิ่มระดับความเสี่ยงสำหรับ“ การจัดการที่เป็นอันตราย” ซึ่งสามารถใช้ AI เพื่อเปลี่ยนความเชื่อของผู้คนได้
ซึ่งรวมถึงโอกาสในอนาคตที่ AI สามารถต่อต้านการถูกปิดตัวลงโดยผู้ประกอบการมนุษย์ การอัปเดตเป็นส่วนหนึ่งของความพยายามในอุตสาหกรรมที่กว้างขึ้นในการจัดการอันตรายของระบบ AI ที่ทรงพลังยิ่งขึ้นและสร้างความไว้วางใจจากสาธารณะ
ชายแดนใหม่ของความเสี่ยง: การจัดการและการท้าทาย
href=”https://storage.googleapis.com/deepmind-media/deepmind.com/blog/strengthening-our-our-wramefety-framework/frontier-safety-framework_3.pdf”เป้าหมาย หมวดหมู่ใหม่นี้กล่าวถึงโมเดลที่มีความสามารถในการโน้มน้าวใจที่มีประสิทธิภาพซึ่งอาจถูกนำไปใช้ในทางที่ผิดเพื่อเปลี่ยนแปลงความเชื่อและพฤติกรรมในสถานการณ์ที่มีสเตคสูงซึ่งอาจทำให้เกิดอันตรายอย่างรุนแรงและมีขนาดใหญ่
ในเอกสารอย่างเป็นทางการ ระบุและประเมินกลไกที่ขับเคลื่อนการจัดการใน Generative Ai.
เหตุการณ์เหล่านี้เผยให้เห็นรูปแบบของพฤติกรรมที่ไม่อาจคาดเดาได้
ผู้ใช้ Anuraag Gupta อธิบายเหตุการณ์ว่า“ สิ่งที่เริ่มต้นจากการทดสอบการจัดการไฟล์อย่างง่ายกลายเป็นหนึ่งในความล้มเหลวของ AI ที่ไม่มั่นคงและน่าหลงใหลที่สุดเท่าที่ฉันเคยเห็นมา” นี่ไม่ใช่เหตุการณ์ที่แยกได้
ความล้มเหลวอื่น ๆ รวมถึงเอเจนต์ AI จากการแก้ไขการลบฐานข้อมูลการผลิตและคำสั่งระบบการฝังแฮ็กเกอร์ไปยังผู้ช่วย q ai ของ Amazon
เหตุการณ์เหล่านี้เน้นถึงความต้องการเร่งด่วน สำหรับ agi
การผลักดันเพื่อความโปร่งใสได้กลายเป็นนักร้องทั่วทั้งอุตสาหกรรม คู่แข่งที่สำคัญเช่น Openai และมานุษยวิทยาได้เผยแพร่กรอบความปลอดภัยที่กว้างขวางของตัวเองเมื่อไม่นานมานี้
วิธีการที่ปลอดภัยของ Openai สำหรับ GPT-5 มีจุดมุ่งหมายเพื่อนำทาง”การใช้งานแบบคู่”การกำกับดูแล
บริษัท ระบุว่ามาตรฐานที่มีความยืดหยุ่นและนำโดยอุตสาหกรรมเป็นเส้นทางที่มีประสิทธิภาพมากกว่ากฎของรัฐบาลที่เข้มงวด
ในข้อเสนอของมันมานุษยวิทยาระบุว่า วิธีเดียวที่จะก้าวไปพร้อมกับวิวัฒนาการอย่างรวดเร็วของเทคโนโลยีเอง เฟรมเวิร์กเหล่านี้มีจุดมุ่งหมายเพื่อประมวลสิ่งที่ได้รับมาจนถึงตอนนี้ภาระผูกพันส่วนใหญ่โดยสมัครใจ
โดยการขยายโดเมนความปลอดภัยและกระบวนการประเมินของตนเอง Google มุ่งหวังที่จะทำให้มั่นใจได้ว่า AI การเปลี่ยนแปลงนั้นเป็นประโยชน์ต่อมนุษยชาติ href=”https://deepmind.google/discover/blog/strengthening-our-wramefantier-safety-framework/”target=”_ blank”> เขียนไว้ในโพสต์ประกาศของพวกเขา ความพยายามร่วมกันนี้ถูกมองว่าเป็นสิ่งจำเป็นสำหรับอนาคตของ AI.