ดัชนีความปลอดภัย AI ปี 2024 ที่เพิ่งเปิดตัวจาก Future of Life Institute (FLI) ได้เปิดเผยข้อบกพร่องโดยสิ้นเชิงในแนวทางปฏิบัติด้านความปลอดภัยของ AI ในบริษัทชั้นนำ 6 แห่ง รวมถึง Meta, OpenAI และ Google DeepMind
AI ดัชนีความปลอดภัยได้รับการจัดอันดับสูงสุดด้านมานุษยวิทยาด้วยเกรด”C”แต่บริษัทอื่นๆ เช่น Meta, OpenAI, Google DeepMind, xAI และ Zhipu AI ได้รับคะแนนที่น่าตกตะลึง โดยที่ Meta ล้มเหลว ทันที
การค้นพบนี้เน้นย้ำถึงความจำเป็นเร่งด่วนในการกำกับดูแลที่แข็งแกร่งและการบริหารความเสี่ยงในอุตสาหกรรมที่แข่งขันกันเพื่อพัฒนาระบบ AI ขั้นสูงมากขึ้น
Max Tegmark ประธาน FLI อธิบายสถานการณ์อย่างตรงไปตรงมากับ IEEE Spectrum: “ฉันรู้สึกว่าผู้นำของบริษัทเหล่านี้ติดอยู่กับที่ ในการแข่งขันไปสู่จุดต่ำสุดที่ไม่มีใครสามารถหลุดออกไปได้ ไม่ว่าพวกเขาจะใจดีแค่ไหนก็ตาม”
FLI ประเมินบริษัทใน 6 หมวดหมู่ รวมถึงการประเมินความเสี่ยง การกำกับดูแล และกลยุทธ์ความปลอดภัยที่มีอยู่ แม้ว่าอุตสาหกรรมจะมุ่งเน้นไปที่การพัฒนาระบบที่มีประสิทธิภาพ แต่รายงานก็เน้นย้ำถึงช่องว่างที่สำคัญระหว่างความสามารถทางเทคโนโลยีและมาตรการด้านความปลอดภัยที่มีประสิทธิผล
มานุษยวิทยาเป็นผู้นำกลุ่มด้วย”C”ที่ปานกลาง
มานุษยวิทยากลายเป็นนักแสดงที่ดีที่สุดในดัชนี แม้ว่าเกรด”C”ของดัชนีจะบ่งชี้ว่ายังมีช่องทางที่ต้องปรับปรุงอีกมาก “นโยบายการปรับขนาดอย่างมีความรับผิดชอบ” ของบริษัทโดดเด่นในฐานะตัวอย่างเชิงบวก
นโยบายนี้กำหนดให้ทุกรุ่นต้องได้รับการประเมินความเสี่ยงอย่างเข้มงวดเพื่อระบุและบรรเทาอันตรายร้ายแรงก่อนการใช้งาน นอกจากนี้ Anthropic ยังได้รับผลลัพธ์ที่แข็งแกร่งอย่างต่อเนื่องจากสิ่งที่กำหนดไว้ เกณฑ์มาตรฐานด้านความปลอดภัย โดยได้รับ”B-“ในหมวดหมู่การจัดการกับอันตรายในปัจจุบัน ซึ่งเป็นคะแนนสูงสุดในด้านนั้น
แม้จะมีประสิทธิภาพค่อนข้างแข็งแกร่ง แต่ นอกจากนี้ Anthropic ยังถูกวิพากษ์วิจารณ์ถึงการขาดกลยุทธ์ที่ครอบคลุมในการจัดการความเสี่ยงที่มีอยู่ ซึ่งเป็นประเด็นที่บริษัททุกแห่งได้รับการประเมินร่วมกัน
แหล่งที่มา: โครงการริเริ่ม FutureOfLife
ผู้ตรวจสอบตั้งข้อสังเกตว่าแม้ว่า Anthropic, OpenAI และ Google DeepMind ได้กล่าวถึงแนวทางเบื้องต้นด้านความปลอดภัยที่มีอยู่แล้ว แต่ความพยายามเหล่านี้ยังคงเป็นข้อมูลเบื้องต้นและไม่เพียงพอที่จะจัดการกับขนาดของความท้าทาย
Meta ได้คะแนน”F”เนื่องจากความกังวลด้านความปลอดภัยเพิ่มมากขึ้น
ที่ฝั่งตรงข้ามของสเปกตรัม Meta ได้รับเกรดที่ล้มเหลวสำหรับ แนวทางปฏิบัติด้านการกำกับดูแลและความปลอดภัยที่ไม่เพียงพอ รายงานระบุช่องว่างที่สำคัญในกรอบการทำงานที่โปร่งใส ความรับผิดชอบ และกลยุทธ์ด้านความปลอดภัยที่มีอยู่ของ Meta ทำให้เกิดความกังวลเกี่ยวกับความสามารถของบริษัทในการจัดการความเสี่ยงที่เกี่ยวข้องกับการพัฒนา AI
การแสดง Meta ที่ไม่ดีนั้นเน้นให้เห็นถึงประเด็นที่กว้างขึ้นในอุตสาหกรรม แม้จะมีการลงทุนจำนวนมากในการวิจัยด้าน AI แต่บริษัทหลายแห่งก็ไม่ได้จัดลำดับความสำคัญของโครงสร้างการกำกับดูแลที่จำเป็นเพื่อให้แน่ใจว่าเทคโนโลยีของพวกเขาปลอดภัยและสอดคล้องกับคุณค่าทางสังคมที่ขาดไป การจัดลำดับความสำคัญนั้นรุนแรงขึ้นเนื่องจากสภาพแวดล้อมการแข่งขันที่ให้ผลการปรับใช้อย่างรวดเร็วมากกว่าความระมัดระวัง
ความโปร่งใส: จุดอ่อนที่คงอยู่
ความโปร่งใสเป็นอีกประเด็นสำคัญที่บริษัทมีประสิทธิภาพต่ำกว่า. มีเพียง xAI และ Zhipu AI เท่านั้นที่ตอบแบบสอบถามด้านความปลอดภัยที่ออกแบบโดยเฉพาะซึ่งส่งโดย FLI ทำให้ได้รับคะแนนที่สูงขึ้นเล็กน้อยในหมวดหมู่นี้
บริษัทอื่นๆ ล้มเหลวในการให้ข้อมูลเชิงลึกโดยละเอียดเกี่ยวกับแนวทางปฏิบัติด้านความปลอดภัยภายในของตน โดยเน้นย้ำถึงความทึบแสงที่มักจะล้อมรอบการพัฒนา AI
เพื่อตอบสนองต่อรายงาน Google DeepMind ได้ออก คำแถลงที่ปกป้องแนวทางของตน โดยกล่าวว่า “แม้ว่าดัชนีจะรวมเอาความพยายามด้านความปลอดภัยของ AI ของ Google DeepMind ไว้ด้วย และสะท้อนถึงเกณฑ์มาตรฐานที่อุตสาหกรรมนำมาใช้ แนวทางที่ครอบคลุมด้านความปลอดภัยของ AI ขยายขอบเขตไปไกลกว่าสิ่งที่บันทึกไว้”
อย่างไรก็ตาม ผู้ตรวจสอบยังคงไม่มั่นใจ โดยชี้ให้เห็นว่าหากไม่มีความโปร่งใสมากขึ้น ก็เป็นไปไม่ได้ที่จะประเมินว่าการกล่าวอ้างเหล่านี้แปลเป็นการดำเนินการที่มีความหมายหรือไม่
Max Tegmark เน้นย้ำถึงความสำคัญของแรงกดดันจากภายนอก หมายเหตุ “หากบริษัทไม่รู้สึกถึงแรงกดดันจากภายนอกที่จะต้องปฏิบัติตามความปลอดภัย มาตรฐานแล้วคนอื่นๆใน บริษัทจะมองว่าคุณเป็นคนน่ารำคาญ คนที่พยายามทำให้งานช้าลงและโยนกรวดเข้าไปในเครื่องจักร แต่หากจู่ๆ นักวิจัยด้านความปลอดภัยมีความรับผิดชอบในการปรับปรุงชื่อเสียงของบริษัท พวกเขาจะได้รับทรัพยากร ความเคารพ และอิทธิพล”
กลยุทธ์ความเสี่ยงที่มีอยู่: ความล้มเหลวทั่วไป
หนึ่งในข้อค้นพบที่เกี่ยวข้องมากที่สุดในดัชนีคือความล้มเหลวในระดับสากลของบริษัทต่างๆ ในการพัฒนากลยุทธ์ความเสี่ยงที่มีอยู่จริง ในขณะที่บริษัทส่วนใหญ่มีความปรารถนาอย่างเปิดเผยต่อสาธารณชนที่จะสร้างระบบปัญญาประดิษฐ์ทั่วไป (AGI) ซึ่งเป็นระบบ AI ที่มีความสามารถในระดับมนุษย์ การรับรู้—ไม่มีใครวางแผนที่ครอบคลุมเพื่อให้แน่ใจว่าระบบเหล่านี้ยังคงสอดคล้องกับคุณค่าของมนุษย์
Tegmark เน้นย้ำถึงความร้ายแรงของปัญหานี้ กล่าว “ความจริงก็คือ ไม่มีใครรู้วิธีควบคุมสายพันธุ์ใหม่ที่ฉลาดกว่าเรามาก”
Stuart Russell สะท้อนความรู้สึกนี้ คำเตือน “เมื่อระบบเหล่านี้มีขนาดใหญ่ขึ้น ก็เป็นไปได้ว่าทิศทางของเทคโนโลยีในปัจจุบันไม่สามารถรองรับการรับประกันความปลอดภัยที่จำเป็นได้”
การขาดกลยุทธ์ด้านความปลอดภัยที่มีอยู่อย่างเป็นรูปธรรมเป็นปัญหาอย่างยิ่งเมื่อพิจารณาจากความสามารถที่เพิ่มขึ้นของระบบ AI ผู้ตรวจสอบเน้นย้ำว่าหากไม่มีกรอบการทำงานที่ชัดเจน ความเสี่ยงที่เกิดจาก AGI อาจเพิ่มขึ้นอย่างรวดเร็ว
ประวัติความเป็นมาของดัชนีความปลอดภัยของ AI
ดัชนีความปลอดภัยของ AI สร้างขึ้นจากดัชนีความปลอดภัยก่อนหน้านี้ โครงการริเริ่มของ FLI รวมถึง”จดหมายหยุดชั่วคราว”ปี 2023 ที่มีการพูดคุยกันอย่างกว้างขวาง ซึ่งเรียกร้องให้มีการดำเนินการชั่วคราว หยุดการพัฒนาระบบ AI ขั้นสูงเพื่อสร้างโปรโตคอลความปลอดภัยที่แข็งแกร่ง
จดหมายที่ลงนามโดยบุคคลมากกว่า 33,700 คน รวมถึงชื่อที่มีชื่อเสียงอย่าง Elon Musk และ Steve Wozniak ก็ถูกเพิกเฉยโดยบริษัทที่เป็นเป้าหมายในท้ายที่สุด ดัชนีปี 2024 แสดงให้เห็นถึงความพยายามล่าสุดของ FLI ที่จะรับผิดชอบต่ออุตสาหกรรมโดยบริษัทต่างๆ ที่ให้คะแนนแนวทางปฏิบัติด้านความปลอดภัยของตน
ตามที่ Stuart Russell ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่ UC Berkeley และหนึ่งในผู้ตรวจสอบรายงานกล่าวว่า”ผลการวิจัยชี้ให้เห็นว่าแม้ว่าจะมี กิจกรรมมากมายของบริษัท AI ที่อยู่ภายใต้หัวข้อ’ความปลอดภัย’ยังไม่ค่อยมีประสิทธิภาพนัก กิจกรรมใดๆ ในปัจจุบันไม่ได้ให้การรับประกันความปลอดภัยเชิงปริมาณแต่อย่างใด”
ดัชนีนี้มีจุดมุ่งหมายเพื่อส่งเสริมความโปร่งใส เพิ่มขีดความสามารถให้กับทีมความปลอดภัยภายใน และส่งเสริมการกำกับดูแลจากภายนอกเพื่อป้องกันความเสี่ยงที่อาจเกิดภัยพิบัติ
การเรียกร้องให้มีการกำกับดูแลด้านกฎระเบียบ
รายงานของ FLI ปิดท้ายด้วยการเรียกร้องให้มีกรอบการกำกับดูแลที่เข้มงวดมากขึ้นเพื่อแก้ไขช่องว่างที่ระบุในดัชนี Tegmark เสนอให้มีการสร้างหน่วยงานกำกับดูแล คล้ายกับสำนักงานคณะกรรมการอาหารและยาของสหรัฐอเมริกา (FDA) เพื่อประเมินระบบ AI ก่อนที่จะนำไปใช้งาน
หน่วยงานดังกล่าวสามารถบังคับใช้มาตรฐานความปลอดภัยบังคับ โดยเปลี่ยนแรงกดดันด้านการแข่งขันของอุตสาหกรรมจากการจัดลำดับความสำคัญของความเร็วไปสู่การจัดลำดับความสำคัญด้านความปลอดภัย
Yoshua Bengio ผู้ได้รับรางวัล Turing Award ซึ่งเป็นผู้ร่วมอภิปรายอีกคนใน Index สนับสนุนข้อเสนอนี้ ระบุ “การประเมินเช่นนี้เน้นย้ำถึงแนวทางปฏิบัติด้านความปลอดภัยและส่งเสริมให้บริษัทต่างๆ ปรับใช้แนวทางที่มีความรับผิดชอบมากขึ้น” Bengio แย้งว่าการกำกับดูแลที่เป็นอิสระเป็นสิ่งสำคัญเพื่อให้แน่ใจว่าบริษัทต่างๆ จะไม่ตัดมุมในการแสวงหาการครอบงำตลาด
วิธีการรวบรวมดัชนี
ปี 2024 AI Safety Index ได้รับการพัฒนาผ่านกระบวนการประเมินที่พิถีพิถันซึ่งนำโดยคณะผู้เชี่ยวชาญอิสระ 7 คน รวมถึง Bengio, Russell และ Sneha Revanur ผู้ก่อตั้ง Encode Justice
คณะผู้พิจารณาได้ประเมินบริษัทต่างๆ จากตัวชี้วัด 42 ตัว ซึ่งครอบคลุม 6 หมวดหมู่ ได้แก่ การประเมินความเสี่ยง อันตรายในปัจจุบัน ความโปร่งใส การกำกับดูแล ความปลอดภัยที่มีอยู่ และการสื่อสาร
วิธีการนี้ได้รวมข้อมูลสาธารณะ เช่น เอกสารนโยบาย เอกสารวิจัย และรายงานอุตสาหกรรม พร้อมการตอบแบบสอบถามที่กำหนดเอง อย่างไรก็ตาม การมีส่วนร่วมที่จำกัดของบริษัทต่างๆ ในกระบวนการนี้เน้นย้ำถึงความท้าทายในการบรรลุความโปร่งใสในอุตสาหกรรม
David Krueger ผู้ร่วมอภิปรายและนักวิจัยด้าน AI กล่าวว่า “เป็นเรื่องน่าตกใจที่บริษัทต่างๆ ที่ผู้นำคาดการณ์ว่า AI จะสามารถทำได้ มนุษยชาติขั้นสุดท้ายไม่มีกลยุทธ์ที่จะหลีกเลี่ยงชะตากรรมเช่นนี้”
ผลกระทบต่ออนาคตของการกำกับดูแลด้าน AI
ดัชนีความปลอดภัยของ AI ปี 2024 ภาพอันน่าตกตะลึงของสถานะปัจจุบันของการกำกับดูแลด้าน AI ในขณะที่บริษัทต่างๆ เช่น Anthropic กำลังก้าวหน้า การค้นพบโดยรวมเผยให้เห็นถึงการขาดความพร้อมในการจัดการความเสี่ยงที่เกิดจากเทคโนโลยี AI ขั้นสูง
รายงานเรียกร้องให้ดำเนินการอย่างเร่งด่วน เพื่อสร้างระเบียบการด้านความปลอดภัยที่เข้มงวดขึ้นและการกำกับดูแลด้านกฎระเบียบเพื่อให้แน่ใจว่าการพัฒนา AI สอดคล้องกับผลประโยชน์ทางสังคม
ในฐานะที่ Tegmark ตั้งข้อสังเกตว่า “หากไม่มีแรงกดดันจากภายนอกและมาตรฐานที่แข็งแกร่ง การแข่งขันเพื่อพัฒนา AI อาจนำไปสู่ผลลัพธ์ที่เลวร้ายได้”