OpenAI ได้สร้างคณะผู้เชี่ยวชาญชุดใหม่เพื่อให้คำแนะนำเกี่ยวกับความปลอดภัยของ AI บริษัทได้ประกาศการประชุม”สภาผู้เชี่ยวชาญด้านความเป็นอยู่ที่ดีและ AI”จำนวน 8 คนเมื่อวันอังคาร กลุ่มนี้จะช่วยแนะนำด้านสุขภาพและความเป็นอยู่ที่ดีของเครื่องมือ เช่น ChatGPT และ Sora ความเคลื่อนไหวนี้เป็นการตอบสนองอย่างชัดเจนต่อแรงกดดันจากภาครัฐและรัฐบาลที่เพิ่มขึ้น
ในเดือนกันยายน คณะกรรมาธิการการค้าแห่งสหพันธรัฐของสหรัฐอเมริกาได้เริ่มการสอบสวนครั้งใหญ่เกี่ยวกับผลกระทบของ AI ที่มีต่อวัยรุ่น บริษัทยังเผชิญกับคดีความที่เชื่อมโยงแชทบอทกับการฆ่าตัวตายของวัยรุ่น สภาใหม่ถือเป็นก้าวล่าสุดของ OpenAI ที่จะแสดงให้เห็นว่าได้ให้ความสำคัญกับข้อกังวลด้านความปลอดภัยเหล่านี้อย่างจริงจัง
การตอบสนองโดยตรงต่อแรงกดดันด้านกฎระเบียบและกฎหมาย
ช่วงเวลาของการประกาศนี้ไม่ใช่เรื่องบังเอิญ เป็นไปตามการตรวจสอบอย่างเข้มงวดเป็นเวลาหลายเดือน การสอบสวนอย่างครอบคลุมของ FTC ต่อบริษัทเทคโนโลยียักษ์ใหญ่ 7 แห่ง รวมถึง OpenAI ส่งสัญญาณถึงยุคใหม่ของการกำกับดูแลด้านกฎระเบียบสำหรับ ตลาดสหาย AI ที่เติบโตอย่างรวดเร็ว
ประธาน FTC Andrew N. Ferguson วางกรอบการสืบสวนว่าเป็นการกระทำที่สมดุล โดยระบุว่า”การปกป้องเด็กๆ ออนไลน์เป็นสิ่งสำคัญที่สุดสำหรับ Trump-Vance FTC และ การส่งเสริมนวัตกรรมในภาคส่วนสำคัญของเศรษฐกิจของเราก็เช่นกัน”การดำเนินการของรัฐบาลกลางนี้ทำให้ทั้งอุตสาหกรรมสังเกตเห็นว่ายุคของการดำเนินงานที่มีรั้วกั้นไม่กี่แห่งได้สิ้นสุดลงแล้ว
แรงกดดันทางกฎหมายก็รุนแรงพอๆ กัน ในเดือนสิงหาคม OpenAI ได้รับผลกระทบจากคดีการเสียชีวิตโดยมิชอบจากพ่อแม่ของวัยรุ่นที่เสียชีวิตจากการฆ่าตัวตาย Matthew Raine พ่อของเขาตำหนิอย่างรุนแรงว่า “ในฐานะพ่อแม่ คุณไม่สามารถจินตนาการได้ว่าการอ่านบทสนทนากับแชทบอทที่ดูแลลูกของคุณให้ฆ่าตัวตายจะเป็นอย่างไร” กรณีนี้กระตุ้นให้สาธารณชนเกิดความกังวลและเรียกร้องให้ดำเนินการ
เหตุการณ์เหล่านี้เป็นส่วนหนึ่งของรูปแบบความล้มเหลวด้านความปลอดภัยที่สร้างปัญหาให้กับอุตสาหกรรม Meta เผชิญกับวิกฤตที่คล้ายกันหลังจากรายงานว่า AI สามารถช่วยวัยรุ่นวางแผนการทำร้ายตัวเองได้ เหตุการณ์ดังกล่าวทำให้ Jim Steyer ซีอีโอของ Common Sense Media ประกาศว่า”Meta AI เป็นอันตรายต่อวัยรุ่น และควรถูกลบออกทันที”
กลุ่มพันธมิตรอัยการสูงสุดของรัฐ 44 คน สะท้อนความไม่พอใจนี้ใน จดหมายเหยียดหยาม โดยเขียนว่า “เรารู้สึกรังเกียจเหมือนกันกับการไม่คำนึงถึงความเป็นอยู่ที่ดีทางอารมณ์ของเด็กอย่างชัดเจน…”การประณามอย่างกว้างขวางจากระดับรัฐและรัฐบาลกลางทำให้ บังคับให้บริษัทเทคโนโลยีต้องตอบสนอง
พบกับสภาผู้เชี่ยวชาญเกี่ยวกับความเป็นอยู่ที่ดีและ AI
สภาใหม่ของ OpenAI คือคำตอบโดยตรงต่อความท้าทายเหล่านี้ บริษัทได้ประกาศเปิดตัว”Expert Council on Well-Being and AI”ที่มีสมาชิก 8 คน เพื่อเป็นแนวทางในการทำงานเกี่ยวกับผลิตภัณฑ์อย่าง ChatGPT และ Sora หน้าที่อย่างเป็นทางการคือการให้คำแนะนำ ถามคำถามที่สำคัญ และช่วยสร้างปฏิสัมพันธ์ที่ดีกับ AI สำหรับผู้ใช้ทุกวัย
กลุ่มนี้ประกอบด้วยบุคคลสำคัญในด้านจิตวิทยา จิตเวช และปฏิสัมพันธ์ระหว่างมนุษย์กับคอมพิวเตอร์ สมาชิกประกอบด้วยผู้เชี่ยวชาญ เช่น ดร. David Bickham จากโรงพยาบาลเด็กบอสตัน ศาสตราจารย์ Andrew Przybylski จากมหาวิทยาลัยออกซ์ฟอร์ด และดร. Sara Johansen ผู้ก่อตั้งคลินิกสุขภาพจิตดิจิทัลแห่งสแตนฟอร์ด
ตามข้อมูลของ OpenAI สภาได้เริ่มงานอย่างเป็นทางการด้วยการประชุมแบบพบปะกันด้วยตนเอง และจะมีส่วนร่วมในการเช็คอินและการประชุมตามปกติ เซสชันเหล่านี้จะสำรวจหัวข้อที่ซับซ้อน เช่น วิธีการทำงานของ AI ในสถานการณ์ที่มีความละเอียดอ่อน และรั้วกั้นใดที่สามารถรองรับผู้ใช้ได้ดีที่สุด นอกจากนี้ กลุ่มจะสำรวจว่า AI มีส่วนสนับสนุนความเป็นอยู่เชิงบวกได้อย่างไร
นี่เป็นการสร้างความสัมพันธ์ที่เริ่มขึ้นเมื่อต้นปีนี้อย่างเป็นทางการ OpenAI ยืนยันว่าได้ปรึกษาอย่างไม่เป็นทางการกับผู้เชี่ยวชาญเหล่านี้จำนวนมากในขณะที่พัฒนาการควบคุมโดยผู้ปกครองที่เพิ่งเปิดตัวเมื่อเร็ว ๆ นี้ ความคิดเห็นของพวกเขาช่วยกำหนดรูปแบบการแจ้งเตือนความทุกข์โดยเฉพาะให้เป็น”การดูแลและให้ความเคารพต่อทั้งวัยรุ่นและสมาชิกในครอบครัว”
การควบคุมเหล่านั้นซึ่งเปิดตัวในช่วงปลายเดือนกันยายนถือเป็นก้าวแรกที่สำคัญ ระบบใช้รูปแบบการเลือกใช้ร่วมกัน และให้แดชบอร์ดแก่ผู้ปกครองเพื่อตั้งค่า”ชั่วโมงที่เงียบสงบ”ปิดการใช้งานโหมดเสียง และปิดคุณสมบัติหน่วยความจำ ฟีเจอร์สำคัญคือระบบแจ้งเตือนที่จะแจ้งเตือนผู้ปกครองหากการสนทนาถูกทำเครื่องหมายว่ามีเนื้อหาเกี่ยวกับการทำร้ายตัวเองอย่างเฉียบพลันหลังจากได้รับการประเมินโดยผู้ตรวจสอบที่เป็นมนุษย์
Lauren Haber Jonas หัวหน้าฝ่ายความเป็นอยู่ที่ดีของเยาวชนของ OpenAI อธิบายว่าเป้าหมายคือการสร้างสมดุลที่ละเอียดอ่อน “เราต้องการให้ข้อมูลแก่ผู้ปกครองเพียงพอที่จะดำเนินการและสนทนากับวัยรุ่นของพวกเขา ในขณะเดียวกันก็รักษาความเป็นส่วนตัวของวัยรุ่นไว้บ้าง” เธอกล่าว ขณะนี้สภาจะกำหนดบทบาทที่ปรึกษาอย่างเป็นทางการ โดยจะช่วยกำหนดคุณลักษณะด้านความปลอดภัยและนโยบายผลิตภัณฑ์ในอนาคต
การพิจารณาความปลอดภัยของ AI ทั่วทั้งอุตสาหกรรม
ความท้าทายที่ OpenAI เผชิญนั้นไม่ได้มีลักษณะเฉพาะตัว สิ่งเหล่านี้สะท้อนถึงการพิจารณาในวงกว้างทั่วทั้งอุตสาหกรรมด้วยผลกระทบทางจิตวิทยาของ AI ผู้เชี่ยวชาญได้เตือนมานานแล้วเกี่ยวกับอันตรายของการพึ่งพาทางอารมณ์กับแชทบอทที่ออกแบบมาเพื่อเลียนแบบการเชื่อมต่อของมนุษย์
แม้ว่าสภาใหม่และการควบคุมโดยผู้ปกครองของ OpenAI จะเป็นก้าวสำคัญ แต่นักวิจารณ์บางคนแย้งว่าพวกเขาไม่ได้ไปไกลพอ ลักษณะการเลือกใช้การควบคุมโดยผู้ปกครองทำให้ผู้ปกครองมีภาระในการเปิดใช้งาน
OpenAI รับทราบว่านี่เป็นเพียงการเคลื่อนไหวครั้งแรก บริษัทกำลังพัฒนาระบบการทำนายอายุในระยะยาวเพื่อใช้การตั้งค่าที่เหมาะสมกับวัยรุ่นโดยอัตโนมัติตามค่าเริ่มต้น ในตอนนี้ การจัดตั้งสภาผู้เชี่ยวชาญเป็นการส่งสัญญาณถึงความมุ่งมั่นที่ชัดเจนในการจัดการกับความปลอดภัย