OpenAI เปิดตัว “Teen Safety Blueprint” ในวันพฤหัสบดี ซึ่งเป็นเฟรมเวิร์กใหม่ที่ออกแบบมาเพื่อปกป้องผู้ใช้ AI รุ่นเยาว์
ความเคลื่อนไหวนี้เป็นการตอบสนองโดยตรงต่อแรงกดดันทางกฎหมายและรัฐบาลที่รุนแรงที่บริษัทในซานฟรานซิสโกต้องเผชิญ OpenAI กำลังดำเนินการสอบสวนของคณะกรรมาธิการการค้าของรัฐบาลกลาง กฎหมายแชทบอทฉบับใหม่ของแคลิฟอร์เนีย และคดีความที่เชื่อมโยงเครื่องมือ ChatGPT กับการทำร้ายตัวเองของวัยรุ่น
เพื่อก้าวไปข้างหน้าของวิกฤติ บริษัทกำลังเสนอหลักความปลอดภัยหลัก 5 ประการ ซึ่งรวมถึงการตรวจจับอายุที่ดีขึ้นและการป้องกันเริ่มต้นสำหรับผู้เยาว์ OpenAI หวังว่าแผนเชิงรุกนี้จะกำหนดกฎเกณฑ์ของอุตสาหกรรมในอนาคต และจัดการกับข้อกังวลด้านความปลอดภัยที่เพิ่มขึ้น
แผนห้าประเด็นเพื่อกำหนดบรรทัดฐานด้านความปลอดภัยของ AI
หัวใจสำคัญของ พิมพ์เขียวคือหลักการสำคัญ 5 ประการที่ OpenAI แย้งว่าบริษัท AI ทั้งหมดควรใช้
บริษัทกำลังวางตำแหน่งเอกสารไม่เพียงแค่เป็นนโยบายภายในเท่านั้น แต่ยังเป็นจุดเริ่มต้นสำหรับผู้บัญญัติกฎหมายในการสร้างกฎระเบียบใหม่ ประการแรก กำหนดให้ระบุวัยรุ่นบนแพลตฟอร์มโดยใช้”เครื่องมือประเมินอายุตามความเสี่ยงที่ป้องกันความเป็นส่วนตัว”เพื่อมอบประสบการณ์ที่แตกต่างและเหมาะสมกับวัย
ตามที่บริษัทระบุไว้”เราเชื่อว่า ChatGPT ควรตอบสนองพวกเขาในที่ที่พวกเขาอยู่ วิธีที่ ChatGPT ตอบสนองต่อเด็กอายุ 15 ปีควรแตกต่างจากวิธีที่ตอบสนองกับผู้ใหญ่”
ประการที่สอง กรอบงานต้องการนโยบายเฉพาะเจาะจงและเข้มงวดในการ ลดความเสี่ยงสำหรับผู้ใช้ที่มีอายุต่ำกว่า 18 ปี ตามพิมพ์เขียว ระบบ AI ควรได้รับการออกแบบไม่ให้แสดงถึงการฆ่าตัวตายหรือการทำร้ายตัวเอง และต้อง”ห้ามภาพกราฟิกหรือเนื้อหาที่ดื่มด่ำ (เช่น การสวมบทบาท) เนื้อหาที่เป็นส่วนตัวและรุนแรง”
นโยบายยังมีจุดมุ่งหมายเพื่อป้องกันไม่ให้ AI เสริม”อุดมคติและพฤติกรรมของร่างกายที่เป็นอันตรายผ่านการให้คะแนนรูปลักษณ์ การเปรียบเทียบร่างกาย หรือการฝึกสอนด้านอาหารที่เข้มงวด”
ประการที่สาม OpenAI สนับสนุนให้ตั้งค่าเริ่มต้นเป็นประสบการณ์ U18 ที่ปลอดภัยทุกครั้งที่มีข้อสงสัยเกี่ยวกับอายุของผู้ใช้ โดยเฉพาะอย่างยิ่งสำหรับผู้ใช้ที่ไม่ผ่านการรับรองความถูกต้อง สิ่งนี้ให้ความสำคัญกับความปลอดภัยแม้ว่าจะเป็นอุปสรรคต่อการใช้ผลิตภัณฑ์ฟรีของผู้ใหญ่ก็ตาม
ประการที่สี่ พิมพ์เขียวเน้นการเสริมศักยภาพให้กับครอบครัวด้วยการควบคุมโดยผู้ปกครองที่สามารถเข้าถึงได้ โดยต่อยอดจากฟีเจอร์ที่บริษัทเพิ่งเปิดตัว การควบคุมเหล่านี้ช่วยให้ผู้ปกครองลิงก์บัญชี ตั้งค่า”ช่วงปิดไฟ”จัดการการตั้งค่าความเป็นส่วนตัวของข้อมูล และรับการแจ้งเตือนหากกิจกรรมของวัยรุ่นบ่งบอกถึงเจตนาที่จะทำร้ายตัวเอง
สุดท้ายนี้เรียกร้องให้มีการออกแบบเพื่อความเป็นอยู่ที่ดีโดยการฝังฟีเจอร์ที่ได้รับข้อมูลจากการวิจัยด้านสุขภาพจิต เอกสารของ OpenAI กำหนดกรอบนี้เป็นการเปลี่ยนแปลงขั้นพื้นฐานในลำดับความสำคัญ “สำหรับวัยรุ่น เราให้ความสำคัญกับความปลอดภัยมาก่อนความเป็นส่วนตัวและเสรีภาพ นี่เป็นเทคโนโลยีใหม่ที่ทรงพลัง และเราเชื่อว่าผู้เยาว์ต้องการการปกป้องที่สำคัญ”
การเคลื่อนไหวเชิงรุกท่ามกลางการล้อมด้านกฎระเบียบและกฎหมาย
พิมพ์เขียวของ OpenAI ถือเป็นความพยายามที่ชัดเจนในการควบคุมการเล่าเรื่องเมื่อเผชิญกับคลื่นแห่งการตรวจสอบทางกฎหมายและกฎระเบียบ ขณะนี้บริษัทกำลังปกป้องตัวเองจากการฟ้องร้องการเสียชีวิตโดยมิชอบที่มีชื่อเสียงโด่งดังจากพ่อแม่ของวัยรุ่นที่เสียชีวิตจากการฆ่าตัวตาย
Matthew Raine พ่อของเด็กวัยรุ่นได้ออกคำตำหนิอย่างรุนแรง โดยระบุว่า”ในฐานะพ่อแม่ คุณไม่สามารถจินตนาการได้ว่าการอ่านบทสนทนาด้วยแชทบอทที่ดูแลลูกของคุณให้ใช้ชีวิตของตัวเองนั้นเป็นอย่างไร”
กรณีดังกล่าวทำให้เกิดความกังวลของสาธารณชนและนำหลักปฏิบัติด้านความปลอดภัยของบริษัทมาอยู่ภายใต้กล้องจุลทรรศน์
แรงกดดันจากภาครัฐเพิ่มสูงขึ้นจากหลายทิศทาง ในเดือนกันยายน คณะกรรมาธิการการค้าแห่งสหพันธรัฐของสหรัฐอเมริกาได้เปิดการสอบสวนครั้งใหญ่เกี่ยวกับผลกระทบของแชทบอทที่ใช้ร่วมกับ AI ที่มีต่อวัยรุ่น โดยกำหนดเป้าหมายไปที่ OpenAI และบริษัทยักษ์ใหญ่ด้านเทคโนโลยีอีก 6 แห่ง
ประธาน FTC Andrew N. Ferguson อธิบายว่าการสอบสวนนี้เป็นการสร้างสมดุล: “การปกป้องเด็ก ๆ ออนไลน์เป็นสิ่งสำคัญที่สุดสำหรับ Trump-Vance FTC และการส่งเสริมนวัตกรรมในภาคส่วนสำคัญของเศรษฐกิจของเราก็เช่นกัน”
ผู้ร่างกฎหมายของรัฐและรัฐบาลกลางก็เริ่มเคลื่อนไหวอย่างจริงจังเช่นกัน ในแคลิฟอร์เนีย ผู้ว่าการ Gavin Newsom ลงนาม SB 243 เข้าสู่กฎหมายเมื่อวันที่ 13 ตุลาคม ทำให้เกิดกฎเกณฑ์แห่งแรกในประเทศสำหรับ AI แชทบอท
กฎหมายกำหนดให้ผู้ดำเนินการแจ้งเตือนซ้ำเพื่อเตือนผู้เยาว์ว่าพวกเขากำลังพูดคุยกับ AI บล็อกเนื้อหาที่เป็นอันตราย และให้สิทธิส่วนตัวในการดำเนินคดีสำหรับครอบครัวในการฟ้องร้องนักพัฒนาที่ไม่ปฏิบัติตามข้อกำหนด
วุฒิสมาชิก Steve Padilla ผู้เขียนร่างกฎหมายเคยแย้งว่า”เทคโนโลยีขนาดใหญ่ได้พิสูจน์ครั้งแล้วครั้งเล่า พวกเขาไม่สามารถไว้วางใจให้ตำรวจเองได้”ในระดับรัฐบาลกลาง กลุ่มวุฒิสมาชิกสหรัฐฯ ได้ออกพระราชบัญญัติ GUARD Act ในช่วงปลายเดือนตุลาคม
ร่างกฎหมายดังกล่าวยังไปไกลกว่านั้น โดยเสนอการห้ามสหาย AI โดยสิ้นเชิงสำหรับ ผู้เยาว์และสร้างความรับผิดทางอาญาใหม่สำหรับบริษัทที่ AI สร้างเนื้อหาที่ผิดกฎหมายสำหรับผู้ใช้ที่ยังไม่บรรลุนิติภาวะ
ในพิมพ์เขียว OpenAI ต่อต้านการเล่าเรื่องของการไม่ทำอะไรเลย โดยเน้นย้ำถึงมาตรการความปลอดภัยที่มีอยู่ บริษัทตั้งข้อสังเกตว่าในช่วงครึ่งแรกของปี 2025 เพียงช่วงเดียว บริษัทได้รายงานเคล็ดลับทางไซเบอร์เกี่ยวกับเนื้อหาการล่วงละเมิดทางเพศเด็กที่สร้างโดย AI มากกว่า 75,000 รายการต่อเจ้าหน้าที่
การสร้างสมดุลด้านความปลอดภัยด้วยจุดยืน”ตำรวจศีลธรรม”ที่เป็นข้อขัดแย้ง
แต่เนื่องจาก OpenAI วางตำแหน่งตัวเองเป็นผู้นำด้านความปลอดภัยของวัยรุ่น OpenAI จึงต้องต่อสู้กับคำแถลงและนโยบายสาธารณะที่ขัดแย้งกันด้วย การส่งข้อความเพื่อความปลอดภัยนี้แตกต่างโดยสิ้นเชิงกับการเปลี่ยนแปลงนโยบายล่าสุดของบริษัท
เมื่อเดือนที่แล้ว CEO Sam Altman ได้ปกป้องการตัดสินใจที่เป็นข้อขัดแย้งในการอนุญาตให้มีเนื้อหาเกี่ยวกับกามจำกัดอายุบน ChatGPT เขาต่อต้านการวิพากษ์วิจารณ์โดยประกาศว่า”เราไม่ใช่ตำรวจศีลธรรมที่ได้รับเลือกของโลก”การเคลื่อนไหวดังกล่าวซึ่งดึงความกังวลจากบุคคลสำคัญอย่าง Mark Cuban ทำให้เกิดการรับรู้ถึงลำดับความสำคัญที่ขัดแย้งกันภายในบริษัท
พิมพ์เขียวความปลอดภัยของวัยรุ่นถือได้ว่าเป็นโครงการริเริ่มล่าสุดที่ดำเนินการอย่างรวดเร็วซึ่งออกแบบมาเพื่อแสดงให้เห็นถึงความมุ่งมั่นด้านความปลอดภัย ในช่วงปลายเดือนกันยายน บริษัทได้เปิดตัวชุดการควบคุมโดยผู้ปกครอง
เพียงสองสัปดาห์ต่อมา บริษัทได้ประกาศการจัดตั้งสภาผู้เชี่ยวชาญที่มีสมาชิกแปดคนเพื่อให้คำแนะนำเกี่ยวกับความเป็นอยู่ที่ดีและสุขภาพจิต
ความท้าทายเหล่านี้ไม่ได้เกิดขึ้นเฉพาะกับ OpenAI เท่านั้น ซึ่งสะท้อนถึงการพิจารณาในวงกว้างทั่วทั้งอุตสาหกรรม คู่แข่งเช่น Meta กำลังเผชิญกับวิกฤติทางกฎหมายเกี่ยวกับความปลอดภัยของวัยรุ่น เมื่อเร็วๆ นี้ ศาล D.C. ได้เรียกใช้ข้อยกเว้นการฉ้อโกงทางอาญาซึ่งพบไม่บ่อยนักเพื่อตัดสินว่า Meta ไม่สามารถซ่อนการวิจัยเกี่ยวกับอันตรายของวัยรุ่นภายในที่อยู่เบื้องหลังสิทธิพิเศษของทนายความและลูกความได้
ศาลพบหลักฐานที่แสดงว่าทนายความแนะนำให้นักวิจัยแก้ไขข้อค้นพบเพื่อจำกัดความรับผิด โดยตรวจสอบความถูกต้องของการอ้างสิทธิ์ของผู้แจ้งเบาะแสเกี่ยวกับกลยุทธ์”การปฏิเสธที่น่าเชื่อถือ”ด้วยการเปิดตัวพิมพ์เขียว OpenAI กำลังใช้กลยุทธ์เพื่อกำหนดเงื่อนไขความปลอดภัยของ AI โดยหวังว่าจะกำหนดกฎเกณฑ์ก่อนที่หน่วยงานกำกับดูแลและศาลจะบังคับใช้กฎที่เข้มงวดยิ่งขึ้น