OpenAI เปิดตัว “Teen Safety Blueprint” ในวันพฤหัสบดี ซึ่งเป็นเฟรมเวิร์กใหม่ที่ออกแบบมาเพื่อปกป้องผู้ใช้ AI รุ่นเยาว์

ความเคลื่อนไหวนี้เป็นการตอบสนองโดยตรงต่อแรงกดดันทางกฎหมายและรัฐบาลที่รุนแรงที่บริษัทในซานฟรานซิสโกต้องเผชิญ OpenAI กำลังดำเนินการสอบสวนของคณะกรรมาธิการการค้าของรัฐบาลกลาง กฎหมายแชทบอทฉบับใหม่ของแคลิฟอร์เนีย และคดีความที่เชื่อมโยงเครื่องมือ ChatGPT กับการทำร้ายตัวเองของวัยรุ่น

เพื่อก้าวไปข้างหน้าของวิกฤติ บริษัทกำลังเสนอหลักความปลอดภัยหลัก 5 ประการ ซึ่งรวมถึงการตรวจจับอายุที่ดีขึ้นและการป้องกันเริ่มต้นสำหรับผู้เยาว์ OpenAI หวังว่าแผนเชิงรุกนี้จะกำหนดกฎเกณฑ์ของอุตสาหกรรมในอนาคต และจัดการกับข้อกังวลด้านความปลอดภัยที่เพิ่มขึ้น

แผนห้าประเด็นเพื่อกำหนดบรรทัดฐานด้านความปลอดภัยของ AI

หัวใจสำคัญของ พิมพ์เขียวคือหลักการสำคัญ 5 ประการที่ OpenAI แย้งว่าบริษัท AI ทั้งหมดควรใช้

บริษัทกำลังวางตำแหน่งเอกสารไม่เพียงแค่เป็นนโยบายภายในเท่านั้น แต่ยังเป็นจุดเริ่มต้นสำหรับผู้บัญญัติกฎหมายในการสร้างกฎระเบียบใหม่ ประการแรก กำหนดให้ระบุวัยรุ่นบนแพลตฟอร์มโดยใช้”เครื่องมือประเมินอายุตามความเสี่ยงที่ป้องกันความเป็นส่วนตัว”เพื่อมอบประสบการณ์ที่แตกต่างและเหมาะสมกับวัย

ตามที่บริษัทระบุไว้”เราเชื่อว่า ChatGPT ควรตอบสนองพวกเขาในที่ที่พวกเขาอยู่ วิธีที่ ChatGPT ตอบสนองต่อเด็กอายุ 15 ปีควรแตกต่างจากวิธีที่ตอบสนองกับผู้ใหญ่”

ประการที่สอง กรอบงานต้องการนโยบายเฉพาะเจาะจงและเข้มงวดในการ ลดความเสี่ยงสำหรับผู้ใช้ที่มีอายุต่ำกว่า 18 ปี ตามพิมพ์เขียว ระบบ AI ควรได้รับการออกแบบไม่ให้แสดงถึงการฆ่าตัวตายหรือการทำร้ายตัวเอง และต้อง”ห้ามภาพกราฟิกหรือเนื้อหาที่ดื่มด่ำ (เช่น การสวมบทบาท) เนื้อหาที่เป็นส่วนตัวและรุนแรง”

นโยบายยังมีจุดมุ่งหมายเพื่อป้องกันไม่ให้ AI เสริม”อุดมคติและพฤติกรรมของร่างกายที่เป็นอันตรายผ่านการให้คะแนนรูปลักษณ์ การเปรียบเทียบร่างกาย หรือการฝึกสอนด้านอาหารที่เข้มงวด”

ประการที่สาม OpenAI สนับสนุนให้ตั้งค่าเริ่มต้นเป็นประสบการณ์ U18 ที่ปลอดภัยทุกครั้งที่มีข้อสงสัยเกี่ยวกับอายุของผู้ใช้ โดยเฉพาะอย่างยิ่งสำหรับผู้ใช้ที่ไม่ผ่านการรับรองความถูกต้อง สิ่งนี้ให้ความสำคัญกับความปลอดภัยแม้ว่าจะเป็นอุปสรรคต่อการใช้ผลิตภัณฑ์ฟรีของผู้ใหญ่ก็ตาม

ประการที่สี่ พิมพ์เขียวเน้นการเสริมศักยภาพให้กับครอบครัวด้วยการควบคุมโดยผู้ปกครองที่สามารถเข้าถึงได้ โดยต่อยอดจากฟีเจอร์ที่บริษัทเพิ่งเปิดตัว การควบคุมเหล่านี้ช่วยให้ผู้ปกครองลิงก์บัญชี ตั้งค่า”ช่วงปิดไฟ”จัดการการตั้งค่าความเป็นส่วนตัวของข้อมูล และรับการแจ้งเตือนหากกิจกรรมของวัยรุ่นบ่งบอกถึงเจตนาที่จะทำร้ายตัวเอง

สุดท้ายนี้เรียกร้องให้มีการออกแบบเพื่อความเป็นอยู่ที่ดีโดยการฝังฟีเจอร์ที่ได้รับข้อมูลจากการวิจัยด้านสุขภาพจิต เอกสารของ OpenAI กำหนดกรอบนี้เป็นการเปลี่ยนแปลงขั้นพื้นฐานในลำดับความสำคัญ “สำหรับวัยรุ่น เราให้ความสำคัญกับความปลอดภัยมาก่อนความเป็นส่วนตัวและเสรีภาพ นี่เป็นเทคโนโลยีใหม่ที่ทรงพลัง และเราเชื่อว่าผู้เยาว์ต้องการการปกป้องที่สำคัญ”

การเคลื่อนไหวเชิงรุกท่ามกลางการล้อมด้านกฎระเบียบและกฎหมาย

พิมพ์เขียวของ OpenAI ถือเป็นความพยายามที่ชัดเจนในการควบคุมการเล่าเรื่องเมื่อเผชิญกับคลื่นแห่งการตรวจสอบทางกฎหมายและกฎระเบียบ ขณะนี้บริษัทกำลังปกป้องตัวเองจากการฟ้องร้องการเสียชีวิตโดยมิชอบที่มีชื่อเสียงโด่งดังจากพ่อแม่ของวัยรุ่นที่เสียชีวิตจากการฆ่าตัวตาย

Matthew Raine พ่อของเด็กวัยรุ่นได้ออกคำตำหนิอย่างรุนแรง โดยระบุว่า”ในฐานะพ่อแม่ คุณไม่สามารถจินตนาการได้ว่าการอ่านบทสนทนาด้วยแชทบอทที่ดูแลลูกของคุณให้ใช้ชีวิตของตัวเองนั้นเป็นอย่างไร”

กรณีดังกล่าวทำให้เกิดความกังวลของสาธารณชนและนำหลักปฏิบัติด้านความปลอดภัยของบริษัทมาอยู่ภายใต้กล้องจุลทรรศน์

แรงกดดันจากภาครัฐเพิ่มสูงขึ้นจากหลายทิศทาง ในเดือนกันยายน คณะกรรมาธิการการค้าแห่งสหพันธรัฐของสหรัฐอเมริกาได้เปิดการสอบสวนครั้งใหญ่เกี่ยวกับผลกระทบของแชทบอทที่ใช้ร่วมกับ AI ที่มีต่อวัยรุ่น โดยกำหนดเป้าหมายไปที่ OpenAI และบริษัทยักษ์ใหญ่ด้านเทคโนโลยีอีก 6 แห่ง

ประธาน FTC Andrew N. Ferguson อธิบายว่าการสอบสวนนี้เป็นการสร้างสมดุล: “การปกป้องเด็ก ๆ ออนไลน์เป็นสิ่งสำคัญที่สุดสำหรับ Trump-Vance FTC และการส่งเสริมนวัตกรรมในภาคส่วนสำคัญของเศรษฐกิจของเราก็เช่นกัน”

ผู้ร่างกฎหมายของรัฐและรัฐบาลกลางก็เริ่มเคลื่อนไหวอย่างจริงจังเช่นกัน ในแคลิฟอร์เนีย ผู้ว่าการ Gavin Newsom ลงนาม SB 243 เข้าสู่กฎหมายเมื่อวันที่ 13 ตุลาคม ทำให้เกิดกฎเกณฑ์แห่งแรกในประเทศสำหรับ AI แชทบอท

กฎหมายกำหนดให้ผู้ดำเนินการแจ้งเตือนซ้ำเพื่อเตือนผู้เยาว์ว่าพวกเขากำลังพูดคุยกับ AI บล็อกเนื้อหาที่เป็นอันตราย และให้สิทธิส่วนตัวในการดำเนินคดีสำหรับครอบครัวในการฟ้องร้องนักพัฒนาที่ไม่ปฏิบัติตามข้อกำหนด

วุฒิสมาชิก Steve Padilla ผู้เขียนร่างกฎหมายเคยแย้งว่า”เทคโนโลยีขนาดใหญ่ได้พิสูจน์ครั้งแล้วครั้งเล่า พวกเขาไม่สามารถไว้วางใจให้ตำรวจเองได้”ในระดับรัฐบาลกลาง กลุ่มวุฒิสมาชิกสหรัฐฯ ได้ออกพระราชบัญญัติ GUARD Act ในช่วงปลายเดือนตุลาคม

ร่างกฎหมายดังกล่าวยังไปไกลกว่านั้น โดยเสนอการห้ามสหาย AI โดยสิ้นเชิงสำหรับ ผู้เยาว์และสร้างความรับผิดทางอาญาใหม่สำหรับบริษัทที่ AI สร้างเนื้อหาที่ผิดกฎหมายสำหรับผู้ใช้ที่ยังไม่บรรลุนิติภาวะ

ในพิมพ์เขียว OpenAI ต่อต้านการเล่าเรื่องของการไม่ทำอะไรเลย โดยเน้นย้ำถึงมาตรการความปลอดภัยที่มีอยู่ บริษัทตั้งข้อสังเกตว่าในช่วงครึ่งแรกของปี 2025 เพียงช่วงเดียว บริษัทได้รายงานเคล็ดลับทางไซเบอร์เกี่ยวกับเนื้อหาการล่วงละเมิดทางเพศเด็กที่สร้างโดย AI มากกว่า 75,000 รายการต่อเจ้าหน้าที่

การสร้างสมดุลด้านความปลอดภัยด้วยจุดยืน”ตำรวจศีลธรรม”ที่เป็นข้อขัดแย้ง

แต่เนื่องจาก OpenAI วางตำแหน่งตัวเองเป็นผู้นำด้านความปลอดภัยของวัยรุ่น OpenAI จึงต้องต่อสู้กับคำแถลงและนโยบายสาธารณะที่ขัดแย้งกันด้วย การส่งข้อความเพื่อความปลอดภัยนี้แตกต่างโดยสิ้นเชิงกับการเปลี่ยนแปลงนโยบายล่าสุดของบริษัท

เมื่อเดือนที่แล้ว CEO Sam Altman ได้ปกป้องการตัดสินใจที่เป็นข้อขัดแย้งในการอนุญาตให้มีเนื้อหาเกี่ยวกับกามจำกัดอายุบน ChatGPT เขาต่อต้านการวิพากษ์วิจารณ์โดยประกาศว่า”เราไม่ใช่ตำรวจศีลธรรมที่ได้รับเลือกของโลก”การเคลื่อนไหวดังกล่าวซึ่งดึงความกังวลจากบุคคลสำคัญอย่าง Mark Cuban ทำให้เกิดการรับรู้ถึงลำดับความสำคัญที่ขัดแย้งกันภายในบริษัท

พิมพ์เขียวความปลอดภัยของวัยรุ่นถือได้ว่าเป็นโครงการริเริ่มล่าสุดที่ดำเนินการอย่างรวดเร็วซึ่งออกแบบมาเพื่อแสดงให้เห็นถึงความมุ่งมั่นด้านความปลอดภัย ในช่วงปลายเดือนกันยายน บริษัทได้เปิดตัวชุดการควบคุมโดยผู้ปกครอง

เพียงสองสัปดาห์ต่อมา บริษัทได้ประกาศการจัดตั้งสภาผู้เชี่ยวชาญที่มีสมาชิกแปดคนเพื่อให้คำแนะนำเกี่ยวกับความเป็นอยู่ที่ดีและสุขภาพจิต

ความท้าทายเหล่านี้ไม่ได้เกิดขึ้นเฉพาะกับ OpenAI เท่านั้น ซึ่งสะท้อนถึงการพิจารณาในวงกว้างทั่วทั้งอุตสาหกรรม คู่แข่งเช่น Meta กำลังเผชิญกับวิกฤติทางกฎหมายเกี่ยวกับความปลอดภัยของวัยรุ่น เมื่อเร็วๆ นี้ ศาล D.C. ได้เรียกใช้ข้อยกเว้นการฉ้อโกงทางอาญาซึ่งพบไม่บ่อยนักเพื่อตัดสินว่า Meta ไม่สามารถซ่อนการวิจัยเกี่ยวกับอันตรายของวัยรุ่นภายในที่อยู่เบื้องหลังสิทธิพิเศษของทนายความและลูกความได้

ศาลพบหลักฐานที่แสดงว่าทนายความแนะนำให้นักวิจัยแก้ไขข้อค้นพบเพื่อจำกัดความรับผิด โดยตรวจสอบความถูกต้องของการอ้างสิทธิ์ของผู้แจ้งเบาะแสเกี่ยวกับกลยุทธ์”การปฏิเสธที่น่าเชื่อถือ”ด้วยการเปิดตัวพิมพ์เขียว OpenAI กำลังใช้กลยุทธ์เพื่อกำหนดเงื่อนไขความปลอดภัยของ AI โดยหวังว่าจะกำหนดกฎเกณฑ์ก่อนที่หน่วยงานกำกับดูแลและศาลจะบังคับใช้กฎที่เข้มงวดยิ่งขึ้น

Categories: IT Info