การตอบสนองต่อแบ็คแลชที่รุนแรงเกี่ยวกับความปลอดภัยของวัยรุ่นและเรื่องอื้อฉาวความเป็นส่วนตัวมากมาย Meta ประกาศในวันนี้ว่าการปรับปรุงกฎ AI Chatbot สำหรับผู้ใช้รุ่นเยาว์ยอมรับวิธีการก่อนหน้านี้เป็นความผิดพลาด การเปลี่ยนแปลงดังต่อไปนี้การสอบสวนที่น่ากลัวซึ่งกระตุ้นให้เกิดการสอบสวนของรัฐบาลกลางและคำเตือนจากอัยการสูงสุด 44 นายทั่วไป

การเปลี่ยนแปลงนโยบายเกิดขึ้นพร้อมกับเปลวไฟใหม่บนคุณสมบัติ Facebook ใหม่ที่สแกนกล้องผู้ใช้ สิ่งนี้เน้นการต่อสู้อย่างต่อเนื่องของ บริษัท เพื่อสร้างสมดุลระหว่างการพัฒนา AI ที่ก้าวร้าวด้วยความเป็นส่วนตัวของผู้ใช้ขั้นพื้นฐาน

การตอบสนองอย่างเร่งด่วนต่อความล้มเหลวของความปลอดภัยที่น่ากลัว

การเปลี่ยนแปลงนโยบายของ Meta เป็นการควบคุมความเสียหายอย่างเร่งด่วน มันเกิดขึ้นเพียงหนึ่งวันหลังจาก ผลการวิจัยกระตุ้นให้กลุ่มความปลอดภัยของเด็กเรียกร้องให้มีการระงับบริการทันที

Meta กล่าวว่ามันจะฝึก AI ให้หยุดการมีส่วนร่วมในหัวข้อที่ละเอียดอ่อนเช่นการทำร้ายตัวเองการฆ่าตัวตายและการกินที่ไม่เป็นระเบียบ chatbot จะแนะนำผู้ใช้ไปยังแหล่งข้อมูลผู้เชี่ยวชาญแทน โฆษกของ Meta Stephanie Otway ยืนยันวิธีการใหม่โดยระบุว่า“ ในขณะที่เรายังคงปรับแต่งระบบของเราต่อไปเรากำลังเพิ่ม Guardrails มากขึ้นเพื่อเป็นการป้องกันไว้ก่อน-รวมถึงการฝึกอบรม AIS ของเราที่จะไม่เข้าร่วมกับวัยรุ่นในหัวข้อเหล่านี้ ผู้เยาว์

การย้ายครั้งนี้เป็นไปตามการสอบสวนของสำนักข่าวรอยเตอร์เมื่อเร็ว ๆ นี้เกี่ยวกับนโยบายภายในที่ดูเหมือนว่าจะอนุญาตให้มีการแชททางเพศกับผู้เยาว์ รายงานนั้น พันธมิตร 44 รัฐ “ เรามีการกบฏอย่างสม่ำเสมอโดยการเพิกเฉยต่อความเป็นอยู่ที่ดีของเด็กและตื่นตระหนกว่าผู้ช่วย AI มีส่วนร่วมในการดำเนินการซึ่งดูเหมือนจะถูกห้ามโดยกฎหมายอาญาของเราที่เกี่ยวข้อง Chatbot Failures เผชิญกับวิกฤตความเป็นส่วนตัวแยกต่างหาก คุณลักษณะใหม่ของ Facebook AI“ คำแนะนำการแชร์ม้วนกล้อง” เริ่มวิเคราะห์ไลบรารีภาพถ่ายทั้งหมดของผู้ใช้โดยใช้การประมวลผลคลาวด์เพื่อสร้าง“ แนวคิดสร้างสรรค์ส่วนบุคคล”

Meta ยืนยันว่าเครื่องมือนั้นเลือกใช้อย่างเคร่งครัด อย่างไรก็ตามคลื่นของผู้ใช้รายงานการค้นหาการสลับของคุณลักษณะที่เปิดใช้งานแล้วในการตั้งค่าของพวกเขาแม้ว่าจะไม่มีหน่วยความจำในการอนุญาต ความคลาดเคลื่อนนี้ได้กระตุ้นให้เกิดข้อกล่าวหาที่ บริษัท ใช้อินเทอร์เฟซที่สับสนเพื่อรักษาความยินยอม

คุณลักษณะดังกล่าวไม่สามารถใช้งานได้ในรัฐอิลลินอยส์และเท็กซัส ผู้เชี่ยวชาญด้านความปลอดภัย Rachel Tobac เน้นถึงอันตรายของการตัดการเชื่อมต่อนี้โดยระบุว่า“ หากความคาดหวังของผู้ใช้เกี่ยวกับวิธีการทำงานของเครื่องมือไม่ตรงกับความเป็นจริง ในเดือนมิถุนายน 2568 พบว่าฟีด”Discover”ของแอพ Meta AI นั้นเปิดเผยต่อสาธารณะเปิดเผยการแชทส่วนตัวที่ละเอียดอ่อนโดยไม่ต้องรับรู้อย่างเต็มที่ของผู้ใช้ ฟีเจอร์”หน่วยความจำ”ของแอพยังดึงคำวิจารณ์ที่คมชัดเพื่อรักษาประวัติการแชทโดยค่าเริ่มต้นเพื่อฝึกอบรมแบบจำลอง

การออกแบบระบบเหล่านี้ทำให้ Ben Winters จากสหพันธ์ผู้บริโภคแห่งอเมริกาประกาศว่า“ การเปิดเผยและตัวเลือกผู้บริโภครอบ ๆ การตั้งค่าความเป็นส่วนตัว ความเชื่อมั่นนี้รวบรวมความคับข้องใจที่เพิ่มขึ้นด้วยวิธีการของ Meta ซึ่งมักจะวางภาระการคุ้มครองความเป็นส่วนตัวทั้งหมดให้กับผู้ใช้

รูปแบบของการพ่ายแพ้ทางกฎหมายและแบ็คแลชกฎระเบียบ

กลยุทธ์การจัดลำดับความสำคัญของการจัดลำดับความสำคัญของผู้ใช้ ในช่วงต้นเดือนสิงหาคม 2568 คณะลูกขุนของรัฐบาลกลางพบว่า บริษัท รับผิดชอบในการรวบรวมข้อมูลสุขภาพที่ละเอียดอ่อนอย่างผิดกฎหมายจากผู้ใช้แอพติดตามช่วงเวลา FLO ผ่านซอฟต์แวร์ที่ฝังตัว

ตามคำตัดสินของศาล ความพ่ายแพ้ทางกฎหมายในสหรัฐอเมริกาตามการพิจารณาคดีที่ก้าวล้ำในยุโรป

ศาลเยอรมันในเดือนกรกฎาคมสั่งให้เมตาจ่ายผู้ใช้€ 5,000 ในความเสียหายสำหรับการติดตามข้อมูลที่ผิดกฎหมาย การพิจารณาคดียอมรับว่าเพียง“ การสูญเสียการควบคุม” เหนือข้อมูลส่วนบุคคลถือเป็นอันตรายที่ได้รับการชดเชยภายใต้ GDPR การตั้งค่าแบบอย่างที่ทรงพลัง

รูปแบบนี้ขยายไปทั่วโลก ในเดือนกันยายน 2567 เมตาเข้ารับการสอบถามวุฒิสภาของออสเตรเลียว่าใช้ข้อมูลสาธารณะจากผู้ใช้ Facebook สำหรับการฝึกอบรม AI โดยไม่ต้องให้กลไกการไม่เข้าร่วมที่อื่น ๆ

เหตุการณ์เหล่านี้วาดภาพของ บริษัท ที่มีรูปแบบธุรกิจเป็นพื้นฐาน ตามที่จัสตินบรูคแมนรายงานของผู้บริโภคแย้งความสัมพันธ์สามารถรู้สึกว่าเป็นปฏิปักษ์โดยเนื้อแท้:“ ความคิดของตัวแทนคือมันทำงานในนามของฉัน-ไม่ได้พยายามจัดการฉันในนามของผู้อื่น” การโต้เถียงม้วนกล้องและการยกเครื่อง chatbot เร่งด่วนเป็นเพียงแนวหน้าล่าสุดในการต่อสู้อย่างต่อเนื่องนี้