Meta กำลังปรับเปลี่ยนแนวทางความปลอดภัยและความเป็นส่วนตัวของผลิตภัณฑ์โดยมีวัตถุประสงค์เพื่อให้ระบบปัญญาประดิษฐ์จัดการได้มากถึง 90% ของการประเมินความเสี่ยงสำหรับการอัปเดตในแอพพลิเคชั่นที่ใช้กันอย่างแพร่หลายรวมถึง Instagram และ Whatsapp.

การเปลี่ยนแปลงการดำเนินงานที่สำคัญนี้ href=”https://www.npr.org/2025/05/31/nx-s1-5407870/meta-ai-facebook-instagram-risks”target=”blank”> การตรวจสอบ NPR ตั้งเป้าหมายที่จะเร่งการพัฒนาผลิตภัณฑ์ ในขณะที่ผู้ใช้อาจเห็นคุณสมบัติใหม่ที่เปิดกว้างมากขึ้นการเคลื่อนไหวได้จุดประกายความกังวลเกี่ยวกับความลึกของความปลอดภัยและการตรวจสอบความเป็นส่วนตัว

กระบวนการที่ขับเคลื่อนด้วย AI ใหม่ซึ่งรายงาน NPR ได้เพิ่มขึ้นจนถึงเดือนเมษายนและพฤษภาคม การเปลี่ยนแปลงนี้เกิดขึ้นภายใต้เงาของ

การอุทิศตนทางการเงินนี้ควบคู่ไปกับการปรับโครงสร้าง บริษัท ที่สำคัญซึ่งเกี่ยวข้องกับเมตาเพิ่มขึ้นเป็นสองเท่าในการเรียนรู้ของเครื่องจักรโดยการวางแผนที่จะจ้างวิศวกร AI หลายร้อยคน ทีม”และ”กระบวนการบริหารความเสี่ยงของ Meta ที่พัฒนาขึ้น”

เป้าหมาย Protti อธิบายคือการ”ทำให้การตัดสินใจง่ายขึ้น”โดยการทบทวนความเสี่ยงโดยอัตโนมัติในกรณีส่วนใหญ่ตามการสอบสวนของ NPR การผลักดันภายในสำหรับความเร็วและประสิทธิภาพผ่าน AI ยังขยายไปถึงการควบคุมเนื้อหา

รายงานความสมบูรณ์แบบรายไตรมาสล่าสุดของ Meta อ้างถึงโดย NPR อ้างว่าโมเดลภาษาขนาดใหญ่ (LLMs) กำลังดำเนินการเกินกว่าการปฏิบัติงานของมนุษย์ ความปลอดภัยความเสี่ยงของเยาวชนและ’ความซื่อสัตย์’ซึ่งครอบคลุมเนื้อหาที่มีความรุนแรงและข้อมูลที่ผิด-แม้ว่าข้อความสาธารณะที่มุ่งเน้นไปที่ระบบอัตโนมัติที่มีความเสี่ยงต่ำ

สร้างสมดุลระหว่างนวัตกรรมความปลอดภัยและการตรวจสอบข้อบังคับ

ประสิทธิภาพของโมเดล AI ของคู่แข่งเช่น R1 ของ Deepseek ได้สร้างความรู้สึกเร่งด่วนภายใน Meta.

วิศวกรก่อนหน้านี้ได้อธิบายถึง“ Mad Scramble ที่พยายามจับคู่ประสิทธิภาพนั้น” สภาพแวดล้อมการแข่งขันนี้เป็นปัจจัยสำคัญในการตัดสินใจเชิงกลยุทธ์ของ Meta รวมถึงการเปลี่ยนแปลงความเป็นผู้นำเช่น Loredana Crisan ซึ่งเคยเป็นหัวหน้า Messenger ซึ่งเคยเป็นผู้ดูแลแผนก AI ของ บริษัท

แนวทางการกำกับดูแล AI ของ Meta ได้รับการพัฒนามาระยะหนึ่งแล้ว ใน Februar บริษัท ได้เปิดตัว Frontier AI Framework ซึ่งเป็นระบบที่ออกแบบมาเพื่อจัดหมวดหมู่ AI ให้เป็นกลุ่ม“ ความเสี่ยงสูง” และ“ ความเสี่ยงวิกฤต”

ในการเปิดตัวของมันเมตาระบุถึงความตั้งใจ:“ ผ่านการสร้างความก้าวหน้า เหตุการณ์เช่นการใช้โมเดล Llama ในทางที่ผิดและแรงกดดันที่เพิ่มขึ้นจากกฎระเบียบเช่นพระราชบัญญัติบริการดิจิทัลของสหภาพยุโรป (DSA)

Zvika Krieger อดีตผู้อำนวยการ Meta รายงานการบังคับใช้มาตรฐานของชุมชนในปี 2025 ความแม่นยำผ่านการตรวจสอบระบบ