Meta ยืนยันเมื่อวันพฤหัสบดีว่ากำลังเลิกจ้างพนักงานที่ไม่เปิดเผยจำนวนในแผนกความเสี่ยงและการปฏิบัติตามกฎระเบียบ โดยแทนที่พวกเขาด้วยระบบที่ขับเคลื่อนด้วย AI เพื่อจัดการการตรวจสอบความเป็นส่วนตัวที่ได้รับคำสั่งจากข้อตกลงที่สำคัญของคณะกรรมาธิการการค้าของรัฐบาลกลาง (FTC) ผู้กำกับดูแล

ตั้งแต่ค่าปรับ 5 พันล้านดอลลาร์ไปจนถึงการควบคุมดูแล AI

เกิดจากข้อตกลงด้านกฎระเบียบที่สำคัญ ทีมงานที่ถูกรื้อถอนถูกสร้างขึ้นเพื่อตอบสนองข้อเรียกร้องของ FTC หลังจากการละเมิดความไว้วางใจของสาธารณชนอย่างมหาศาล

ในปี 2019 Meta โดนปรับ 5 พันล้านดอลลาร์เป็นประวัติการณ์สำหรับบทบาทของตนในเรื่องอื้อฉาวความเป็นส่วนตัวของข้อมูล Cambridge Analytica ซึ่งข้อมูลของผู้ใช้มากถึง 87 ล้านคนถูกเก็บเกี่ยวอย่างไม่เหมาะสมเพื่อจุดประสงค์ทางการเมือง การโฆษณา

เงื่อนไขหลักของข้อตกลงดังกล่าวคือการจัดตั้งองค์กรความเสี่ยงที่แข็งแกร่งและนำโดยมนุษย์ ซึ่งได้รับมอบหมายให้ประเมินและบันทึกความเสี่ยงด้านความเป็นส่วนตัวสำหรับผลิตภัณฑ์และฟีเจอร์ใหม่ทั้งหมดก่อนเปิดตัว

เป็นเวลาหลายปีที่กลุ่มนี้ทำหน้าที่เป็นหน่วยงานเฝ้าระวังภายใน ซึ่งเป็นระดับความรับผิดชอบของมนุษย์ที่ออกแบบมาเพื่อป้องกันความล้มเหลวในอดีตซ้ำรอย ขณะนี้ กระบวนการที่ยึดมนุษย์เป็นศูนย์กลางกำลังเป็นไปโดยอัตโนมัติ

Michel Protti หัวหน้าเจ้าหน้าที่ความเป็นส่วนตัวและการปฏิบัติตามกฎระเบียบของ Meta ได้ประกาศการเลิกจ้างภายในเมื่อวันพุธ ซึ่งส่งสัญญาณถึงการเปลี่ยนแปลงพื้นฐานในวิธีที่บริษัทเข้าใกล้ภาระผูกพันด้านกฎระเบียบที่สำคัญที่สุด

การเปลี่ยนแปลงนี้ใช้การดำเนินการจากภายนอกอย่างมีประสิทธิผลจากการใช้วิจารณญาณของมนุษย์ที่ได้รับคำสั่งตามกฎหมายจากภายนอกไปยังเครื่องจักร

การขับเคลื่อนประสิทธิภาพหรือความเสี่ยง เล่นการพนันหรือไม่

ภายใน Meta เหตุผลอย่างเป็นทางการมุ่งเน้นไปที่ความเร็วและวุฒิภาวะ Meta แย้งว่าโปรแกรมการปฏิบัติตามกฎระเบียบในปัจจุบันมีความซับซ้อนเพียงพอที่จะทำให้การตรวจสอบตามปกติเป็นไปโดยอัตโนมัติ ทำให้ผู้เชี่ยวชาญที่เป็นมนุษย์มีเวลามุ่งเน้นไปที่ความท้าทายที่ซับซ้อนและแปลกใหม่มากขึ้น

โฆษกของบริษัทกล่าวว่า”เราทำการเปลี่ยนแปลงองค์กรเป็นประจำและกำลังปรับโครงสร้างทีมของเราใหม่เพื่อสะท้อนถึงวุฒิภาวะของโปรแกรมของเราและสร้างสรรค์สิ่งใหม่ๆ ได้เร็วขึ้นในขณะที่ยังคงรักษามาตรฐานการปฏิบัติตามกฎระเบียบในระดับสูง”

Rob Sherman รองประธานฝ่ายนโยบายของ Meta สะท้อนจุดยืนนี้ในโพสต์ใน LinkedIn เดือนมิถุนายน โดยพยายามหาเส้นแบ่งที่ชัดเจนระหว่างระบบอัตโนมัติที่เรียบง่ายและการตัดสินใจของ AI ที่ซับซ้อน: “เราไม่ได้ใช้ AI ในการตัดสินใจเกี่ยวกับความเสี่ยง แต่กฎจะถูกนำไปใช้โดยใช้ระบบอัตโนมัติแทน ซึ่งช่วยลดเวลาที่ผู้เชี่ยวชาญจำเป็นต้องใช้ในการตัดสินใจที่ให้สัตยาบัน…”

เขาแย้งว่าการใช้กฎที่กำหนดไว้ล่วงหน้าผ่านระบบอัตโนมัติจะช่วยเพิ่มความน่าเชื่อถือและลดโอกาสที่มนุษย์จะผิดพลาดในการตัดสินใจที่ให้สัตยาบัน

อย่างไรก็ตาม การกำหนดกรอบอย่างระมัดระวังดังกล่าวขัดแย้งกับรายงานก่อนหน้านี้และความสงสัยจากภายนอกที่เพิ่มมากขึ้น ในเดือนพฤษภาคม ปี 2025 การสอบสวนเผยให้เห็นแผนของ Meta สำหรับ AI ที่จะจัดการการประเมินความเสี่ยงของผลิตภัณฑ์ได้มากถึง 90% ทำให้เกิดความกังวลทันทีในหมู่ผู้สนับสนุนความเป็นส่วนตัว

นักวิจารณ์แย้งว่าการทำให้ฟังก์ชันที่สำคัญดังกล่าวเป็นอัตโนมัตินั้นเป็นการพนันที่อันตราย โดยเฉพาะอย่างยิ่งเมื่อต้องรับมือกับความเสี่ยงที่ซับซ้อนและมักจะคาดเดาไม่ได้ที่เกี่ยวข้องกับเทคโนโลยีใหม่

อดีตผู้บริหาร Meta ที่ไม่เปิดเผยชื่อเตือนว่าการเปลี่ยนแปลงจะ ย่อมนำไปสู่การตรวจสอบที่อ่อนแอลงและผลลัพธ์ที่เป็นอันตรายมากขึ้นอย่างหลีกเลี่ยงไม่ได้ “ตราบเท่าที่กระบวนการนี้ใช้งานได้จริงหมายถึงการเปิดตัวสิ่งต่างๆ ได้เร็วขึ้น ด้วยการตรวจสอบและการต่อต้านที่เข้มงวดน้อยลง นั่นหมายความว่าคุณกำลังสร้างความเสี่ยงที่สูงขึ้น”

ความรู้สึกนั้นแชร์โดย Zvika Krieger อดีตผู้อำนวยการอีกคนของบริษัท ซึ่งเตือนว่า”ถ้าคุณผลักดันสิ่งนั้นมากเกินไป คุณภาพของการตรวจสอบและผลลัพธ์จะต้องประสบอย่างหลีกเลี่ยงไม่ได้”

หัวใจของความกังวลนี้คือความกลัวว่า ระบบอัตโนมัติที่ปรับให้เหมาะสมเพื่อความรวดเร็วอาจพลาดความเสี่ยงตามบริบท เช่น ความเสี่ยงที่ส่งผลกระทบต่อเยาวชนที่มีช่องโหว่หรือเกี่ยวข้องกับข้อมูลที่ไม่ถูกต้อง ซึ่งผู้ตรวจสอบที่เป็นมนุษย์ได้รับการฝึกอบรมให้ระบุตัวตน ซึ่งบ่อนทำลายวัตถุประสงค์ของคำสั่งของ FTC

ส่วนหนึ่งของการปรับ AI ในวงกว้างขึ้นทั่วทั้งเทคโนโลยี

การลดงานของ MEta ไม่ได้เกิดขึ้นในสุญญากาศ เป็นการเคลื่อนไหวครั้งล่าสุดในการปรับโครงสร้าง AI ที่วุ่นวายทั่วทั้งบริษัท ซึ่งเผยให้เห็นทีมผู้นำที่กำลังดิ้นรนเพื่อหาจุดยืนที่มั่นคง

ข่าวการปรับลดเกิดขึ้นเพียงวันเดียวหลังจากที่บริษัทเลิกจ้างพนักงานประมาณ 600 คนจากแผนก AI ซึ่งเป็นการตัดสินใจที่ทวีความรุนแรงยิ่งขึ้นในการก่อ”สงครามกลางเมืองภายใน”เหนือกลยุทธ์ของบริษัทและ”TBD Lab”ชั้นสูงที่เป็นความลับ

แล็บนั้นสร้างขึ้นเพื่อเป็นที่ตั้ง”ทีมในฝัน”ของ ผู้มีความสามารถที่ถูกแย่งชิงได้ส่งเสริมระบบสองชั้นที่แตกแยกและได้เห็นการลาออกที่มีชื่อเสียงโด่งดังแล้ว

รูปแบบของการปรับโครงสร้างองค์กรที่กระตุ้นให้เกิดแส้และความขัดแย้งภายในแสดงให้เห็นว่า Meta กำลังแลกเปลี่ยนปัญหาชุดหนึ่งกับอีกชุดหนึ่ง ซึ่งบ่อนทำลายความมั่นคงที่ต้องการได้มาผ่านการใช้จ่ายอย่างฟุ่มเฟือยในด้านความสามารถและฮาร์ดแวร์

ส่งผลกระทบต่อทีมที่เกิดจากความจำเป็นด้านกฎระเบียบ การแสดงการเลิกจ้างครั้งล่าสุด แม้แต่หน้าที่ที่ได้รับคำสั่งตามกฎหมายก็ยังไม่รอดพ้นจากกลยุทธ์ที่เน้น AI เป็นหลักของบริษัท

ทั่วทั้ง Silicon Valley มีการเล่าเรื่องที่คล้ายกันเกิดขึ้นเนื่องจาก AI กลายเป็นเหตุผลทั่วไปในการลดจำนวนพนักงาน บริษัทเทคโนโลยียักษ์ใหญ่อื่นๆ กำลังชี้ให้เห็นถึงประสิทธิภาพที่ได้รับจาก AI เพื่ออธิบายการหยุดจ้างและการเลิกจ้าง

เช่น Marc Benioff ซีอีโอของ Salesforce ได้ประกาศแผนการลดบทบาทฝ่ายสนับสนุนลูกค้า 4,000 ตำแหน่ง เนื่องจากความสามารถที่เพิ่มขึ้นของเทคโนโลยี “เราพบว่ากรณีการสนับสนุนที่เราจัดการมีจำนวนลดลง และเราไม่จำเป็นต้องทดแทนบทบาทวิศวกรสนับสนุนอีกต่อไป”

บริษัททางการเงินรายใหญ่กำลังดำเนินการตามความเหมาะสม หัวหน้าฝ่ายการเงินของ JPMorgan Chase ยืนยันเมื่อเร็วๆ นี้ว่าผู้จัดการได้รับคำสั่งให้หยุดการจ้างงานในบางพื้นที่ในขณะที่ธนาคารเปิดตัว AI ของตัวเอง ความคิดริเริ่มที่เชื่อมโยงเทคโนโลยีอย่างชัดเจนกับการชะลอการเติบโตของจำนวนพนักงาน

ทั่วทั้งอุตสาหกรรม เทรนด์นี้ทำให้ AI ไม่เพียงแต่เป็นเครื่องมือสำหรับนวัตกรรมเท่านั้น แต่ยังเป็นเครื่องมือในการปรับโครงสร้างองค์กรที่สำคัญและการลดต้นทุน

สำหรับ Meta การแทนที่ทีมตรวจสอบที่ได้รับคำสั่งจาก FTC ด้วย AI ถือเป็นการเดิมพันที่มีเดิมพันสูง บริษัทกำลังใช้เทคโนโลยีเพื่อปรับปรุงภาระผูกพันทางกฎหมายที่ละเอียดอ่อนที่สุดข้อหนึ่ง

แม้ว่าความเคลื่อนไหวดังกล่าวจะรับประกันประสิทธิภาพที่มากขึ้น แต่ก็มีความเสี่ยงที่จะทำลายความไว้วางใจของผู้ใช้และดึงดูดให้มีการตรวจสอบอย่างละเอียดอีกครั้งจากหน่วยงานกำกับดูแลที่มีหน้าที่ควบคุมดูแลโดยมนุษย์ตั้งแต่แรก

Categories: IT Info