Meta secara fundamental membentuk kembali pendekatannya terhadap keselamatan dan privasi produk, yang bermaksud untuk sistem kecerdasan buatan untuk mengelola hingga 90% evaluasi risiko untuk pembaruan di seluruh aplikasi yang banyak digunakan, termasuk Instagram dan WhatsApp.
href=”https://www.npr.org/2025/05/31/nx-s1-5407870/meta-ai-facebook-instagram-risks”target=”_ blank”> Investigasi NPR , bertujuan untuk mempercepat pengembangan produk. While users might see new features rolled out more rapidly, the move has ignited concerns about the depth of safety and privacy scrutiny.
The new AI-driven process, which NPR reports has been ramping up through April and May, involves product teams completing a questionnaire and receiving an “instant decision”from the AI, which identifies risks and outlines pre-launch requirements. This shift occurs under the shadow of a 2012 agreement with the Federal Trade Commission that mandates thorough privacy reviews—duties historically performed by human staff.
An unnamed former Meta executive expressed unease to NPR, stating, “Insofar as this process functionally means more stuff launching faster, with less rigorous Pengamatan dan oposisi, itu berarti Anda menciptakan risiko yang lebih tinggi,”dan memperingatkan bahwa”eksternalitas negatif perubahan produk lebih kecil kemungkinannya untuk dicegah sebelum mereka mulai menyebabkan masalah di dunia.”Sebagai tanggapan, Meta telah menegaskan bahwa otomatisasi akan terbatas pada”keputusan berisiko rendah,”dengan”keahlian manusia”yang disediakan untuk”masalah baru dan kompleks.”
Pergeseran ke pengawasan yang digerakkan oleh AI
Automatisasi penilaian risiko ini adalah bagian utama dari strategi yang lebih luas, dengan pengendapan AI yang lebih luas, dengan mengarah ke AIPIONAL, AIPIENSI AKUTI AIPI ATASI AKUTAS ATOMASI ATAS TERSIR. Komitmen substansial Perusahaan mencakup investasi $ 65 miliar yang direncanakan dalam AI tahun ini.
Dedikasi keuangan ini digabungkan dengan restrukturisasi perusahaan yang signifikan, yang melibatkan meta dua kali lipat pada pembelajaran mesin dengan perencanaan untuk mempekerjakan ratusan insinyur AI ketika memangkas 5% dari keseluruhan tenaga kerja. tim produk”dan”proses manajemen risiko meta yang berkembang.”
Tujuannya, Protti menjelaskan, adalah untuk”menyederhanakan pengambilan keputusan”dengan mengotomatisasi tinjauan risiko dalam sebagian besar kasus, sesuai penyelidikan NPR. This internal push for speed and efficiency through AI also extends to content moderation.
Meta’s latest quarterly integrity report, cited by NPR, claims that Large Language Models (LLMs) are “operating beyond that of human performance for select policy areas”and are used to screen posts “highly confident”not to violate rules.
However, internal documents reviewed by NPR suggest Meta is considering automating reviews even for sensitive areas like Keselamatan AI, risiko pemuda, dan’integritas’-yang mencakup konten yang kejam dan informasi yang salah-terlepas dari pernyataan publik yang berfokus pada otomatisasi berisiko rendah.