Meta secara fundamental membentuk kembali pendekatannya terhadap keselamatan dan privasi produk, yang bermaksud untuk sistem kecerdasan buatan untuk mengelola hingga 90% evaluasi risiko untuk pembaruan di seluruh aplikasi yang banyak digunakan, termasuk Instagram dan WhatsApp.

href=”https://www.npr.org/2025/05/31/nx-s1-5407870/meta-ai-facebook-instagram-risks”target=”_ blank”> Investigasi NPR , bertujuan untuk mempercepat pengembangan produk. While users might see new features rolled out more rapidly, the move has ignited concerns about the depth of safety and privacy scrutiny.

The new AI-driven process, which NPR reports has been ramping up through April and May, involves product teams completing a questionnaire and receiving an “instant decision”from the AI, which identifies risks and outlines pre-launch requirements. This shift occurs under the shadow of a 2012 agreement with the Federal Trade Commission that mandates thorough privacy reviews—duties historically performed by human staff.

An unnamed former Meta executive expressed unease to NPR, stating, “Insofar as this process functionally means more stuff launching faster, with less rigorous Pengamatan dan oposisi, itu berarti Anda menciptakan risiko yang lebih tinggi,”dan memperingatkan bahwa”eksternalitas negatif perubahan produk lebih kecil kemungkinannya untuk dicegah sebelum mereka mulai menyebabkan masalah di dunia.”Sebagai tanggapan, Meta telah menegaskan bahwa otomatisasi akan terbatas pada”keputusan berisiko rendah,”dengan”keahlian manusia”yang disediakan untuk”masalah baru dan kompleks.”

Pergeseran ke pengawasan yang digerakkan oleh AI

Automatisasi penilaian risiko ini adalah bagian utama dari strategi yang lebih luas, dengan pengendapan AI yang lebih luas, dengan mengarah ke AIPIONAL, AIPIENSI AKUTI AIPI ATASI AKUTAS ATOMASI ATAS TERSIR. Komitmen substansial Perusahaan mencakup investasi $ 65 miliar yang direncanakan dalam AI tahun ini.

Dedikasi keuangan ini digabungkan dengan restrukturisasi perusahaan yang signifikan, yang melibatkan meta dua kali lipat pada pembelajaran mesin dengan perencanaan untuk mempekerjakan ratusan insinyur AI ketika memangkas 5% dari keseluruhan tenaga kerja. tim produk”dan”proses manajemen risiko meta yang berkembang.”

Tujuannya, Protti menjelaskan, adalah untuk”menyederhanakan pengambilan keputusan”dengan mengotomatisasi tinjauan risiko dalam sebagian besar kasus, sesuai penyelidikan NPR. This internal push for speed and efficiency through AI also extends to content moderation.

Meta’s latest quarterly integrity report, cited by NPR, claims that Large Language Models (LLMs) are “operating beyond that of human performance for select policy areas”and are used to screen posts “highly confident”not to violate rules.

However, internal documents reviewed by NPR suggest Meta is considering automating reviews even for sensitive areas like Keselamatan AI, risiko pemuda, dan’integritas’-yang mencakup konten yang kejam dan informasi yang salah-terlepas dari pernyataan publik yang berfokus pada otomatisasi berisiko rendah.

menyeimbangkan inovasi, keselamatan, dan pengawasan yang dipengaruhi oleh kompetisi yang dipengaruhi oleh Tech. Kinerja model AI saingan, seperti Deepseek’s R1, dilaporkan telah menciptakan rasa urgensi dalam meta.

Seorang insinyur sebelumnya menggambarkan”perebutan gila yang mencoba mencocokkan efisiensi itu.”Lingkungan kompetitif ini merupakan faktor penting dalam keputusan strategis Meta, termasuk perubahan kepemimpinan seperti Loredana Crisan, sebelumnya kepala Messenger, sekarang mengawasi divisi AI generatif perusahaan.

Pendekatan Meta terhadap tata kelola AI telah dikembangkan selama beberapa waktu. Pada bulan Februari, perusahaan memperkenalkan kerangka kerja AI perbatasannya, sebuah sistem yang dirancang untuk mengkategorikan AI menjadi kelompok”berisiko tinggi”dan”risiko kritis”.

Pada peluncurannya, meta menyatakan niatnya:”Melalui kerangka kerja ini, kita akan memprioritaskan

Zvika Krieger, mantan direktur di Meta, menderita.”Menariknya, pengumuman meta internal menunjukkan bahwa pengambilan keputusan dan pengawasan untuk produk dan data pengguna di UE akan tetap dengan markas meta Eropa di Irlandia, berpotensi mengisolasi pengguna UE dari beberapa perubahan ini, menurut laporan NPR. Produk yang menghadap konsumen. Perusahaan memperbarui kebijakan’penggunaan yang dapat diterima’pada bulan November 2024, memungkinkan perusahaan militer AS untuk memanfaatkan model AI bahasa yang besar. Perusahaan termasuk Lockheed Martin, Booz Allen Hamilton, Palantir Technologies, dan Anduril Industries Meta’s Q1 2025 Community Standards Enforcement Report highlighted a roughly 50% reduction in enforcement mistakes in the US compared to Q4 2024, an improvement attributed to focusing on high-severity violations and enhancing akurasi melalui audit sistem.

Categories: IT Info