Meta mengonfirmasi pada hari Kamis bahwa mereka memberhentikan sejumlah karyawan yang dirahasiakan di departemen risiko dan kepatuhan, dan mengganti mereka dengan sistem berbasis AI untuk menangani tinjauan privasi yang diamanatkan oleh penyelesaian penting Komisi Perdagangan Federal (FTC).

Dianggap oleh perusahaan sebagai dorongan untuk efisiensi, langkah ini menimbulkan pertanyaan serius tentang apakah otomatisasi dapat secara memadai menggantikan pengawasan manusia dalam melindungi data pengguna, sehingga berpotensi menempatkan Meta pada jalur yang berlawanan. dengan regulator.

Dari Denda $5 Miliar hingga Pengawasan AI

Terlahir dari penyelesaian peraturan yang penting, tim yang dibubarkan ini dibentuk untuk memenuhi tuntutan FTC setelah terjadi pelanggaran besar terhadap kepercayaan publik.

Pada tahun 2019, Meta terkena denda bersejarah sebesar $5 miliar karena perannya dalam skandal privasi data Cambridge Analytica, di mana data hingga 87 juta pengguna diambil secara tidak semestinya untuk tujuan politik periklanan.

Syarat inti dari penyelesaian tersebut adalah pembentukan organisasi risiko yang kuat dan dipimpin oleh manusia yang bertugas menilai dan mendokumentasikan risiko privasi untuk setiap produk dan fitur baru sebelum peluncuran.

Selama bertahun-tahun, kelompok ini berfungsi sebagai pengawas internal, lapisan akuntabilitas manusia yang dirancang untuk mencegah terulangnya kegagalan di masa lalu. Kini, proses yang berpusat pada manusia tersebut sedang diotomatisasi.

Michel Protti, kepala bagian privasi dan kepatuhan Meta, mengumumkan PHK secara internal pada hari Rabu, menandakan perubahan mendasar dalam cara perusahaan melakukan pendekatan terhadap kewajiban peraturannya yang paling penting.

Pergeseran ini secara efektif mengalihkan penilaian manusia yang diwajibkan secara hukum ke mesin.

Penggerak Efisiensi atau Berisiko Berjudi?

Di dalam Meta, pembenaran resmi berpusat pada kecepatan dan kedewasaan. Meta berargumentasi bahwa program kepatuhannya kini sudah cukup canggih untuk mengotomatiskan pemeriksaan rutin, sehingga memberikan kebebasan bagi pakar manusia untuk fokus pada tantangan yang lebih kompleks dan baru.

Seorang juru bicara perusahaan menyatakan, “Kami secara rutin melakukan perubahan organisasi dan merestrukturisasi tim kami untuk mencerminkan kematangan program kami dan berinovasi lebih cepat sambil mempertahankan standar kepatuhan yang tinggi.”

VP Kebijakan Meta, Rob Sherman, senada dengan hal yang sama. posisi ini dalam postingan LinkedIn bulan Juni, yang berupaya menarik garis jelas antara otomatisasi sederhana dan pengambilan keputusan AI yang kompleks: “Kami tidak menggunakan AI untuk mengambil keputusan terkait risiko. Sebaliknya, aturannya adalah diterapkan menggunakan otomatisasi, sehingga mengurangi waktu yang dibutuhkan para ahli untuk mengambil keputusan yang telah diratifikasi…”

Ia berpendapat bahwa penerapan aturan yang telah ditentukan sebelumnya melalui otomatisasi akan meningkatkan keandalan dan mengurangi kemungkinan kesalahan manusia pada keputusan yang diratifikasi.

Namun, penyusunan yang cermat seperti itu bertentangan dengan laporan sebelumnya dan semakin meningkatnya skeptisisme eksternal. Pada bulan Mei 2025, investigasi pertama kali mengungkapkan rencana Meta agar AI menangani hingga 90% evaluasi risiko produknya, sehingga memicu kekhawatiran di kalangan pendukung privasi.

Para kritikus berpendapat bahwa mengotomatiskan fungsi penting seperti itu adalah pertaruhan yang berbahaya, terutama ketika berhadapan dengan risiko yang berbeda-beda dan sering kali tidak dapat diprediksi terkait dengan teknologi baru.

Mantan eksekutif Meta yang tidak disebutkan namanya memperingatkan bahwa Perubahan pasti akan menyebabkan pengawasan yang lebih lemah dan hasil yang lebih berbahaya. “Sejauh proses ini secara fungsional berarti lebih banyak produk yang diluncurkan lebih cepat, dengan pengawasan dan pertentangan yang kurang ketat, hal ini berarti Anda menciptakan risiko yang lebih tinggi.”

Sentimen serupa juga disampaikan oleh Zvika Krieger, mantan direktur perusahaan lainnya, yang memperingatkan bahwa, “jika Anda memaksakan hal ini terlalu jauh, mau tidak mau kualitas tinjauan dan hasilnya akan menurun.”

Inti dari kekhawatiran ini adalah ketakutan bahwa sistem otomatis, yang dioptimalkan untuk kecepatan, mungkin melewatkan risiko kontekstual—seperti risiko yang memengaruhi kaum muda yang rentan atau melibatkan misinformasi—yang telah dilatih untuk diidentifikasi oleh peninjau manusia, sehingga melemahkan tujuan mandat FTC.

Bagian dari Perombakan AI yang Lebih Luas di Seluruh Teknologi

PHK yang dilakukan MEta tidak terjadi begitu saja; ini adalah langkah terbaru dalam restrukturisasi AI yang kacau balau di seluruh perusahaan yang memperlihatkan tim kepemimpinan sedang berjuang untuk menemukan landasan yang stabil.

Berita tentang pemotongan ini muncul hanya satu hari setelah perusahaan memberhentikan sekitar 600 karyawan dari divisi AI-nya, sebuah keputusan yang mengintensifkan “perang saudara internal” atas strategi perusahaan dan “Lab TBD” elitnya yang penuh rahasia.

Laboratorium itu, dibuat untuk menampung “tim impian” dari perburuan talenta, telah memupuk sistem dua tingkat yang memecah-belah dan telah terjadi banyak pengunduran diri.

Pola reorganisasi yang memicu whiplash dan perselisihan internal menunjukkan bahwa Meta menukar serangkaian masalah dengan masalah lainnya, sehingga merusak stabilitas yang ingin diperoleh melalui pengeluaran besar-besaran untuk sumber daya manusia dan perangkat keras.

Mempengaruhi tim yang lahir dari kebutuhan akan regulasi, hal terbaru ini PHK menunjukkan bahwa bahkan fungsi-fungsi yang diwajibkan secara hukum pun tidak kebal terhadap gejolak strategi perusahaan yang mengutamakan AI.

Di Silicon Valley, narasi serupa juga terjadi ketika AI menjadi pembenaran umum untuk pengurangan tenaga kerja. Raksasa teknologi lainnya menunjuk pada efisiensi yang diperoleh dari AI untuk menjelaskan pembekuan perekrutan dan PHK.

CEO Salesforce Marc Benioff, misalnya, baru-baru initly mengumumkan rencana untuk mengurangi 4.000 peran dukungan pelanggan karena kemampuan teknologi yang semakin berkembang. “Kami telah melihat jumlah kasus dukungan yang kami tangani mengalami penurunan dan kami tidak perlu lagi secara aktif mengisi kembali peran teknisi pendukung.”

Perusahaan keuangan besar juga mengikuti hal yang sama. Kepala keuangan JPMorgan Chase baru-baru ini mengonfirmasi bahwa para manajer telah diarahkan untuk menghentikan perekrutan di area tertentu saat bank tersebut meluncurkan bisnisnya sendiri Inisiatif AI, yang secara eksplisit menghubungkan teknologi dengan perlambatan pertumbuhan jumlah karyawan.

Di seluruh industri, tren ini memposisikan AI tidak hanya sebagai alat untuk berinovasi, namun juga sebagai pendorong restrukturisasi perusahaan dan pemotongan biaya secara signifikan.

Bagi Meta, mengganti tim peninjau yang diamanatkan FTC dengan AI adalah sebuah pertaruhan yang berisiko tinggi. Perusahaan ini mengandalkan teknologi untuk menyederhanakan salah satu kewajiban hukumnya yang paling sensitif.

Meskipun langkah ini menjanjikan efisiensi yang lebih besar, hal ini juga berisiko mengikis kepercayaan pengguna dan menarik pengawasan baru dari regulator yang sejak awal mewajibkan pengawasan manusia.

Categories: IT Info