Meta 週四確認,將裁減風險與合規部門的員工數量,具體人數不詳,取而代之的是人工智能驅動的系統,以處理具有里程碑意義的聯邦貿易委員會 (FTC) 和解協議規定的隱私審查。
該公司認為,此舉是為了提高效率,此舉引發了嚴重的問題,即自動化是否能夠充分取代人工監督來保護用戶數據,這可能會讓 Meta 陷入衝突。
從 50 億美元罰款到人工智能監督
這個被解散的團隊誕生於一項具有里程碑意義的監管和解協議,其目的是為了在嚴重違反公眾信任後滿足聯邦貿易委員會的要求。
2019 年,Meta 因其在劍橋分析數據隱私醜聞中所扮演的角色而被處以歷史性的 50 億美元罰款,該醜聞中多達 8700 萬用戶的數據被不當獲取用於政治目的
該和解的核心條件是建立一個強大的、以人為主導的風險組織,負責在發布前評估和記錄每個新產品和功能的隱私風險。
多年來,該組織一直充當內部監督機構,一層人類責任,旨在防止過去的失敗重演。現在,以人為本的流程正在實現自動化。
Meta 首席隱私和合規官 Michel Protti 週三在內部宣布了裁員,這標誌著公司在履行最關鍵監管義務的方式上發生了根本性轉變。
這種轉變實際上將法律規定的人類判斷外包給了機器。
效率驅動還是風險驅動 賭博?
在 Meta 內部,官方的理由集中在速度和成熟度上。 Meta 認為,其合規計劃現在已經足夠複雜,可以實現日常檢查的自動化,從而使人類專家能夠專注於更複雜和新穎的挑戰。
公司發言人表示:“我們經常進行組織變革,並正在重組我們的團隊,以反映我們計劃的成熟度,並在保持高合規標準的同時加快創新速度。”
Meta 的政策副總裁 Rob Sherman, 在 6 月 LinkedIn 帖子中呼應了這一立場,試圖在簡單的自動化和復雜的人工智能決策之間劃清界限:“我們不會使用人工智能來做出風險決策。 相反,這些規則是通過自動化來應用的,減少了專家在批准決策上花費的時間……”
他認為,通過自動化應用預先確定的規則可以提高可靠性,並減少批准決策中人為錯誤的可能性。
然而,這種謹慎的框架與早期的報告和日益增長的外部懷疑相衝突。 2025 年 5 月,一項調查首次披露 Meta 計劃讓人工智能處理高達 90% 的產品風險評估,立即引起了隱私倡導者的關注。
批評者認為,自動化如此關鍵的功能是一場危險的賭博,尤其是在處理與新技術相關的微妙且往往不可預測的風險時。
一位不願透露姓名的前 Meta 高管警告稱,這一變化將 不可避免地會導致審查力度減弱和結果更加危險。 “從功能上來說,這個過程意味著更多的東西會更快地發布,而審查和反對的程度也不太嚴格,這意味著你會創造更高的風險。”
該公司的另一位前董事 Zvika Krieger 也有同樣的觀點,他警告說,“如果你做得太過分,審查的質量和結果將不可避免地受到影響。”
這種擔憂的核心是擔心 針對速度進行了優化的自動化系統可能會錯過背景風險(例如影響弱勢青少年或涉及錯誤信息的風險),而人類審查員經過培訓可以識別這些風險,從而破壞了 FTC 授權的真正目的。
整個技術領域更廣泛的人工智能變革的一部分
MEta 的裁員並不是憑空發生的;這是混亂的全公司人工智能重組中的最新舉措,揭示了領導團隊正在努力尋找穩定的基礎。
裁員消息傳出前一天,該公司從人工智能部門解雇了約 600 名員工,這一決定加劇了圍繞公司戰略及其秘密的精英“TBD 實驗室”正在醞釀的“內部內戰”。
該實驗室的創建是為了容納一個“夢想” 被挖走的人才組成的“團隊”,已經形成了一個分裂的兩層系統,並且已經出現了高調的辭職。
一種導致鞭打的重組和內部衝突的模式表明,Meta 正在用一系列問題換取另一組問題,破壞了它通過在人才和硬件上的大量支出來獲得的穩定性。
最近的裁員影響了一支因監管需要而誕生的團隊。 表明,即使是法律規定的職能也不能倖免於公司動蕩的人工智能優先戰略。
隨著人工智能成為裁員的常見理由,在整個矽谷,類似的敘述正在展開。其他科技巨頭指出人工智能帶來的效率來解釋招聘凍結和裁員的原因。
例如,Salesforce 首席執行官馬克·貝尼奧夫 (Marc Benioff) 最近由於技術能力不斷增強,最終宣布計劃削減 4,000 名客戶支持職位。 “我們已經看到我們處理的支持案例數量有所下降,我們不再需要積極補充支持工程師的角色。”
主要金融公司正在效仿。 摩根大通財務總監最近證實,隨著銀行推出自己的業務,管理人員已接到指示停止某些領域的招聘 人工智能舉措,明確地將技術與減緩員工增長聯繫起來。
在整個行業中,這種趨勢不僅將人工智能定位為創新工具,而且將其視為重大企業重組和削減成本的槓桿。
對於 Meta 來說,用人工智能取代其 FTC 授權的審查團隊是一個高風險的賭注。該公司正依靠技術來簡化其最敏感的法律義務之一。
雖然此舉有望提高效率,但它也有削弱用戶信任的風險,並吸引最初強制人類監督的監管機構重新審查。