Facebook、Instagram 和 Threads 的母公司 Meta 正在徹底改變其內容審核政策,取消第三方事實查核程序,轉而採用名為「社群註釋」的用戶驅動系統。

這一轉變反映了Meta 重新關注自由表達,同時解決對其審核實踐中的偏見和過度擴張的持續批評。對自由的基本承諾。-mistakes/”>官方聲明

卡普蘭將以前的審核系統描述為過於嚴格,並補充道,「儘管許多這些努力都是出於善意,但隨著時間的推移,它們已經擴大到我們犯了太多錯誤,讓我們的用戶感到沮喪,並且經常陷入困境的地步。 。 >

社群Notes 是一個模仿 X(以前稱為 Twitter)的審核系統,它眾包標記貼文的上下文。社群註釋不是強加侵入性警告,而是允許貢獻者用附加資訊註釋帖子,前提是不同觀點的用戶達成共識。這種共識機制旨在最大限度地減少偏見並提高內容審核的透明度。誤導性並且需要更多背景信息,並且不同觀點的人們決定什麼樣的上下文對其他用戶有幫助。直接撰寫或審核社區筆記相反,貢獻者將自願製作符合商定標準的註釋 該系統還消除了以前阻止用戶查看標記內容的全屏警告,取而代之的是用戶可以單擊以獲取更多上下文的較小標籤。

在採用社群註釋的同時,Meta 正在放寬對移民和性別認同等政治敏感話題的限制。這些在公共領域經常爭論的話題將不再受到嚴格的監管。相反,Meta 將優先執行針對嚴重違法行為的規則,例如恐怖主義、剝削兒童和欺詐。普蘭寫道:「這是頻繁的政治討論和辯論的主題。可以在電視或國會發言,但不能在我們的平台上發言,這是不對的。」

Meta 也在減少對自動審核系統因內容分類錯誤而受到批評。現在,只有在用戶標記的情況下才會對不太嚴重的違規行為採取行動,而演算法將專門關注嚴重程度較高的問題。推出用於隱藏AI 影片的視訊密封框架浮水印

政治和戰略影響

Meta 進行適度改革的時機恰逢美國的政治轉變,引發了對該公司動機的猜測。批評者指出,Meta 長期以來一直面臨著政治偏見的指控,尤其是來自保守派團體的指控,他們認為先前的內容審核政策是針對他們的。反對,並表示過於廣泛的執法導致了錯誤。他解釋說:「我們認為每10 個行為中就有一到兩個可能是錯誤(即內容可能實際上並未違反我們的政策)。」他補充說,新方法旨在重建不同政治派別用戶之間的信任.

Meta 最初的事實核查計劃於2016 年啟動,旨在打擊選舉錯誤信息,雖然該計劃旨在為用戶提供準確的信息,但它因被視為乾預政治辯論和依賴而受到批評。信任的重新定位和安全團隊

作為更廣泛重組的一部分,Meta 正在將其信任和安全團隊從加利福尼亞州遷移到德克薩斯州和美國其他地區,此舉旨在適度解決對區域偏見的擔憂。批評者質疑,考慮到即將上任的美國政府,這項決定是否也反映了政治立場。 。該公司還計劃擴大高階語言模型的使用,以協助審核並減少執行決策中的錯誤。

以個人化為重點重新引入公民內容

Meta 正在重新考慮其平台上公民和政治內容的處理方式。經過多年減少用戶資訊流中的此類內容後,該公司計劃透過個人化策略重新引入此類內容。根據喜歡、評論和觀看習慣等參與度指標,用戶將可以更好地控制他們看到的政治內容的數量。公司計劃擴大規模幫助用戶優先考慮相關內容的選項。這項新措施旨在平衡使用者偏好與Meta 促進強有力的公民討論的目標。仍然是一個作為 Meta 審核工具庫中的重要工具,它的作用正在重新定義。大語言模型(LLM)現在將充當執法決策中的第二意見,重點關注嚴重違規行為。同時,向社區註釋的轉變代表了更廣泛的努力,以分散內容監督並使用戶直接參與審核過程。符合Meta 實現自由表達的使命.

Categories: IT Info