Meta正在指導其最新的人工智能係統《 Llama 4》系列,該公司將其視為更具政治平衡的觀點。 With the release of Llama 4 models like Scout and Maverick detailed on April 6, Meta confronted the perception of political bias inherent in large language models (LLMs) – the complex AI trained on vast web data to understand and generate text.
While AI bias research frequently highlights issues concerning race or gender (a 已建立 事實在學術界討論),梅塔的公開陳述直接集中在一個可感知的政治偏斜上,與共同的研究重點相反。
“眾所周知,所有領先的LLM都有與偏見的問題-具體來說,他們在歷史上偏向於政治和社會的偏愛,
根據公司的原因? “這是由於互聯網上可用的培訓數據的類型。”
此解釋伴隨著一個既定的目標:為缺乏單個“正確”視角開發AI模型,而是旨在反映一系列觀點。 404媒體表明,這兩個媒體都表現為“遍布lllama 4″,這可能是“尤其是”,這可能是“尤其是”,這可能是“尤其是”,這可能是“可能的”。 人工智慧.一些媒體,例如 ars technica ,簡單地將其作為伊斯特(Isa)的距醒來。”
調整乳拉4:元聲稱政治中立增長
meta斷言,Llama 4家族包含特定的調整以解決這些政治傾向。這些模型本身,包括高效的Llama 4 Scout和功能強大的Llama 4 Maverick,利用了Experts(MOE)體系結構的混合物-僅激活給定任務的必要組件-以及本身處理圖像和文本。 Llama 4 Scout notably features a 10 million token context window, allowing it to process context equivalent to roughly 7.5 million words simultaneously.
According to Meta’s own reporting, internal tests show these models are less likely to demur on politically charged prompts, with refusal rates claimed to be below 2%, down significantly from 7% in the prior Llama 3.3 generation.該公司還聲稱,基於用戶明顯意識形態的拒絕差異現在不到1%,增強了其追求中立性的敘述。增強的安全框架也是該套餐的一部分,包括’
這種關注的重點不是孤立地調整Llama 4的輸出。梅塔(Meta)在1月份宣布,它正在拆除其在美國的第三方事實核對計劃。 href=“ https://www.wired.com/story/metas-fact-checking-partners-blindsiders/“ target=“ _ black”>有線,“我們聽到了新聞,就像其他所有人一樣[…]沒有預先通知。 “該系統被社區筆記替換,社區筆記是一種用戶驅動的方法,其中貢獻者在X(以前為Twitter)以X(以前為Twitter)建模的帖子中添加上下文。該系統的測試始於3月18日。
平台策略轉移:事實檢查結束,有爭議的語音允許
證明了競爭性競爭的正當事實檢查員,Meta的全球政策負責人Joel Kaplan表示,先前的Medere介紹和錯誤的複雜性。卡普蘭(Kaplan)寫道:“隨著時間的如此努力,它們隨著時間的流逝而擴大到我們犯了太多錯誤,沮喪的用戶,並且經常妨礙我們設定啟用的自由表達方式的地步,卡普蘭寫道。 身份。 As reported by The Intercept, leaked training materials indicated that arguing LGBTQ+ identities constitute a “mental illness”became permissible, framed by Meta as allowable “political and religious discourse.”
這種故意轉移朝著更廣泛的表達範圍,即使有爭議的或潛在的危害環境,也可以創造出來的範圍,這是一個政治環境,這是一個既定的,又是這樣,這是一個如此之所以創造,這是一個如此之所以如此,成為這樣的人,這是一個既定的,又是這樣的,這是一個範圍,這是一個範圍,這是一個如此之所以如此。部署了。
政治氣候和內部動力塑造了元策略
這些政策的時機和AI調整的時機引起了人們的關注,這是由於美國的政治格局而引起了人們的關注。 Meta’s January announcements followed Donald Trump’s election victory, and Trump publicly applauded Meta’s new direction: “I think they’ve, honestly, I think they’ve come a long way. Meta. Facebook。”這與a 。
公司決定將信託和安全團隊搬到德克薩斯州的決定也由扎克伯格(Zuckerberg)構成,部分原因是解決了對員工偏見的擔憂。這些舉動激發了人們對元的潛在猜測的猜測。
4月份的報導增強了這種看法,這表明扎克伯格(Zuckerberg)在三月下旬征服了特朗普對歐盟法規的支持,並表示,歐盟可能會在數字市場下對我們的政治市場付出的限制,應對我們的政治市場付出了損失。在內部,該公司正在駕駛重大變化,這是AI研究負責人JoëllePineau的離開,有效的5月下旬。
她的退出是由於DeepSeek等競爭對手的巨大競爭壓力以及有關Meta AI策略的內部討論的強烈競爭壓力,他們更多地關注了產品集成與基礎研究。大約在同一時間,Meta還將其特定的DEI團隊納入了更廣泛的人力資源功能。
數據源,全球規則和未來的道路
是Llama 4的發展的基礎是對其培訓的數據持續存在的問題。正在進行的訴訟,涉及喜劇演員莎拉·西爾弗曼(Sarah Silverman)之類的原告,指稱梅塔(Meta)在使用Bittorrent文件共享協議(一種與未經授權的內容分佈相關的PEER-PEER-PEER技術)中培訓了來自Libgen等影子圖書館的大量數據集,該盜版書籍是從Libgen等影片圖書館進行的。 one engineer wrote, according to documents filed in the case, “Torrenting from a [Meta-owned] corporate laptop doesn’t feel right.”
Further complicating matters, Meta’s torrenting activity might have resulted in the company re-uploading approximately 30% of the data volume it downloaded, potentially strengthening arguments that it participated in distributing copyrighted material, not just using it for transformative training under “fair使用“索賠。此上下文為META的解釋增加了複雜性,該解釋僅與互聯網數據的一般性質聯繫起來,提出了有關數據來源和獲取方法的問題。
,而Meta導致這些數據爭議並追求其AI偏見調整,其實施此類更改的能力仍然受到限制。目前將第三方事實檢查的回滾僅限於美國試驗。
更嚴格的監管制度,尤其是 EU的常規數據> href=“ https://digital-strategy.europa.eu/en/policies/digital-services-act-act” target=“ _ blank”>數字服務法(DSA),強加了更嚴格的控制。當Meta AI聊天機器人終於在大量延誤之後於3月在歐洲推出時,這很明顯。由於GDPR限制了使用用戶數據進行培訓,因此他們缺乏在美國提供的圖像生成和個性化的關鍵功能。這種調節性破裂意味著,政治重新平衡的駱駝4與輕鬆的內容節制政策一樣,可能在可預見的將來都在美國體現。