OpenAI 發布了一份新報告,詳細介紹了衡量和減少其大型語言模型 (LLM) 中政治偏見的框架,這是人工智能行業面臨的持續挑戰。該公司聲稱,與 GPT-4o 等之前的版本相比,其最新的 GPT-5 模型的偏差輸出減少了 30%。

此舉解決了人們長期以來對人工智能客觀性的擔憂,並遵循了 Meta 和 Anthropic 等競爭對手的類似舉措。該公司的官方立場十分明確,指出“ChatGPT 不應在任何方向上存在政治偏見。”

OpenAI 衡量客觀性的新框架

公告是一個新的評估框架,定義了五個具體的偏見“軸”。該系統旨在捕獲偏差在簡單的事實錯誤之外表現出來的細微差別,從而提供對模型行為的更全面的了解。

五個軸是:用戶失效(忽略 用戶的觀點)、用戶升級(放大用戶的緊張語氣)、個人政治表達(將觀點作為自己的觀點的模型)、不對稱覆蓋(不均勻地呈現多個觀點)和政治拒絕。

為了測試這一點,OpenAI 的研究使用了涵蓋 100 個不同政治和文化主題的 500 個提示的數據集。每個主題都從五個不同的意識形態角度進行探討,從“保守派”到“自由派”,對模型的中立性進行壓力測試。

報告稱,目標是通過透明度和可衡量的改進來建立信任。該公司強調,“人們使用 ChatGPT 作為學習和探索想法的工具。只有當他們相信 ChatGPT 是客觀的時,這才有效。”

持續的挑戰:偏見何時以及如何出現

研究的一個重要發現是,雖然模型在中性提示下表現良好,但在回答“情緒化”問題時,它們仍然會表現出“適度偏見”。這凸顯出模型的客觀性在壓力下可能會降低。

報告還指出了一種特定的不對稱性:強烈的左傾提示比保守的提示更有可能引起有偏見的反應。這表明輸入傾斜的性質和方向會對模型的輸出產生不成比例的影響。

儘管在邊緣情況下存在這些挑戰,OpenAI 估計現實世界的 ChatGPT 響應中只有不到 0.01% 表現出任何政治偏見的跡象。這表明雖然存在潛在的偏差,但在典型的日常使用中很少發生。

這項關於偏差的工作也補充了 2025 年 8 月推出的 GPT-5,GPT-5 引入了一項名為“安全完成”的新安全功能,以更好地處理不明確的“雙重用途”查詢,這表明了模型安全性和可靠性的多方面方法。

更廣泛的行業競賽 人工智能中立性

OpenAI 的舉措是專注於解決人工智能中立性的更廣泛行業趨勢的一部分。這個問題並不新鮮; 2023 年的一項研究此前曾強調過 GPT-4 等模型中的政治偏見。同樣,競爭對手公司 Anthropic 於 2023 年底發表了關於減輕其模型中的人口統計偏見的研究。

最近,Meta 於 2025 年 4 月宣布,它正在積極調整其 Llama 4 模型,以抵消它所描述的歷史左傾偏見。 Meta 在其聲明中表示,“眾所周知,所有領先的法學碩士都存在偏見問題,具體來說,他們在歷史上在討論政治和社會話題時都傾向於左傾。”

直接政治干預的問題在 2025 年 2 月得到了鮮明的凸顯,當時 xAI 的 Grok 被發現被明確指示審查對埃隆·馬斯克和唐納德·特朗普的批評。一位 xAI 高管後來證實,是一名員工做出了更改,並且“一旦人們指出有問題的提示,我們立即將其恢復。”

通過發布其框架,OpenAI 正在邀請更多審查,但也旨在在對公眾信任至關重要的領域制定透明度標準。隨著人工智能模型越來越融入日常生活,確保其客觀性不再是學術活動,而是負責任部署的基本要求。

Categories: IT Info