Anthropic は木曜日、AI モデルの政治的な「公平性」を測定するオープンソース フレームワークをリリースし、同社のクロード チャットボットを OpenAI や Meta のライバルに対する中立性をめぐる業界全体の競争に位置づけました。
同社の新しい公開ベンチマークは、同社のクロード モデルが OpenAI の GPT-5 や Meta の Llama 4 よりもバランスが取れていると主張しています。
この取り組みは、AI の偏見をめぐる政治的な厳しい監視のさなかに誕生しました。このことは、テクノロジー企業に「イデオロギーの中立性」を要求する最近のホワイトハウス大統領令によって浮き彫りになった。この動きにより、真に客観的な AI とは何かという議論が業界の議題の最前線に押し上げられます。
Anthropic の「偶数ハンドネス」フレームワークが AI バイアス アリーナに参入
Anthropic の新しい「ペア プロンプト」方法論、会社のブログ投稿で詳細が説明されており、AI モデルが政治的機密性をどのように扱うかを評価する透明性と再現性のある方法を提供することを目的としています。
その目標は、モデルが対立する視点を同じ深さと質で扱うことを保証することです。 Anthropic は発表の中で、「政治に関してはクロードに公平なアプローチをとってほしいと考えています。」
このフレームワークは、対立するイデオロギーからの提案にバランスよく対応しているかどうか、反論を認めるかどうか、回答を拒否する頻度という 3 つの重要な基準に基づいてモデルを評価します。
このシステムは、単純な事実誤認を超えて、微妙な形態のバイアスを捉えるように設計されています。
Anthropic 自身によると、公開された結果によると、最も有能なモデルである Claude Opus 4.1 と Sonnet 4.5 は、利き手性の指標でそれぞれ 95% と 94% のスコアを獲得しました。
これらのスコアは、Google の Gemini 2.5 Pro (97%) や xAI の Grok 4 (96%) よりわずかに遅れています。しかし、評価では、Claude が OpenAI の最新 GPT-5 モデル (スコア 89%) や Meta の Llama 4 (66% と大幅に遅れていた) を大幅に上回っていることが示されています。
Claude と他のモデルでは利き手が均等であるという結果が得られます (出典: Anthropic)
Anthropic は評価をオープンソース化することで、業界全体に共通の測定標準を推進しながら、精査を促しています。
亀裂の入った業界: AI の中立性をめぐる競合する哲学
この発表は、AI バイアスの定義と管理をめぐる広範な業界全体の闘いの最新の動きであり、各主要研究室は独自の戦略を採用しています。
つい先月、OpenAI は独自の詳細なフレームワークをリリースし、GPT-5 の政治的バイアスの 30% 削減を達成したと主張しました。
OpenAI の公式立場は、「ChatGPT にはいかなる方向にも政治的偏見があってはなりません」です。そのアプローチは、研究で詳細に説明されているように、バイアスの 5 つの特定の「軸」を特定し、軽減することに焦点を当てています。ユーザー無効化、ユーザーエスカレーション、個人的な政治的表現、非対称報道、政治的拒否です。
この手法は、以下の条件の下でモデルの行動の全体像を作成することを目的としています。
Meta のような競合他社が左傾していると認識される出力の修正に注力している一方で、Anthropic と OpenAI は測定ツールを構築しています。
Claude と他のモデルでは反対の視点の結果 (出典 – Anthropic)
4 月、Meta は、歴史的な歪みとされるものを打ち消すために Llama 4 モデルを積極的に調整していると発表しました。
発表の中で、Meta は次のように主張しました。主要なLLMはすべて偏見の問題を抱えており、特に議論の対象となっている政治的、社会的話題に関しては歴史的に左に傾いてきた。」
「両方の側面」を提示することを目的としたこの積極的な再チューニングの哲学は、競合他社の測定第一のアプローチとは明らかに対照的であり、メタのコンテンツポリシーの広範な変化と一致している。
イーロン・マスクのxAIは、より物議を醸す3番目のアプローチである。特定のイデオロギー的観点を埋め込むこと。彼が最近立ち上げた Grokipedia は、気候変動やジェンダーなどのトピックに関して右傾化を加えながら、Wikipedia のページをコピーしたことが判明しました。
しかし、Anthropic の平等性指標は Grok にクロードよりも良い成績を与えており、Grok はイーロン マスクの誤った発言を修正していることが何度も発見されています。
Grok は、イーロンの好みで非常に特殊なトピック クラスターに合わせて手動で調整されているようです。マスク氏。
グロク氏は以前、マスク氏とドナルド・トランプ氏に対する批判を検閲する指示で逮捕され、別の事件で反ユダヤ主義的なコンテンツを生成した。
政治的圧力と業界標準の模索
AI の客観性に対する激しい政治的圧力の中で、テクノロジー企業は複雑な状況を乗り越えている。
AI の中立性を求める競争は単なる学術的なものではない。それは規制の脅威に対する直接的な対応です。 2025 年 7 月、ホワイトハウスは、連邦政府における「Woke AI」の防止を目的とした大統領令を発行しました。
この命令は「イデオロギーの中立性」を要求しています。
これにより、企業はモデルの客観性を実証し、注文がバイアスの原因となるイデオロギーを回避するという強力な経済的インセンティブが生まれます。
この政治的背景により、バイアスに関する透明で測定可能な基準がこれまで以上に重要になっています。しかし、Anthropic 自身も認めているように、この課題には曖昧さが伴います。
同社は報告書の中で、「政治的偏見について合意された定義はなく、それを測定する方法についてのコンセンサスも存在しない」ことを認めています。
事実自体が政治的に争われている場合、事実の正確さに固執するだけでモデルが偏っているように見える可能性があることが、さまざまな研究でわかっています。これは、ある人の中立性が別の人の偏見であるという核心的な課題を浮き彫りにしています。
これらの課題にもかかわらず、共通のベンチマークを求める動きが勢いを増しています。 Anthropic はツールを公開することで、会話を形作り、信頼できる基準を確立しようとしています。
同社は、自社の取り組みが独自の内部のみの評価を超えて、業界全体の共通の一連のルールにつながることを望んでいます。
Anthropic が結論付けているように、「政治的偏見を測定するための共通の基準は、AI 業界全体とその顧客に利益をもたらします。」
業界が公平性の単一の定義を中心に団結できるかどうかは、まだ明らかではありません。という疑問はありますが、それを作成する試みは、今や AI 開発と社会の信頼の将来の中心となっています。