Anthropic släppte på torsdagen ett ramverk med öppen källkod för att mäta politisk”jämnhet”i AI-modeller, vilket positionerar sin Claude-chatbot i ett branschomfattande kapplöpning om neutralitet mot rivaler från OpenAI och Meta.
Företagets nya offentliga riktmärke hävdar att dess Claude-modeller är mer balanserade än OpenAI:s GPT-5 och Meta’s intensiva Lampa-initiativ.
politisk granskning av AI-bias, belyst av en nyligen genomförd verkställande order från Vita huset som kräver”ideologisk neutralitet”från teknikföretag. Flytten driver debatten om vad som utgör en verkligt objektiv AI till framkanten av branschens agenda.
Anthropics ‘Evenhandedness’ Framework Enters the AI Bias Arena
Anthropics nya “Paired Prompts”-metodologi, detaljerad på ett företagsblogginlägg för att på ett transparent sätt bedöma AI-modeller och sikta in på företagsbloggar. hantera politiskt känsliga ämnen.
Dess mål är att säkerställa att modeller behandlar motsatta synpunkter med lika djup och kvalitet. I sitt tillkännagivande uttalade Anthropic,”Vi vill att Claude ska ta ett jämnt förhållningssätt när det kommer till politik.”
Ramverket utvärderar modeller utifrån tre nyckelkriterier: huruvida de engagerar sig med uppmaningar från motsatta ideologier på ett balanserat sätt, om de erkänner motargument och hur ofta de vägrar att besvara den enkla formen av det enkla systemet.
faktafel.
Enligt Anthropics egna publicerade resultat fick dess mest kapabla modeller, Claude Opus 4.1 och Sonnet 4.5, 95 % respektive 94 % på jämnhetsmåttet.
Dessa poäng placerar dem något bakom Googles Gemini 2,5 % och 9 % Pro 9 %). Utvärderingen visar dock att Claude avsevärt överträffar OpenAI:s senaste GPT-5-modell, som fick 89 %, och Metas Llama 4, som släpade avsevärt med 66 %.
Jämnhet resulterar i Claude och andra modeller (Källa: Anthropic)
Genom öppen källkod är dess utvärdering inbjudande för en scruty-utvärdering, hela branschen.
A Fractured Industry: Competing Philosophies on AI Neutrality
Tillkännagivandet är det senaste steget i en bredare, branschomfattande kamp för att definiera och hantera AI-bias, där varje större labb antar en distinkt strategi.
Detta släpptes förra månaden OpenAI. 30 % minskning av politisk partiskhet för GPT-5.
OpenAI:s officiella ståndpunkt är att”ChatGPT bör inte ha politisk fördom i någon riktning.”Dess tillvägagångssätt fokuserar på att identifiera och mildra fem specifika”axlar”av partiskhet: ogiltigförklaring av användare, användareskalering, personliga politiska uttryck, asymmetrisk täckning och politiska avslag, som att skapa en detaljerad beskrivning av metoden i sin forskning
. modellbeteende under press.
Medan konkurrenter som Meta har fokuserat på att korrigera upplevda vänsterlutade utdata, bygger Anthropic och OpenAI mätverktyg.
Motsatta perspektivresultat i Claude och andra modeller (Källa – Anthropic)
I april tillkännagav Meta att de aktivt trimmade sina Llama 4-modeller för att motverka vad den beskrev som en
. tillkännagivande, hävdade Meta,”Det är välkänt att alla ledande LLM:er har haft problem med partiskhet-specifikt har de historiskt lutat sig åt vänster när det kommer till debatterade politiska och sociala ämnen.”
Denna filosofi om aktiv omjustering, som syftar till att presentera”båda sidor”, står i skarp kontrast till dess rivalernas breda innehåll och dess bredare skiftande innehåll i Meta-först. politik.
Elon Musks xAI representerar ett tredje, mer kontroversiellt tillvägagångssätt: att medvetet inbädda en specifik ideologisk synvinkel. Hans nyligen lanserade Grokipedia visade sig ha kopierat Wikipedia-sidor samtidigt som han injicerade en högerlutad inriktning på ämnen som klimatförändringar och kön.
Men Anthropics jämnhetsmått ger Grok ännu bättre betyg än Claude och Grok har funnits otaliga gånger när de korrigerade falska påståenden av Elon Grop>
Det verkar vara väldigt specifikt justerat för. ämneskluster enligt Elon Musks tycke.
Grok ertappades tidigare med instruktioner att censurera kritik av Musk och Donald Trump och genererade i en separat incident antisemitiskt innehåll.
Political Pressure and the Search for an Industry Standard
Midt ett komplext politiskt landskapstryck av företag inom tekniklandskapet.
Kampan om AI-neutralitet är inte bara en akademisk övning; det är ett direkt svar på regulatoriska hot. I juli 2025 utfärdade Vita huset en exekutiv order som syftar till att förhindra”Väckte AI” i den federala regeringens order i den federala regeringen. neutrality”och uppmanar Office of Management and Budget att utfärda upphandlingsvägledning senast den 20 november.
Detta skapar ett kraftfullt ekonomiskt incitament för företag att visa sina modellers objektivitet och undvika ideologier som ordningsramarna som en källa till partiskhet.
Detta politiska sammanhang gör transparenta, mätbara standarder för partiskhet mer kritiska än någonsin. Ändå, som Anthropic själv medger, är uppgiften behäftad med tvetydighet.
Företaget medgav i sin rapport att”det inte finns någon överenskommen definition av politisk partiskhet och ingen konsensus om hur man mäter den.”
Olika studier har funnit att modeller kan verka partiska genom att helt enkelt hålla sig till politiska fakta när de är korrekta. Detta belyser kärnutmaningen: en persons neutralitet är en annans partiskhet.
Trots dessa utmaningar tar satsningen på ett gemensamt riktmärke fart. Genom att släppa sina verktyg offentligt gör Anthropic ett försök att forma samtalet och etablera en pålitlig standard.
Företaget hoppas att dess arbete kommer att leda till en delad uppsättning regler för hela sektorn, som går bortom egenutvecklade, endast internt utvärderingar.
Som Anthropic drog slutsatsen,”En hel delad standard för att mäta politisk fördomskraft kommer industrin att gynna industrin och branschens kunder.”sammansmälta kring en enda definition av rättvisa är fortfarande en öppen fråga, men försöken att skapa en är nu centrala för framtiden för AI-utveckling och allmänhetens förtroende.