Anthropic hat am Donnerstag ein Open-Source-Framework zur Messung der politischen „Unparteilichkeit“ in KI-Modellen veröffentlicht und damit seinen Claude-Chatbot in einem branchenweiten Wettlauf um Neutralität gegen Konkurrenten von OpenAI und Meta positioniert.
Der neue öffentliche Benchmark des Unternehmens behauptet, dass seine Claude-Modelle ausgewogener sind als OpenAIs GPT-5 und Metas Llama 4.
Die Initiative kommt inmitten intensiver politischer Prüfung der KI-Voreingenommenheit, wie kürzlich in einem Bericht hervorgehoben wurde Präsidialerlass des Weißen Hauses, der von Technologiefirmen „ideologische Neutralität“ fordert. Der Schritt rückt die Debatte darüber, was eine wirklich objektive KI ausmacht, in den Vordergrund der Branchenagenda.
Anthropics „Evenhandedness“-Framework betritt die KI-Bias-Arena
Anthropics neue „Paired Prompts“-Methodik, detailliert in einem Unternehmensblogbeitrag, zielt darauf ab, eine transparente und nachvollziehbare Möglichkeit zu bieten, zu beurteilen, wie KI-Modelle politisch agieren sensible Themen.
Ziel ist es, sicherzustellen, dass Models gegensätzliche Standpunkte mit gleicher Tiefe und Qualität behandeln. In seiner Ankündigung erklärte Anthropic: „Wir wollen, dass Claude einen unparteiischen Ansatz verfolgt, wenn es um Politik geht.“
Das Rahmenwerk bewertet Modelle anhand von drei Schlüsselkriterien: ob sie sich ausgewogen mit Anregungen gegensätzlicher Ideologien auseinandersetzen, ob sie Gegenargumente anerkennen und wie oft sie sich weigern, zu antworten.
Das System ist darauf ausgelegt, subtile Formen der Voreingenommenheit zu erfassen, die über einfache sachliche Fehler hinausgehen.
Gemäß Anthropics eigene veröffentlichte Ergebnisse: Seine leistungsfähigsten Modelle, Claude Opus 4.1 und Sonnet 4.5, erreichten 95 % bzw. 94 % bei der Gleichmäßigkeitsmetrik.
Mit diesen Werten liegen sie leicht hinter Googles Gemini 2.5 Pro (97 %) und xAIs Grok 4 (96 %). Die Auswertung zeigt jedoch, dass Claude das neueste GPT-5-Modell von OpenAI, das 89 % erreichte, und Metas Llama 4, das mit 66 % deutlich zurückblieb, deutlich übertrifft.
Ausgewogenheit ergibt sich bei Claude und anderen Modellen (Quelle: Anthropic)
Durch die Open-Sourcing-Bewertung seiner Auswertung lädt Anthropic zur Prüfung ein und drängt gleichzeitig auf einen gemeinsamen Messstandard für die gesamte Branche.
A Gespaltene Industrie: Konkurrierende Philosophien zur KI-Neutralität
Die Ankündigung ist der jüngste Schritt in einem breiteren, branchenweiten Kampf um die Definition und Bewältigung von KI-Voreingenommenheit, wobei jedes große Labor eine eigene Strategie verfolgt.
Erst letzten Monat veröffentlichte OpenAI sein eigenes detailliertes Rahmenwerk und behauptete, es habe eine 30-prozentige Reduzierung der politischen Voreingenommenheit für GPT-5 erreicht.
Die offizielle Position von OpenAI lautet: „ChatGPT hätte das nicht tun sollen politische Voreingenommenheit in jede Richtung.“ Sein Ansatz konzentriert sich auf die Identifizierung und Abschwächung von fünf spezifischen „Achsen“ der Voreingenommenheit: Benutzerentwertung, Benutzereskalation, persönlicher politischer Ausdruck, asymmetrische Berichterstattung und politische Ablehnungen, wie in seiner Forschung ausführlich dargelegt.
Diese Methode zielt darauf ab, eine ganzheitliche Sicht auf das Modellverhalten zu erstellen Druck.
Während Konkurrenten wie Meta sich auf die Korrektur vermeintlich linksgerichteter Ergebnisse konzentriert haben, entwickeln Anthropic und OpenAI Messinstrumente.
Gegensätzliche Perspektiven führen zu Claude und anderen Modellen (Quelle – Anthropic)
Im April gab Meta bekannt, dass es seine Llama 4-Modelle aktiv optimiert, um dem entgegenzuwirken, was es als historische Abweichung bezeichnete.
In seiner Ankündigung behauptete Meta: „Es ist bekannt, dass alle führenden LLMs hatten Probleme mit Voreingenommenheit – insbesondere tendierten sie in der Vergangenheit nach links, wenn es um diskutierte politische und soziale Themen ging.“
Diese Philosophie der aktiven Neuausrichtung, die darauf abzielt, „beide Seiten“ darzustellen, steht in scharfem Kontrast zum Ansatz der Konkurrenz, bei dem die Messung an erster Stelle steht, und steht im Einklang mit einer breiteren Verschiebung in der Inhaltspolitik von Meta.
Elon Musks xAI stellt einen dritten, kontroverseren Ansatz dar: die bewusste Einbettung eines bestimmten ideologischen Standpunkts. Es wurde festgestellt, dass seine kürzlich gestartete Grokipedia Wikipedia-Seiten kopiert und dabei eine rechtsgerichtete Tendenz zu Themen wie Klimawandel und Geschlecht eingebracht hat.
Die Gleichmäßigkeitsmetrik von Anthropic gibt Grok jedoch noch bessere Noten als Claude, und Grok wurde unzählige Male dabei gefunden, falsche Aussagen von Elon Musk zu korrigieren.
Es scheint, dass Grok nach dem Geschmack von Elon Musk manuell für sehr spezifische Themencluster angepasst wird.
Grok wurde zuvor wegen der Anweisung erwischt, Kritik an Musk und Donald Trump zu zensieren, und erzeugte in einem anderen Vorfall antisemitische Inhalte.
Politischer Druck und die Suche nach einem Industriestandard
Inmitten des starken politischen Drucks hinsichtlich der Objektivität der KI bewegen sich Technologieunternehmen in einem komplexen Umfeld.
Der Wettlauf um die Neutralität der KI ist nicht nur eine akademische Übung; es ist eine direkte Reaktion auf regulatorische Bedrohungen. Im Juli 2025 erließ das Weiße Haus eine Exekutivverordnung zur Verhinderung von „Woke AI“ in der Bundesregierung.
Die Verordnung fordert „ideologische Neutralität“ und weist das Office of Management and Budget an, bis zum 20. November Beschaffungsrichtlinien herauszugeben.
Dies schafft einen starken finanziellen Anreiz für Unternehmen, die Objektivität ihrer Modelle unter Beweis zu stellen und Ideologien zu vermeiden, die die Auftragsrahmen als Quelle der Voreingenommenheit darstellen.
Dieser politische Kontext macht transparente, messbare Standards für Voreingenommenheit wichtiger denn je. Doch wie Anthropic selbst einräumt, ist die Aufgabe mit Unklarheiten behaftet.
Das Unternehmen räumte in seinem Bericht ein, dass „es keine einheitliche Definition politischer Voreingenommenheit und keinen Konsens darüber gibt, wie diese gemessen werden soll.“
Verschiedene Studien haben ergeben, dass Modelle einfach dadurch voreingenommen erscheinen können, dass sie sich an die sachliche Genauigkeit halten, wenn die Fakten selbst politisch umstritten sind. Dies verdeutlicht die zentrale Herausforderung: Die Neutralität des einen ist die Voreingenommenheit des anderen.
Trotz dieser Herausforderungen gewinnt der Drang nach einem gemeinsamen Maßstab immer mehr an Dynamik. Durch die Veröffentlichung seiner Tools möchte Anthropic die Diskussion prägen und einen vertrauenswürdigen Standard etablieren.
Das Unternehmen hofft, dass seine Arbeit zu einem gemeinsamen Regelwerk für den gesamten Sektor führen wird, das über proprietäre, nur interne Bewertungen hinausgeht.
Anthropic kam zu dem Schluss: „Ein gemeinsamer Standard zur Messung politischer Voreingenommenheit wird der gesamten KI-Branche und ihren Kunden zugute kommen.“
Ob sich die Branche auf eine einzige Definition von Fairness einigen kann, bleibt offen Frage, aber die Versuche, eine solche zu schaffen, sind jetzt von zentraler Bedeutung für die Zukunft der KI-Entwicklung und das öffentliche Vertrauen.