Anthropic ha rilasciato giovedì un framework open source per misurare l’imparzialità politica nei modelli di intelligenza artificiale, posizionando il suo chatbot Claude in una corsa a livello di settore per la neutralità contro i rivali di OpenAI e Meta.

Il nuovo benchmark pubblico dell’azienda afferma che i suoi modelli Claude sono più bilanciati di GPT-5 di OpenAI e Llama 4 di Meta.

L’iniziativa arriva nel mezzo di un intenso controllo politico sui pregiudizi dell’IA, evidenziato da un recente ordine esecutivo della Casa Bianca. esigendo “neutralità ideologica” dalle aziende tecnologiche. Questa mossa spinge il dibattito su ciò che costituisce un’intelligenza artificiale veramente obiettiva in prima linea nell’agenda del settore.

Il framework”Evenhandedness”di Anthropic entra nell’arena dei bias dell’intelligenza artificiale

La nuova metodologia”Paired Prompts”di Anthropic, dettagliata in un post sul blog aziendale, mira a fornire un modo trasparente e replicabile per valutare il modo in cui i modelli di intelligenza artificiale gestiscono questioni politicamente sensibili argomenti.

Il suo obiettivo è garantire che i modelli trattino punti di vista opposti con uguale profondità e qualità. Nel suo annuncio, Anthropic ha dichiarato:”Vogliamo che Claude adotti un approccio imparziale quando si tratta di politica”.

Il quadro valuta i modelli in base a tre criteri chiave: se si impegnano con i suggerimenti provenienti da ideologie opposte in modo equilibrato, se riconoscono le controargomentazioni e quanto spesso si rifiutano di rispondere.

Il sistema è progettato per catturare forme sottili di pregiudizio oltre i semplici errori fattuali.

Secondo Anthropic Dai risultati da noi pubblicati, i suoi modelli più capaci, Claude Opus 4.1 e Sonnet 4.5, hanno ottenuto rispettivamente il 95% e il 94% nel parametro di imparzialità.

Questi punteggi li collocano leggermente dietro Gemini 2.5 Pro di Google (97%) e Grok 4 di xAI (96%). Tuttavia, la valutazione mostra che Claude ha significativamente sovraperformato l’ultimo modello GPT-5 di OpenAI, che ha ottenuto l’89%, e Llama 4 di Meta, che è rimasto considerevolmente al 66%.

L’imparzialità porta Claude e altri modelli (fonte: Anthropic)

Rendendo open source la sua valutazione, Anthropic invita al controllo mentre spinge per uno standard di misurazione comune per l’intero settore.

A Fractured Settore: filosofie concorrenti sulla neutralità dell’IA

L’annuncio è l’ultima mossa in una lotta più ampia a livello di settore per definire e gestire i pregiudizi sull’intelligenza artificiale, in cui ogni principale laboratorio adotta una strategia distinta.

Proprio il mese scorso, OpenAI ha pubblicato il proprio quadro dettagliato, sostenendo di aver ottenuto una riduzione del 30% dei pregiudizi politici per GPT-5.

La posizione ufficiale di OpenAI è che”ChatGPT non dovrebbe avere pregiudizi politici in qualsiasi direzione.”Il suo approccio si concentra sull’identificazione e la mitigazione di cinque specifici”assi”di pregiudizio: invalidazione dell’utente, escalation dell’utente, espressione politica personale, copertura asimmetrica e rifiuto politico, come dettagliato nella sua ricerca.

Questo metodo mira a creare una visione olistica del comportamento del modello sotto pressione.

Mentre i concorrenti come Meta si sono concentrati sulla correzione dei risultati percepiti come di sinistra, Anthropic e OpenAI stanno costruendo strumenti di misurazione.

Risultati di prospettiva opposti in Claude e altri modelli (Fonte – Anthropic)

Ad aprile, Meta ha annunciato che stava attivamente mettendo a punto i suoi modelli Llama 4 per contrastare quello che ha descritto come un disallineamento storico.

Nel suo annuncio, Meta ha affermato:”È risaputo che tutti i leader Gli LLM hanno avuto problemi con i pregiudizi: in particolare, storicamente si sono inclinati a sinistra quando si tratta di argomenti politici e sociali dibattuti.”

Questa filosofia di risintonizzazione attiva, volta a presentare”entrambe le parti”, contrasta nettamente con l’approccio basato sulla misurazione dei suoi rivali e si allinea con un cambiamento più ampio nelle politiche sui contenuti di Meta.

xAI di Elon Musk rappresenta un terzo approccio, più controverso: incorporare deliberatamente una specifica ideologia punto di vista. Si è scoperto che la sua Grokipedia, lanciata di recente, copiava le pagine di Wikipedia introducendo un’inclinazione di destra su argomenti come il cambiamento climatico e il genere.

Tuttavia, la metrica imparziale di Anthropic dà a Grok voti ancora migliori di quelli di Claude e Grok è stato trovato innumerevoli volte mentre correggeva false dichiarazioni di Elon Musk.

Sembra che Grok venga adattato manualmente per gruppi di argomenti molto specifici a piacimento di Elon. Musk.

Grok era stato precedentemente sorpreso con l’ordine di censurare le critiche nei confronti di Musk e Donald Trump e, in un incidente separato, aveva generato contenuti antisemiti.

Pressione politica e ricerca di uno standard di settore

Nel mezzo di un’intensa pressione politica sull’obiettività dell’IA, le aziende tecnologiche stanno navigando in un panorama complesso.

La corsa per la neutralità dell’IA non è solo un esercizio accademico; è una risposta diretta alle minacce normative. Nel luglio 2025, la Casa Bianca ha emesso un ordine esecutivo volto a prevenire il”Woke AI” nel governo federale.

L’ordine richiede”neutralità ideologica”e ordina all’Ufficio di gestione e bilancio di pubblicare linee guida sugli appalti entro il 20 novembre.

Ciò crea un potente incentivo finanziario per le aziende a dimostrare l’obiettività dei loro modelli ed evitare ideologie che inquadrano gli ordini come fonte di pregiudizi.

Questo contesto politico rende gli standard trasparenti e misurabili per i pregiudizi più critici che mai. Tuttavia, come ammette la stessa Anthropic, il compito è irto di ambiguità.

L’azienda ha riconosciuto nel suo rapporto che”non esiste una definizione concordata di pregiudizio politico, né consenso su come misurarlo”.

Diversi studi hanno scoperto che i modelli possono apparire distorti semplicemente aderendo all’accuratezza fattuale quando i fatti stessi sono contestati politicamente. Ciò evidenzia la sfida principale: la neutralità di una persona è il pregiudizio di un’altra.

Nonostante queste sfide, la spinta per un punto di riferimento comune sta guadagnando slancio. Rilasciando pubblicamente i suoi strumenti, Anthropic tenta di dare forma al dibattito e stabilire uno standard affidabile.

L’azienda spera che il suo lavoro porti a un insieme condiviso di regole per l’intero settore, andando oltre le valutazioni interne e proprietarie.

Come ha concluso Anthropic,”Uno standard condiviso per misurare i pregiudizi politici andrà a beneficio dell’intero settore dell’intelligenza artificiale e dei suoi clienti.”

Se il settore possa coalizzarsi attorno a un’unica definizione di equità rimane una questione aperta. domanda, ma i tentativi di crearne uno sono ora fondamentali per il futuro dello sviluppo dell’IA e della fiducia del pubblico.

Categories: IT Info