OpenAI ha pubblicato un nuovo rapporto che descrive in dettaglio un quadro per misurare e ridurre i pregiudizi politici nei suoi Large Language Models (LLM), una sfida persistente per il settore dell’intelligenza artificiale. L’azienda afferma che i suoi ultimi modelli GPT-5 mostrano una riduzione del 30% degli output distorti rispetto alle versioni precedenti come GPT-4o.
Questa mossa risponde a preoccupazioni di lunga data sull’obiettività dell’intelligenza artificiale e segue iniziative simili di concorrenti come Meta e Anthropic. La posizione ufficiale dell’azienda è inequivocabile e afferma:”ChatGPT non dovrebbe avere pregiudizi politici in nessuna direzione.”
Il nuovo quadro di riferimento per la misurazione dell’obiettività di OpenAI
Al centro del annuncio è un nuovo quadro di valutazione che definisce cinque specifici”assi”di pregiudizio. Questo sistema è progettato per catturare le sfumature con cui i pregiudizi possono manifestarsi al di là dei semplici errori fattuali, fornendo una visione più olistica del comportamento del modello.
I cinque assi sono: invalidazione dell’utente (respingere l’errore di un utente vista), escalation dell’utente (amplificazione del tono carico di un utente), espressione politica personale (il modello che afferma le opinioni come proprie), copertura asimmetrica (presentazione non uniforme di più punti di vista) e rifiuti politici.
Per testare questo, la ricerca di OpenAI ha coinvolto un set di dati di 500 suggerimenti che coprivano 100 diversi argomenti politici e culturali. Ogni argomento è stato affrontato da cinque prospettive ideologiche distinte, che vanno da”con carica conservatrice”a”con carica liberale”, per mettere alla prova la neutralità dei modelli.
L’obiettivo, secondo il rapporto, è creare fiducia attraverso la trasparenza e un miglioramento misurabile. L’azienda sottolinea che”le persone utilizzano ChatGPT come strumento per apprendere ed esplorare idee. Funziona solo se hanno fiducia che ChatGPT sia obiettivo.”
Una sfida persistente: quando e come emergono i pregiudizi
Una scoperta chiave della ricerca è che, sebbene i modelli funzionino bene su suggerimenti neutri, possono comunque mostrare”pregiudizi moderati”quando rispondono a domande”caricate emotivamente”. Ciò evidenzia che l’obiettività di un modello può deteriorarsi sotto pressione.
Il rapporto rileva anche un’asimmetria specifica: gli stimoli fortemente orientati a sinistra avevano maggiori probabilità di suscitare una risposta distorta rispetto alle loro controparti conservatrici. Ciò suggerisce che la natura e la direzione dell’inclinazione dell’input possono influenzare in modo sproporzionato l’output del modello.
Nonostante queste sfide nei casi limite, OpenAI stima che meno dello 0,01% delle risposte ChatGPT nel mondo reale mostri segni di pregiudizio politico. Ciò suggerisce che, sebbene esista un potenziale di distorsione, il suo verificarsi nell’uso quotidiano è raro.
Questo lavoro sui bias integra anche il lancio di GPT-5 nell’agosto 2025, che ha introdotto una nuova funzionalità di sicurezza chiamata”Completamenti sicuri”per gestire meglio le query ambigue”a duplice uso”, indicando un approccio sfaccettato alla sicurezza e all’affidabilità dei modelli.
La più ampia corsa del settore per Neutralità dell’IA
L’iniziativa di OpenAI fa parte di una tendenza di settore più ampia incentrata sulla lotta alla neutralità dell’IA. Il problema non è nuovo; uno studio del 2023 aveva precedentemente evidenziato pregiudizi politici in modelli come GPT-4. Allo stesso modo, la società rivale Anthropic ha pubblicato una ricerca alla fine del 2023 sulla mitigazione dei pregiudizi demografici nei suoi modelli.
Più recentemente, Meta ha annunciato nell’aprile 2025 che stava attivamente mettendo a punto i suoi modelli Llama 4 per contrastare quello che ha descritto come un pregiudizio storico di sinistra. Nel suo annuncio, Meta ha affermato:”È noto che tutti i principali LLM hanno avuto problemi con i pregiudizi, in particolare, storicamente si sono inclinati a sinistra quando si tratta di argomenti politici e sociali dibattuti.”
La questione dell’intervento politico diretto è stata crudamente evidenziata nel febbraio 2025, quando si è scoperto che Grok di xAI aveva ricevuto istruzioni esplicite di censurare le critiche a Elon Musk e Donald Trump. Un dirigente di xAI ha successivamente confermato che un dipendente ha apportato la modifica e che”una volta che le persone hanno segnalato il problema problematico, lo abbiamo immediatamente annullato.”
Pubblicando il suo framework, OpenAI invita a un maggiore controllo ma mira anche a stabilire uno standard di trasparenza in un’area critica per la fiducia del pubblico. Man mano che i modelli di intelligenza artificiale diventano sempre più integrati nella vita quotidiana, garantire la loro obiettività non è più un esercizio accademico ma un requisito fondamentale per la loro implementazione responsabile.