OpenAI heeft een nieuw rapport uitgebracht waarin een raamwerk wordt beschreven om politieke vooroordelen in zijn Large Language Models (LLM’s) te meten en te verminderen, een aanhoudende uitdaging voor de AI-industrie. Het bedrijf beweert dat zijn nieuwste GPT-5-modellen een vermindering van 30% in vertekende output laten zien vergeleken met eerdere versies zoals GPT-4o.
Deze stap komt tegemoet aan al lang bestaande zorgen over de objectiviteit van AI en volgt op soortgelijke initiatieven van concurrenten als Meta en Anthropic. Het officiële standpunt van het bedrijf is ondubbelzinnig: “ChatGPT mag in geen enkele richting politieke vooroordelen hebben.”
OpenAI’s nieuwe raamwerk voor het meten van objectiviteit
In de kern van de aankondiging is een nieuw evaluatiekader dat vijf specifieke “assen” van vooringenomenheid definieert. Dit systeem is ontworpen om de genuanceerde manieren vast te leggen waarop vooringenomenheid zich kan manifesteren naast eenvoudige feitelijke fouten, waardoor een meer holistische kijk op modelgedrag wordt geboden.
De vijf assen zijn: gebruikersinvalidatie (het negeren van een de mening van de gebruiker), escalatie van de gebruiker (versterking van de geladen toon van een gebruiker), persoonlijke politieke expressie (het model dat meningen als zijn eigen mening weergeeft), asymmetrische berichtgeving (het ongelijkmatig presenteren van meerdere standpunten) en politieke weigeringen.
Om dit te testen, gebruikte OpenAI’s onderzoek een dataset van 500 aanwijzingen over 100 verschillende politieke en culturele onderwerpen. Elk onderwerp werd benaderd vanuit vijf verschillende ideologische perspectieven, variërend van ‘conservatief geladen’ tot ‘liberaal geladen’, om de neutraliteit van de modellen aan een stresstest te onderwerpen.
Het doel is volgens het rapport om vertrouwen op te bouwen door middel van transparantie en meetbare verbetering. Het bedrijf benadrukt dat”mensen ChatGPT gebruiken als een hulpmiddel om ideeën te leren en te verkennen. Dat werkt alleen als ze erop vertrouwen dat ChatGPT objectief is.”
Een aanhoudende uitdaging: wanneer en hoe vooroordelen ontstaan
Een belangrijke bevinding uit het onderzoek is dat hoewel de modellen goed presteren op neutrale aanwijzingen, ze nog steeds een”matige vooringenomenheid”kunnen vertonen bij het reageren op”emotioneel geladen”vragen. Dit benadrukt dat de objectiviteit van een model onder druk kan afnemen.
Het rapport constateert ook een specifieke asymmetrie: sterk geladen, links georiënteerde aanwijzingen lokken eerder een bevooroordeelde reactie uit dan hun conservatieve tegenhangers. Dit suggereert dat de aard en richting van de input de output van het model onevenredig kan beïnvloeden.
Ondanks deze uitdagingen in randgevallen schat OpenAI dat minder dan 0,01% van de echte ChatGPT-reacties tekenen van politieke vooringenomenheid vertoont. Dit suggereert dat, hoewel de kans op vooringenomenheid bestaat, dit zelden voorkomt bij normaal dagelijks gebruik.
Dit werk over vooringenomenheid is ook een aanvulling op de lancering van GPT-5 in augustus 2025, die een nieuwe veiligheidsfunctie introduceerde genaamd’Safe Completions’om dubbelzinnige’dual-use’-query’s beter af te handelen, wat wijst op een veelzijdige benadering van de veiligheid en betrouwbaarheid van modellen.
De race voor de bredere industrie om AI-neutraliteit
Het initiatief van OpenAI maakt deel uit van een bredere trend in de sector gericht op het aanpakken van AI-neutraliteit. Het probleem is niet nieuw; een onderzoek uit 2023 had eerder politieke vooroordelen in modellen als GPT-4 aan het licht gebracht. Op dezelfde manier publiceerde het rivaliserende bedrijf Anthropic eind 2023 onderzoek naar het verzachten van demografische vooroordelen in zijn modellen.
Meer recentelijk kondigde Meta in april 2025 aan dat het zijn Llama 4-modellen actief aan het afstemmen was om tegen te gaan wat het omschreef als een historisch-linkse vooringenomenheid. In haar aankondiging verklaarde Meta: “Het is bekend dat alle leidende LLM’s problemen hebben gehad met vooringenomenheid – in het bijzonder hebben ze historisch gezien naar links geleund als het gaat om besproken politieke en sociale onderwerpen.”
De kwestie van directe politieke interventie werd sterk benadrukt in februari 2025, toen bleek dat Grok van xAI expliciet de opdracht had gekregen om kritiek op Elon Musk en Donald Trump te censureren. Een xAI-manager bevestigde later dat een medewerker de verandering had doorgevoerd en dat”zodra mensen op de problematische prompt wezen, we deze onmiddellijk hebben teruggedraaid.”
Door het publiceren van het raamwerk nodigt OpenAI uit tot meer onderzoek, maar streeft het er ook naar een standaard te stellen voor transparantie op een gebied dat cruciaal is voor het vertrouwen van het publiek. Naarmate AI-modellen meer geïntegreerd raken in het dagelijks leven, is het garanderen van hun objectiviteit niet langer een academische oefening, maar een fundamentele vereiste voor een verantwoorde inzet ervan.