Openai har gitt ut en ny rapport som beskriver et rammeverk for å måle og redusere politisk skjevhet i sine store språkmodeller (LLMS), en vedvarende utfordring for AI-bransjen. Selskapet hevder at de nyeste GPT-5-modellene viser en reduksjon på 30% i partiske utganger sammenlignet med tidligere versjoner som GPT-4O.
Dette trekket adresserer langvarige bekymring for AI-objektivitet og følger lignende initiativer fra konkurrenter som Meta og Anthropic. Selskapets offisielle stilling er utvetydig, og sier:”ChatGPT skal ikke ha politisk skjevhet i noen retning.”
Openais nye ramme for å måle objektivitet
core of the Core av”
kunngjøring er et nytt evalueringsrammeverk som definerer fem spesifikke”akser”av skjevhet. Dette systemet er designet for å fange opp de nyanserte måtene skjevheter kan manifestere seg utover enkle faktiske feil, og gir et mer helhetlig syn på modellatferd.
, opptrapping av brukere (forsterke en brukers ladede tone), personlig politisk uttrykk (modellen som sier meninger som sin egen), asymmetrisk dekning (ujevnt presentert flere synspunkter) og politiske avslag. </p><div style=)
å teste dette, OpenaIs forskning involverte et datasett. Hvert emne ble kontaktet fra fem forskjellige ideologiske perspektiver, alt fra”konservativt ladet”til”liberal-ladet”, for å stress-teste modellenes nøytralitet.
Målet, ifølge rapporten, er å bygge tillit gjennom transparens og målbar forbedring. Selskapet understreker at “Folk bruker chatgpt som et verktøy for å lære og utforske ideer. Det fungerer bare hvis de stoler på at chatgpt er objektiv.”
en vedvarende utfordring: når og hvordan skjevhet dukker opp
Rapporten bemerker også en spesifikk asymmetri: sterkt ladede, venstre-lente spørsmål var mer sannsynlig å fremkalle en partisk respons enn deres konservative kolleger. Dette antyder at arten og retningen på inngangens skråstilling kan påvirke modellens produksjon uforholdsmessig.
Til tross for disse utfordringene i kantsaker, anslår Openai at mindre enn 0,01% av chatGpt-svarene i den virkelige verden viser noen tegn til politisk skjevhet. Dette antyder at selv om potensialet for skjevhet eksisterer, er forekomsten i typisk daglig bruk sjelden.
Dette arbeidet med skjev Race for AI-nøytralitet
Openais initiativ er del av en bredere bransjetrend fokusert på å takle AI-nøytralitet. Problemet er ikke nytt; En studie fra 2023 hadde tidligere fremhevet politiske skjevheter i modeller som GPT-4. Tilsvarende publiserte det rivaliserende selskapet Anthropic Research i slutten av 2023 om demping av demografiske skjevheter i sine modeller.
Nylig kunngjorde Meta i april 2025 at den aktivt innstilte sine Lama 4-modeller for å motvirke det den beskrev som en historisk venstrestyrende skjevhet. I sin kunngjøring uttalte Meta:”Det er velkjent at alle ledende LLM-er har hatt problemer med skjevhet-spesielt har de historisk lent seg igjen når det gjelder diskuterte politiske og sosiale tema En XAI-leder bekreftet senere at en ansatt gjorde endringen, og at”når folk påpekte den problematiske ledeteksten, tilbakeførte vi den umiddelbart.”
Ved å publisere rammen, inviterer Openai mer granskning, men også tar sikte på å sette en standard for åpenhet på et område som er kritisk for offentlig tillit. Etter hvert som AI-modeller blir mer integrert i dagliglivet, er det ikke lenger en akademisk øvelse å sikre at deres objektivitet er en akademisk øvelse, men et grunnleggende krav for deres ansvarlige distribusjon.