OpenAI opublikowało nowy raport szczegółowo opisujący ramy pomiaru i ograniczania uprzedzeń politycznych w modelach wielkojęzycznych (LLM), co stanowi ciągłe wyzwanie dla branży sztucznej inteligencji. Firma twierdzi, że jej najnowsze modele GPT-5 wykazują 30% redukcję stronniczych wyników w porównaniu z poprzednimi wersjami, takimi jak GPT-4o.
To posunięcie stanowi odpowiedź na długotrwałe obawy dotyczące obiektywności sztucznej inteligencji i jest następstwem podobnych inicjatyw konkurentów, takich jak Meta i Anthropic. Oficjalne stanowisko firmy jest jednoznaczne: „ChatGPT nie powinien mieć żadnych politycznych uprzedzeń.”
Nowe ramy pomiaru obiektywności OpenAI
U podstaw ogłoszenie to nowe ramy oceny, które definiują pięć konkretnych „osi” uprzedzeń. System ten zaprojektowano tak, aby wychwytywał różnorodne sposoby, w jakie stronniczość może objawiać się poza prostymi błędami rzeczowymi, zapewniając bardziej całościowy obraz zachowania modelu.
Pięć osi to: unieważnienie użytkownika (odrzucenie poglądu), eskalacja ze strony użytkownika (wzmocnienie napiętego tonu użytkownika), osobista ekspresja polityczna (model uznający opinie za własne), asymetryczny zasięg (nierównomierne prezentowanie wielu punktów widzenia) i odmowy polityczne.
Aby to sprawdzić, w badaniu OpenAI wykorzystano zbiór danych składający się z 500 podpowiedzi obejmujących 100 różnych tematów politycznych i kulturowych. Do każdego tematu podchodzono z pięciu różnych perspektyw ideologicznych, od „naładowanego konserwatystą” po „naładowany liberałem”, aby przetestować neutralność modeli.
Celem, według raportu, jest budowanie zaufania poprzez przejrzystość i wymierną poprawę. Firma podkreśla, że „ludzie używają ChatGPT jako narzędzia do uczenia się i odkrywania pomysłów. To działa tylko wtedy, gdy ufają, że ChatGPT jest obiektywny.”
Stałe wyzwanie: kiedy i jak pojawia się stronniczość
Kluczowym wnioskiem z badania jest to, że chociaż modele dobrze radzą sobie z neutralnymi podpowiedziami, nadal mogą wykazywać „umiarkowane nastawienie”, odpowiadając na pytania „naładowane emocjonalnie”. Podkreśla to, że obiektywizm modelu może ulec pogorszeniu pod presją.
W raporcie zauważono również szczególną asymetrię: silnie nacechowane lewicowe podpowiedzi częściej wywoływały stronniczą reakcję niż ich konserwatywne odpowiedniki. Sugeruje to, że charakter i kierunek nachylenia danych wejściowych może nieproporcjonalnie wpływać na wyniki modelu.
Pomimo tych wyzwań w przypadkach brzegowych OpenAI szacuje, że mniej niż 0,01% rzeczywistych odpowiedzi ChatGPT wykazuje jakiekolwiek oznaki uprzedzeń politycznych. Sugeruje to, że chociaż istnieje potencjał błędu systematycznego, jego występowanie w typowym codziennym użytkowaniu jest rzadkie.
Prace nad błędem systematycznem uzupełniają także wprowadzenie na rynek GPT-5 w sierpniu 2025 r., w ramach którego wprowadzono nową funkcję bezpieczeństwa o nazwie „Bezpieczne uzupełnianie”, aby lepiej radzić sobie z niejednoznacznymi zapytaniami „podwójnego zastosowania”, wskazując na wieloaspektowe podejście do bezpieczeństwa i niezawodności modeli.
Wyścig szerszej branży o Neutralność AI
Inicjatywa OpenAI wpisuje się w szerszy trend branżowy skupiający się na walce z neutralnością AI. Problem nie jest nowy; badanie przeprowadzone w 2023 r. wcześniej podkreśliło uprzedzenia polityczne w modelach takich jak GPT-4. Podobnie konkurencyjna firma Anthropic opublikowała pod koniec 2023 r. badania dotyczące łagodzenia błędów demograficznych w swoich modelach.
Niedawno w kwietniu 2025 r. Meta ogłosiła, że aktywnie dostraja swoje modele Llama 4, aby przeciwdziałać temu, co określiła jako historyczne lewicowe uprzedzenia. W swoim ogłoszeniu Meta stwierdziła: „Powszechnie wiadomo, że wszystkie czołowe LLM mają problemy z uprzedzeniami – w szczególności w przeszłości skłaniały się w lewo, jeśli chodzi o dyskutowane tematy polityczne i społeczne”.
Kwestia bezpośredniej interwencji politycznej została ostro podkreślona w lutym 2025 r., kiedy odkryto, że Grok z xAI otrzymał wyraźne polecenie cenzurowania krytyki Elona Muska i Donalda Trumpa. Dyrektor xAI potwierdził później, że zmiany dokonał pracownik i że „kiedy ludzie zwrócili uwagę na problematyczną wskazówkę, natychmiast ją cofnęliśmy.”
Publikując swoje ramy, OpenAI zachęca do większej kontroli, ale ma także na celu ustanowienie standardów przejrzystości w obszarze krytycznym dla zaufania publicznego. W miarę jak modele sztucznej inteligencji stają się coraz bardziej zintegrowane z życiem codziennym, zapewnienie ich obiektywności nie jest już zadaniem akademickim, ale podstawowym wymogiem ich odpowiedzialnego wdrażania.