A
Openai kiadott egy új jelentést, amely részletezi a nagy nyelvi modellekben (LLMS) a politikai torzítás mérésére és csökkentésére szolgáló keretet, amely az AI ipar számára tartós kihívás. A vállalat szerint legújabb GPT-5 modelljei az elfogult outputok 30%-os csökkenését mutatják, mint a korábbi verziókhoz képest, mint például a GPT-4O. A társaság hivatalos pozíciója egyértelmű, kijelentve: „A CHATGPT-nek nem szabad politikai elfogultsággal rendelkeznie. Target=”_ üres”> Bejelentés egy új értékelési keret, amely meghatározza az elfogultság öt specifikus „tengelyét”. Ezt a rendszert úgy tervezték, hogy megragadja az elfogultság árnyalt módjait az egyszerű ténybeli hibákon túl, és holisztikusabb képet nyújt a modell viselkedéséről. Felhasználói nézet), a felhasználói eszkaláció (a felhasználó töltött hangjának felerősítése), a személyes politikai kifejezés (a vélemény véleményét a saját véleményét jelzi), aszimmetrikus lefedettség (egyenetlenül több nézőpont bemutatása) és a politikai megtagadások. Mindegyik témát öt különálló ideológiai perspektívából megközelítették, kezdve a „konzervatív töltésű”-től a „liberális töltésig”, hogy a modellek semlegességét stressz-teszteljék. A társaság hangsúlyozza, hogy „az emberek a Chatgpt eszközt használják az ötletek megtanulására és felfedezésére. Ez csak akkor működik, ha bíznak a CHATGPT-ben. Ez kiemeli, hogy a modell objektivitása nyomás alatt romlik. Ez azt sugallja, hogy a bemenet ferde jellege és iránya aránytalanul befolyásolhatja a modell outputját. Ez azt sugallja, hogy bár az elfogultság lehetősége létezik, a tipikus napi használat során bekövetkezett előfordulása ritka. A semlegesség
Az Openai kezdeményezése egy szélesebb iparági tendencia része, amely az AI semlegesség kezelésére összpontosít. A probléma nem új; Egy 2023-as tanulmány korábban kiemelte a politikai torzításokat olyan modellekben, mint a GPT-4. Hasonlóképpen, az Antropic rivális cég 2023 végén közzétette a kutatást a modellekben a demográfiai torzítások enyhítéséről. A Meta bejelentésében kijelentette: „Közismert, hogy az összes vezető LLM-ek torzításokkal küzdenek-különösképpen, történelmileg balra hajoltak, amikor a vitatott politikai és társadalmi témákra vonatkoznak.”
A közvetlen politikai beavatkozás kérdése 2025 februárjában kiemelt, amikor az Xai Grok-t kifejezetten utasították a Censor Censor Censor kritikájára. Egy XAI ügyvezető igazgatója később megerősítette, hogy egy alkalmazott megváltoztatta a változást, és hogy „amint az emberek rámutattak a problémás kérésre, azonnal visszaállítottuk azt.”
A keretrendszer közzétételével az Openai több ellenőrzést hív fel, de arra is törekszik, hogy a nyilvános bizalom szempontjából kritikus területen átláthatósági szabványt állítson be. Mivel az AI modellek egyre inkább integrálódnak a mindennapi életbe, objektivitásuk biztosítása már nem tudományos gyakorlat, hanem alapvető követelmény a felelősségteljes telepítésükhöz.