OpenAI a lansat un nou raport care detaliază un cadru pentru măsurarea și reducerea prejudecății politice în modelele sale de limbaj mare (LLMS), o provocare persistentă pentru industria AI. Compania susține că ultimele sale modele GPT-5 arată o reducere de 30% a producțiilor părtinitoare în comparație cu versiunile anterioare precum GPT-4O.

Această mișcare abordează îngrijorări de lungă durată cu privire la obiectivitatea AI și urmează inițiative similare ale concurenților precum meta și antropice. Poziția oficială a companiei este fără echivoc, afirmând că „ChatGPT nu ar trebui să aibă prejudecăți politice în nicio direcție. Target=”_ Blank”> Anunțul este un nou cadru de evaluare care definește cinci „axe” specifice de prejudecăți. Acest sistem este conceput pentru a surprinde modalitățile nuanțate Bias se poate manifesta dincolo de erori simple de fapt, oferind o viziune mai holistică a comportamentului modelului.

axele sunt: ​​utilizatorul de utilizator (depozitarea unui utilizator o utilizare: Vizualizare), escaladarea utilizatorului (amplificarea tonului încărcat al unui utilizator), expresia politică personală (modelul care afirmă opiniile ca fiind propriu), acoperirea asimetrică (prezentarea în mod inegal mai multor puncte de vedere) și refuzurile politice.

pentru a testa acest lucru, cercetarea lui Openai a implicat un set de date de 500 de solicitări care acoperă 100 de subiecte politice și culturale diferite. Fiecare subiect a fost abordat din cinci perspective ideologice distincte, variind de la „încărcat conservator” până la „încărcat liberal”, până la testarea stresului neutralității modelelor.

Scopul, potrivit raportului, este de a construi încredere prin transparență și îmbunătățiri măsurabile. Compania subliniază că „oamenii folosesc Chatgpt ca instrument pentru a învăța și explora idei. Asta funcționează numai dacă au încredere în Chatgpt pentru a fi obiectiv. Acest lucru evidențiază faptul că obiectivitatea unui model se poate degrada sub presiune.

Raportul notează, de asemenea, o asimetrie specifică: prompturile puternic încărcate, de stânga au fost mai susceptibile să obțină un răspuns părtinitor decât omologii lor conservatori. Acest lucru sugerează că natura și direcția înclinației contribuției pot influența în mod disproporționat producția modelului.

În ciuda acestor provocări în cazuri de margine, Openai estimează că mai puțin de 0,01% din răspunsurile chatgpt din lumea reală arată orice semne de prejudecată politică. Acest lucru sugerează că, în timp ce potențialul de prejudecată există, apariția sa în utilizarea tipică de zi cu zi este rară.

Această lucrare pe prejudecăți completează, de asemenea, lansarea GPT-5 din august 2025, care a introdus o nouă caracteristică de siguranță numită „finalizări sigure” pentru a gestiona mai bine ambiguous „Dual-utilizare”, indicând o abordare multiplă a modelelor de siguranță și filetă. Race for AI Neutralitate

Inițiativa lui OpenAI face parte dintr-o tendință mai largă a industriei axată pe abordarea neutralității AI. Problema nu este nouă; Un studiu din 2023 a evidențiat anterior prejudecățile politice la modele precum GPT-4. În mod similar, compania rivală Antropic a publicat cercetări la sfârșitul anului 2023 cu privire la atenuarea prejudecăților demografice în modelele sale.

Mai recent, a anunțat Meta în aprilie 2025 că își regla activ modelele Llama 4 pentru a contracara ceea ce a descris ca o prejudecată istorică de stânga. În anunțul său, Meta a declarat: „Este binecunoscut faptul că toate LLM-urile de frunte au avut probleme cu prejudecățile-în mod specific, istoric s-au aplecat la stânga când vine vorba de subiecte politice și sociale dezbătute. Ulterior, un executiv Xai a confirmat că un angajat a făcut schimbarea și că „odată ce oamenii au subliniat promptul problematic, am revenit imediat. Pe măsură ce modelele AI devin mai integrate în viața de zi cu zi, asigurarea obiectivității lor nu mai este un exercițiu academic, ci o cerință fundamentală pentru implementarea lor responsabilă.

Categories: IT Info