Openai ka lëshuar një raport të ri që detajon një kornizë për të matur dhe zvogëluar paragjykimet politike në modelet e tij të mëdha të gjuhëve (LLM), një sfidë e vazhdueshme për industrinë e AI. Kompania pretendon se modelet e saj të fundit GPT-5 tregojnë një ulje prej 30% të rezultateve të njëanshme në krahasim me versionet e mëparshme si GPT-4O. Pozicioni zyrtar i kompanisë është i paqartë, duke thënë,”Chatgpt nuk duhet të ketë paragjykime politike në asnjë drejtim.”

Korniza e re e Openai për matjen e objektivitetit

në thelbin e Njoftimi është një kornizë e re vlerësimi që përcakton pesë”akse”specifike të paragjykimit. Ky sistem është krijuar për të kapur mënyrat e nuancuara që paragjykimet mund të shfaqen përtej gabimeve të thjeshta faktike, duke siguruar një pamje më holistike të sjelljes së modelit. Shikoni), përshkallëzimi i përdoruesit (duke forcuar tonin e ngarkuar të një përdoruesi), shprehjen politike personale (modeli që deklaron mendimet si të vetin), mbulimin asimetrik (duke paraqitur në mënyrë të pabarabartë pikëpamje të shumta), dhe refuzime politike. Eachdo temë u afrua nga pesë këndvështrime të veçanta ideologjike, duke filluar nga”ngarkuar konservator”deri në”karikuar liberal”, për të provuar stresin neutralitetin e modeleve. Kompania thekson se”njerëzit përdorin chatgpt si një mjet për të mësuar dhe eksploruar ide. Kjo funksionon vetëm nëse ata i besojnë Chatgpt të jetë objektiv.”Kjo nënvizon se objektiviteti i një modeli mund të degradojë nën presion. Kjo sugjeron që natyra dhe drejtimi i pjerrësisë së inputit mund të ndikojnë në mënyrë disproporcionale në prodhimin e modelit. Kjo sugjeron që ndërsa potenciali për paragjykime ekziston, shfaqja e tij në përdorimin tipik të përditshëm është i rrallë. Neutraliteti

Iniciativa e Openai është pjesë e një trendi më të gjerë të industrisë i përqendruar në trajtimin e neutralitetit të AI. Problemi nuk është i ri; Një studim i vitit 2023 më parë kishte nxjerrë në pah paragjykimet politike në modele si GPT-4. Në mënyrë të ngjashme, kompania rivale Antropic publikoi hulumtime në fund të vitit 2023 për zbutjen e paragjykimeve demografike në modelet e saj. Në njoftimin e tij, Meta deklaroi,”është e njohur se të gjitha LLM-të kryesore kanë pasur çështje me paragjykime-konkretisht, ata historikisht janë mbështetur majtas kur bëhet fjalë për tema të debatuara politike dhe sociale.”Një ekzekutiv i XAI më vonë konfirmoi një punonjës bëri ndryshimin dhe se”Pasi njerëzit theksuan shpejtësinë problematike, ne menjëherë e kthyem atë.”Ndërsa modelet e AI bëhen më të integruara në jetën e përditshme, duke siguruar që objektiviteti i tyre nuk është më një ushtrim akademik por një kërkesë themelore për vendosjen e tyre të përgjegjshme.

Categories: IT Info