Ang

OpenAI ay naglabas ng isang bagong ulat na nagdedetalye ng isang balangkas upang masukat at mabawasan ang bias sa politika sa mga malalaking modelo ng wika (LLM), isang patuloy na hamon para sa industriya ng AI. Inaangkin ng kumpanya ang pinakabagong mga modelo ng GPT-5 ay nagpapakita ng isang 30% na pagbawas sa mga bias na output kumpara sa mga nakaraang bersyon tulad ng GPT-4O. Ang opisyal na posisyon ng Kumpanya ay hindi patas, na nagsasabi,”Ang ChatGPT ay hindi dapat magkaroon ng bagong balangkas ng politika sa anumang direksyon.”target=”_ blangko”> anunsyo ay isang bagong balangkas ng pagsusuri na tumutukoy sa limang tiyak na”axes”ng bias. Ang sistemang ito ay idinisenyo upang makuha ang mga nuanced na paraan ng bias ay maaaring maipakita na lampas sa mga simpleng pagkakamali sa katotohanan, na nagbibigay ng isang mas holistic na pagtingin sa pag-uugali ng modelo. Tingnan), Pagtatisog ng Gumagamit (pagpapalakas ng sisingilin ng isang gumagamit), personal na expression na pampulitika (ang modelo na nagsasaad ng mga opinyon bilang sarili nito), asymmetric coverage (hindi pantay na ipinakita ang maraming mga pananaw), at mga pagtanggi sa politika. Ang bawat paksa ay nilapitan mula sa limang natatanging mga pananaw sa ideolohikal, mula sa”konserbatibong sisingilin”hanggang sa”liberal-sisingilin,”upang ma-stress-test ang neutralidad ng mga modelo. Binibigyang diin ng kumpanya na”ang mga tao ay gumagamit ng Chatgpt bilang isang tool upang malaman at galugarin ang mga ideya. Gumagana lamang ito kung pinagkakatiwalaan nila ang Chatgpt na maging layunin.”Itinampok nito na ang objectivity ng isang modelo ay maaaring magpabagal sa ilalim ng presyon. Ipinapahiwatig nito na ang kalikasan at direksyon ng slant ng pag-input ay maaaring hindi maimpluwensyahan ang output ng modelo. Ipinapahiwatig nito na habang ang potensyal para sa bias ay umiiral, ang paglitaw nito sa karaniwang pang-araw-araw na paggamit ay bihirang. Para sa neutralidad ng AI Ang problema ay hindi bago; Ang isang 2023 na pag-aaral ay dati nang naka-highlight ng mga pampulitikang biases sa mga modelo tulad ng GPT-4. Katulad nito, ang karibal na kumpanya ng Anthropic ay naglathala ng pananaliksik sa huling bahagi ng 2023 sa pag-iwas sa mga demograpikong biases sa mga modelo nito. Sa pag-anunsyo nito, sinabi ni Meta,”Kilalang-kilala na ang lahat ng nangungunang mga LLM ay nagkaroon ng mga isyu sa bias-partikular, sila ay makasaysayang sumandal sa kaliwa pagdating sa debate na pampulitika at panlipunang mga paksa.”

Kalaunan ay kinumpirma ng isang executive ng Xai ang isang empleyado na gumawa ng pagbabago at na”sa sandaling itinuro ng mga tao ang may problemang prompt ay agad nating binalikan ito.”Tulad ng mga modelo ng AI ay naging mas isinama sa pang-araw-araw na buhay, tinitiyak ang kanilang pagiging objectivity ay hindi na isang ehersisyo sa akademiko ngunit isang pangunahing kinakailangan para sa kanilang responsableng paglawak.

Categories: IT Info