OpenAI κυκλοφόρησε μια νέα έκθεση που περιγράφει λεπτομερώς ένα πλαίσιο για τη μέτρηση και τη μείωση της πολιτικής προκατάληψης στα μεγάλα γλωσσικά μοντέλα της (LLMS), μια επίμονη πρόκληση για τη βιομηχανία AI. Η εταιρεία ισχυρίζεται ότι τα τελευταία μοντέλα GPT-5 δείχνουν μείωση κατά 30% των μεροληπτικών εξόδων σε σύγκριση με προηγούμενες εκδόσεις όπως η GPT-4O. Η επίσημη θέση της εταιρείας είναι αδιαμφισβήτητη, δηλώνοντας:”Το ChatGpt δεν πρέπει να έχει πολιτική προκατάληψη προς οποιαδήποτε κατεύθυνση.”Target=”_ Blank”> Ανακοίνωση είναι ένα νέο πλαίσιο αξιολόγησης που ορίζει πέντε συγκεκριμένους”άξονες”μεροληψίας. Αυτό το σύστημα έχει σχεδιαστεί για να συλλάβει τους λεπτούς τρόπους μεροληψίες μπορεί να εκδηλωθεί πέρα από απλά πραγματικά σφάλματα, παρέχοντας μια πιο ολιστική άποψη της συμπεριφοράς μοντέλου. Η άποψη ενός χρήστη), η κλιμάκωση των χρηστών (ενισχύοντας τον φορτισμένο τόνο του χρήστη), την προσωπική πολιτική έκφραση (το μοντέλο που δηλώνει τις απόψεις του ως δικές του), την ασύμμετρη κάλυψη (ανομοιόμορφη παρουσίαση πολλαπλών απόψεων) και τις πολιτικές αρνήσεις. Κάθε θέμα προσεγγίσθηκε από πέντε ξεχωριστές ιδεολογικές προοπτικές, που κυμαίνονται από”συντηρητικές”έως”φιλελεύθερες”, για να δοκιμάσουν την ουδετερότητα των μοντέλων. Η εταιρεία υπογραμμίζει ότι”οι άνθρωποι χρησιμοποιούν το ChatGpt ως εργαλείο για να μάθουν και να διερευνήσουν ιδέες. Αυτό λειτουργεί μόνο αν εμπιστεύονται το chatgpt να είναι αντικειμενικό.”Αυτό υπογραμμίζει ότι η αντικειμενικότητα ενός μοντέλου μπορεί να υποβαθμιστεί υπό πίεση. Αυτό υποδηλώνει ότι η φύση και η κατεύθυνση της κλίσης της εισόδου μπορεί να επηρεάσουν δυσανάλογα την παραγωγή του μοντέλου. Παρά τις προκλήσεις αυτές στις περιπτώσεις, ο OpenAI εκτιμά ότι λιγότερο από το 0,01% των απαντήσεων του CHATGPT σε πραγματικό κόσμο δείχνουν τυχόν σημάδια πολιτικής προκατάληψης. Αυτό υποδηλώνει ότι ενώ υπάρχει η δυνατότητα προκατάληψης, η εμφάνισή του στην τυπική καθημερινή χρήση είναι σπάνια. AI Neutrality
Η πρωτοβουλία της OpenAI αποτελεί μέρος μιας ευρύτερης τάξης της βιομηχανίας που επικεντρώνεται στην αντιμετώπιση της ουδετερότητας του AI. Το πρόβλημα δεν είναι νέο. Μια μελέτη 2023 είχε προηγουμένως επισημάνει πολιτικές προκαταλήψεις σε μοντέλα όπως το GPT-4. Ομοίως, η αντίπαλη εταιρεία Anthropic δημοσίευσε έρευνα στα τέλη του 2023 σχετικά με την άμβλυνση των δημογραφικών προκαταλήψεων στα μοντέλα της. Στην ανακοίνωσή της, η Meta δήλωσε:”Είναι γνωστό ότι όλα τα κορυφαία LLMs είχαν προβλήματα με προκατάληψη-ειδικά, όταν η Xai’s Grok βρέθηκε να έχει εκδοθεί να συζητηθεί για να αποκηρύξει τον Elon και τον Donald Trump. Ένα εκτελεστικό της XAI επιβεβαίωσε αργότερα ότι ένας υπάλληλος έκανε την αλλαγή και ότι «όταν οι άνθρωποι επεσήμαναν την προβληματική προτροπή, την επανέφεραν αμέσως». Καθώς τα μοντέλα AI γίνονται πιο ενσωματωμένα στην καθημερινή ζωή, η εξασφάλιση της αντικειμενικότητάς τους δεν αποτελεί πλέον ακαδημαϊκή άσκηση, αλλά μια θεμελιώδη απαίτηση για την υπεύθυνη ανάπτυξη τους.