OpenAI telah merilis laporan baru yang merinci kerangka kerja untuk mengukur dan mengurangi bias politik dalam Model Bahasa Besar (LLM), yang merupakan tantangan terus-menerus bagi industri AI. Perusahaan mengklaim model GPT-5 terbarunya menunjukkan penurunan keluaran yang bias sebesar 30% dibandingkan versi sebelumnya seperti GPT-4o.

Langkah ini menjawab kekhawatiran lama tentang objektivitas AI dan mengikuti inisiatif serupa yang dilakukan pesaing seperti Meta dan Anthropic. Posisi resmi perusahaan ini sangat tegas, dengan menyatakan, “ChatGPT tidak boleh memiliki bias politik dalam arah apa pun.”

Kerangka Kerja Baru OpenAI untuk Mengukur Objektivitas

Ini adalah inti dari pengumuman adalah kerangka evaluasi baru yang mendefinisikan lima “sumbu” bias tertentu. Sistem ini dirancang untuk menangkap berbagai cara bias dapat terwujud lebih dari sekedar kesalahan faktual sederhana, memberikan pandangan yang lebih holistik tentang perilaku model.

Lima sumbu tersebut adalah: pembatalan pengguna (menolak a pandangan pengguna), eskalasi pengguna (memperkuat nada tuduhan pengguna), ekspresi politik pribadi (model yang menyatakan opini sebagai miliknya), liputan asimetris (menyajikan berbagai sudut pandang secara tidak merata), dan penolakan politik.

Untuk menguji hal ini, penelitian OpenAI melibatkan kumpulan data yang terdiri dari 500 pertanyaan yang mencakup 100 topik politik dan budaya yang berbeda. Setiap topik didekati dari lima perspektif ideologi yang berbeda, mulai dari “bermuatan konservatif”hingga “bermuatan liberal”, untuk menguji netralitas model tersebut.

Tujuannya, menurut laporan tersebut, adalah untuk membangun kepercayaan melalui transparansi dan perbaikan yang terukur. Perusahaan menekankan bahwa”orang-orang menggunakan ChatGPT sebagai alat untuk mempelajari dan mengeksplorasi ide. Hal ini hanya akan berhasil jika mereka memercayai ChatGPT sebagai sesuatu yang objektif.”

Tantangan yang Terus Menerus: Kapan dan Bagaimana Bias Muncul

Temuan utama dari penelitian ini adalah bahwa meskipun model bekerja dengan baik pada permintaan netral, model tersebut masih dapat menunjukkan “bias moderat”saat merespons pertanyaan yang “bermuatan emosional”. Hal ini menunjukkan bahwa objektivitas suatu model dapat menurun jika ada tekanan.

Laporan ini juga mencatat adanya asimetri tertentu: dorongan yang bersifat kuat dan berhaluan kiri lebih cenderung menimbulkan respons yang bias dibandingkan dengan tanggapan konservatif. Hal ini menunjukkan bahwa sifat dan arah kemiringan masukan dapat memengaruhi keluaran model secara tidak proporsional.

Meskipun ada tantangan dalam kasus-kasus ekstrem, OpenAI memperkirakan bahwa kurang dari 0,01% respons ChatGPT di dunia nyata menunjukkan tanda-tanda bias politik. Hal ini menunjukkan bahwa meskipun terdapat potensi bias, hal ini jarang terjadi dalam penggunaan sehari-hari.

Pekerjaan mengenai bias ini juga melengkapi peluncuran GPT-5 pada bulan Agustus 2025, yang memperkenalkan fitur keselamatan baru yang disebut’Penyelesaian Aman’untuk menangani pertanyaan ambigu “penggunaan ganda” dengan lebih baik, yang menunjukkan pendekatan multi-segi untuk memodelkan keselamatan dan keandalan.

Perlombaan Industri yang Lebih Luas untuk Netralitas AI

Inisiatif OpenAI adalah bagian dari tren industri yang lebih luas yang berfokus pada mengatasi netralitas AI. Masalahnya bukanlah hal baru; sebuah studi tahun 2023 sebelumnya menyoroti bias politik dalam model seperti GPT-4. Demikian pula, perusahaan saingannya, Anthropic, menerbitkan penelitian pada akhir tahun 2023 tentang mitigasi bias demografis dalam modelnya.

Baru-baru ini, Meta mengumumkan pada bulan April 2025 bahwa mereka secara aktif menyesuaikan model Llama 4 untuk mengatasi apa yang digambarkan sebagai bias historis yang condong ke kiri. Dalam pengumumannya, Meta menyatakan, “Sudah diketahui umum bahwa semua LLM terkemuka memiliki masalah yang bias—khususnya, mereka secara historis condong ke kiri ketika membahas topik politik dan sosial.”

Masalah intervensi politik langsung disorot secara terang-terangan pada bulan Februari 2025, ketika Grok dari xAI diketahui secara eksplisit diinstruksikan untuk menyensor kritik terhadap Elon Musk dan Donald Trump. Seorang eksekutif xAI kemudian mengkonfirmasi bahwa seorang karyawanlah yang melakukan perubahan tersebut dan bahwa “begitu orang-orang menunjukkan perintah yang bermasalah, kami segera mengembalikannya.”

Dengan menerbitkan kerangka kerjanya, OpenAI mengundang lebih banyak pengawasan tetapi juga bertujuan untuk menetapkan standar transparansi di bidang yang penting bagi kepercayaan publik. Seiring dengan semakin terintegrasinya model AI ke dalam kehidupan sehari-hari, memastikan objektivitasnya bukan lagi sekedar tugas akademis, melainkan persyaratan mendasar untuk penerapannya yang bertanggung jawab.

Categories: IT Info