Sebuah studi internasional penting yang dirilis pada hari Selasa mengungkapkan bahwa asisten AI terkemuka bukanlah sumber berita yang dapat diandalkan, dengan kesalahan signifikan ditemukan dalam 45% respons mereka terhadap peristiwa terkini.

Penelitian tersebut, yang dikoordinasikan oleh European Broadcasting Union (EBU) dan BBC, mengidentifikasi kelemahan sistemik di semua platform utama.

Sumber yang buruk adalah masalah terbesar, dengan model Gemini Google yang memiliki kinerja terburuk dengan menunjukkan masalah yang signifikan dalam 76% balasannya.

Laporan tersebut memperingatkan bahwa kegagalan ini membahayakan kepercayaan publik, karena organisasi berita sering kali salah dikaitkan dengan informasi yang diubah atau dibuat-buat oleh AI, sehingga menimbulkan dampak langsung risiko reputasi.

Masalah Sistemik dan Multibahasa

Dalam 14 bahasa dan 18 negara, temuan ini memberikan gambaran suram tentang kondisi AI saat ini generasi berita. Melibatkan 22 organisasi media layanan publik, termasuk NPR di AS dan CBC di Kanada, penelitian ini merupakan penelitian terbesar.

Wartawan mengevaluasi lebih dari 3.000 tanggapan dari ChatGPT, Copilot, Gemini, dan Perplexity, dan menyimpulkan bahwa permasalahan tersebut sudah mendarah daging.

Hampir setengah dari seluruh jawaban yang dihasilkan AI—atau 45%—mengandung setidaknya satu permasalahan yang signifikan. Masalah-masalah ini berkisar dari ketidakakuratan faktual hingga penyajian informasi yang menyesatkan.

Direktur Media EBU, Jean Philip De Tender, menekankan pentingnya temuan-temuan tersebut.

“Penelitian ini secara meyakinkan menunjukkan bahwa kegagalan-kegagalan ini bukanlah insiden yang terisolasi. Kegagalan ini terjadi secara sistemik, lintas batas, dan multibahasa, dan kami yakin hal ini membahayakan kepercayaan masyarakat.”

Ketidakandalan yang tersebar luas ini menegaskan bahwa masalahnya bukanlah kesalahan yang terisolasi, melainkan kelemahan yang fundamental dan sistemik.

Kegagalan Pengadaan Sumber Daya dan’Kutipan Seremonial’yang Muncul sebagai Masalah Inti

Menelusuri data akan mengungkap bahwa sumber daya adalah penyebab utama. Sebanyak 31% dari seluruh tanggapan memiliki masalah yang signifikan dalam cara mereka mengatribusikan informasi, termasuk memberikan kutipan yang hilang, salah, atau sepenuhnya dibuat-buat.

Gemini dari Google memiliki kinerja yang sangat buruk, dengan masalah signifikan yang mengganggu 76% tanggapannya.

Sumber sumbernya sangat buruk, dengan tingkat kesalahan yang signifikan sebesar 72%—lebih dari dua kali lipat dari para pesaingnya.

Analis dari Yle dari Finlandia mencatat taktik umum di seluruh platform: “Banyak tanggapan mengandung apa yang disebut’kutipan seremonial’– referensi yang ditambahkan untuk menciptakan kesan penelitian menyeluruh, namun tidak benar-benar mendukung klaim yang dinyatakan ketika diperiksa.”

Atribusi palsu ini membuat pengguna hampir tidak mungkin memverifikasi informasi.

Akurasi faktual adalah masalah utama lainnya, dengan 20% dari semua jawaban mengandung kesalahan signifikan seperti fakta yang sudah ketinggalan zaman atau detail yang “berhalusinasi”.

Temuan ini konsisten dengan tren industri yang lebih luas mengenai ketidakandalan AI, yang terlihat dalam kegagalan besar baru-baru ini seperti laporan Deloitte untuk pemerintah Australia yang berisi kutipan hukum buatan AI dan integrasi AI Google Gmail yang memanipulasi konten email.

Roulette Reputasi: Bagaimana Kesalahan AI Merusak Merek Berita Kepercayaan

Bagi merek berita tepercaya, taruhannya sangat tinggi. studi terpisah dari BBC/Ipsos yang diterbitkan bersamaan dengan laporan utama mengungkapkan kesenjangan persepsi yang mengkhawatirkan: hampir separuh orang berusia di bawah 35 tahun sudah memercayai asisten AI untuk melakukan produksi ringkasan berita yang akurat.

Jika ringkasan ini memiliki kelemahan, khalayak akan menyalahkan penyedia AI dan organisasi berita yang dikutip sebagai sumbernya.

Penyalahgunaan yang salah ini menciptakan ancaman reputasi langsung terhadap integritas jurnalistik. Kata pengantar laporan ini memberikan penilaian yang blak-blakan: “Asisten AI masih bukan cara yang dapat diandalkan untuk mengakses dan mengonsumsi berita.”

Masalah ini diperburuk oleh sikap asisten yang percaya diri dan berwibawa, yang dapat dengan mudah menyesatkan pengguna. Perilaku seperti ini mencerminkan kekhawatiran dari evaluasi keselamatan lintas laboratorium sebelumnya yang menemukan bahwa model AI sering kali menunjukkan “penjilatan yang ekstrim”atau rasa otoritas yang tidak pantas.

Sebagai tanggapan terhadap masalah sistemik ini, EBU dan BBC menyerukan dialog formal dengan perusahaan teknologi untuk menetapkan standar yang lebih baik dalam hal keselamatan, akurasi, dan transparansi.

Mereka juga telah merilis “Integritas Berita dalam Perangkat Asisten AI” untuk memberikan panduan yang dapat ditindaklanjuti kepada pengembang.

Peter Archer, Direktur Program BBC untuk AI Generatif, menekankan pendekatan kolaboratif, dengan menyatakan,”Meskipun ada perbaikan, jelas bahwa masih ada masalah yang signifikan dengan asisten ini. Kami ingin alat ini berhasil dan terbuka untuk bekerja sama dengan perusahaan AI untuk memberikan layanan kepada audiens.”

Seiring dengan semakin banyaknya asisten AI yang menjadi pintu gerbang menuju informasi, memastikan keandalannya bukan lagi sekadar tantangan teknis—hal ini merupakan komponen penting dalam menjaga ekosistem informasi yang sehat.

Categories: IT Info