Sebuah surat kabar Pakistan menyoroti meningkatnya masalah keluaran AI yang belum diperiksa setelah surat kabar tersebut secara keliru mencetak teks cerewet dari chatbot. Dalam edisi tanggal 12 November, Dawn menyertakan pesan yang dibuat oleh AI untuk membuat artikel yang dibuat dengan jelas menjadi “lebih tajam”, yang memaksa permintaan maaf publik karena melanggar aturannya sendiri.

Kesalahan seperti itu bukanlah kasus yang terisolasi tetapi merupakan bagian dari tren kegagalan AI yang lebih luas. Mulai dari sumber hukum palsu yang digunakan di pengadilan hingga laporan pemerintah yang cacat, terburu-buru mengadopsi AI generatif tanpa tinjauan manusia yang cermat telah mengikis kepercayaan publik. Ini adalah tren yang menimbulkan masalah serius di dunia nyata bagi institusi-institusi besar.

“Apakah Anda Ingin Saya Melakukannya Selanjutnya?”: Kekeliruan AI Publik di Surat Kabar

Surat kabar berbahasa Inggris yang sangat dihormati di Pakistan, Dawn, menerbitkan artikel tentang penjualan mobil yang diakhiri dengan catatan tambahan aneh yang dibuat oleh mesin. Alih-alih paragraf penutup, artikel tersebut menampilkan potongan chatbot klasik.

AI bertanya kepada penggunanya, “Jika Anda mau, saya juga dapat membuat versi “gaya halaman depan” yang lebih tajam dengan statistik satu baris yang menarik dan tata letak siap infografis yang berani—sempurna untuk pembaca maksimal Apakah Anda ingin saya melakukan hal tersebut selanjutnya?”

Saya tahu para jurnalis menggunakan AI dalam pekerjaan mereka, namun ini terlalu berlebihan!

Meja halaman bisnis fajar setidaknya harus mengedit paragraf terakhir!

😆😆😆 pic.twitter.com/JWNdHNWvnv

— omar r quraishi (@omar_quraishi) 12 November 2025

Dilihat dengan cepat oleh pembaca, kesalahan tersebut menyebar dengan cepat secara online, memaksa surat kabar tersebut mengeluarkan koreksi dan permintaan maaf resmi. Dalam catatan yang dilampirkan pada versi online artikel tersebut, editor mengaku, “Laporan surat kabar ini awalnya diedit menggunakan AI, yang merupakan pelanggaran terhadap kebijakan AI Dawn saat ini. … Pelanggaran kebijakan AI sangat disesalkan.”

Investigasi atas insiden tersebut dilaporkan sedang dilakukan. Pedoman resmi dari surat kabar secara eksplisit melarang penggunaan AI untuk menghasilkan atau mengedit berita tanpa pengawasan manusia yang ketat.

Meskipun kesalahan Dawn menimbulkan momen yang mempermalukan publik, hal ini berfungsi sebagai simbol kuat untuk masalah yang jauh lebih dalam dan lebih penting. Di seluruh industri, penerapan AI generatif yang terlalu dini tanpa pengawasan yang memadai akan menyebabkan serangkaian kegagalan besar, yang melemahkan standar profesional dan kepercayaan publik.

Masalah Sistemik: Saat AI Berhalusinasi di Bidang yang Berisiko Tinggi

Di berbagai bidang profesional mulai dari hukum hingga kesehatan masyarakat, organisasi menyadari betapa sulitnya model bahasa yang besar tidak dapat dipercaya untuk melakukan tugas-tugas penting. Dikenal sebagai halusinasi, fenomena dimana AI dengan percaya diri menemukan fakta, sumber, atau data terbukti merupakan kelemahan yang terus-menerus dan berbahaya.

Contoh terbaru dan mahal datang dari dunia konsultasi. Perusahaan global Deloitte terpaksa mengembalikan dana sebesar $97.000 kepada pemerintah Australia setelah laporan senilai $440.000 yang dihasilkannya ternyata berisi kutipan buatan AI.

Laporannya, yang merupakan tinjauan sensitif terhadap sistem kesejahteraan negara tersebut, mengutip buku-buku yang tidak ada dan salah mengutip kasus-kasus hukum. Senator Partai Buruh Australia Deborah O’Neill memberikan teguran keras, dengan menyatakan,”Deloitte mempunyai masalah kecerdasan manusia. Ini akan menggelikan jika tidak terlalu disesalkan.”

Masalah akut juga muncul di sektor publik. Pada bulan Juli, muncul laporan bahwa AI “Elsa”baru dari Badan Pengawas Obat dan Makanan A.S., yang dimaksudkan untuk mempercepat persetujuan obat, malah mengarang penelitian medis yang tidak ada.

Seorang karyawan FDA yang frustrasi menggambarkan alat tersebut kepada CNN sebagai alat yang tidak dapat diandalkan, menyatakan bahwa alat tersebut “berhalusinasi dengan percaya diri,”sementara yang lain mengeluh, “Saya membuang banyak waktu ekstra hanya karena peningkatan kewaspadaan yang harus saya miliki.”

Demikian pula, pengacara untuk perusahaan AI Anthropic harus secara resmi meminta maaf kepada hakim setelah Claude AI mereka sendiri menemukan kutipan resmi yang digunakan dalam pengajuan pengadilan.

Jurnalisme, khususnya, telah berulang kali melakukan pengawasan ini. Dalam kasus serupa yang terjadi pada bulan Oktober, majalah Jerman Der Spiegel harus mengoreksi artikel yang menyertakan kalimat menyimpang yang dihasilkan AI yang menawarkan untuk mengubah nada teks.

Kesalahan ini tidak hanya terjadi pada tingkat rendah kumpulan konten tetapi muncul di outlet media yang dihormati dan mapan, menyoroti gangguan sistemik dalam alur kerja editorial.

Ini bukan insiden yang terisolasi. Sebuah studi internasional penting yang dikoordinasikan oleh BBC dan European Broadcasting Union (EBU) mengungkapkan sifat sistemik dari ketidakandalan ini.

Setelah mengevaluasi lebih dari 3.000 tanggapan, temuannya menunjukkan bahwa asisten AI menghasilkan kesalahan yang signifikan dalam 45% jawaban terkait berita. Seperti yang dijelaskan oleh Direktur Media EBU, Jean Philip De Tender, “Penelitian ini secara meyakinkan menunjukkan bahwa kegagalan ini bukanlah sebuah insiden tunggal. Kegagalan ini terjadi secara sistemik, lintas negara, dan multibahasa, dan kami yakin hal ini akan membahayakan kepercayaan publik.”

Mengikis Kepercayaan: Dampak Nyata dari Kecerobohan AI yang Tidak Terkendali

Sejumlah besar misinformasi yang disebabkan oleh AI menimbulkan kerusakan nyata pada ekosistem informasi digital. Untuk platform dasar seperti Wikipedia, konsekuensinya menjadi nyata.

Wikimedia Foundation baru-baru ini melaporkan penurunan lalu lintas manusia sebesar 8%, dan secara langsung menyalahkan alat pencarian AI dan chatbot karena menyedot pengunjung dengan merangkum kontennya tanpa atribusi.

Tren seperti ini mengancam model ensiklopedia yang berbasis sukarelawan. Seperti yang diperingatkan oleh Direktur Senior Produk Wikimedia, Marshall Miller, “Dengan lebih sedikit kunjungan ke Wikipedia, lebih sedikit sukarelawan yang dapat mengembangkan dan memperkaya konten, dan lebih sedikit donatur individu yang dapat mendukung pekerjaan ini.”

Secara internal, platform ini telah berjuang melawan kiriman yang dihasilkan oleh AI, yang oleh seorang sukarelawan digambarkan sebagai “ancaman eksistensial”, sehingga mendorong komunitas untuk mengadopsi kebijakan ‘penghapusan cepat’ untuk menghilangkan kesalahan terburuk.

Kegagalan yang berulang-ulang ini pada akhirnya menyebabkan kegagalan yang berulang-ulang. memberikan pelajaran penting tentang kondisi AI saat ini. Tanggung jawab atas kesalahan tidak dapat dilimpahkan ke mesin.

Seperti yang diungkapkan oleh mantan kepala ilmuwan pembuat keputusan Google, Cassie Kozyrkov, setelah bot dukungan untuk editor kode Cursor AI membuat kebijakan perusahaan palsu, “Kekacauan ini dapat dihindari jika para pemimpin memahami bahwa (1) AI membuat kesalahan, (2) AI tidak dapat bertanggung jawab atas kesalahan tersebut (sehingga kesalahan tersebut menjadi tanggung jawab Anda), dan (3) pengguna tidak suka ditipu oleh mesin yang menyamar sebagai manusia.”

Apa yang terjadi di Dawn hanyalah pengingat terbaru bahwa di era AI, lapisan kontrol kualitas terakhir yang sangat diperlukan adalah pengawasan manusia yang cermat.

Categories: IT Info