gergasi perundingan global Deloitte menghadapi pengawasan yang sengit selepas mengakui ia menggunakan generatif AI dalam laporan $ 440,000 untuk kerajaan Australia. Sistem, yang ditugaskan pada bulan Disember 2024 oleh Jabatan Pekerjaan dan Hubungan Tempat Kerja (DEWR). Topik ini sangat sensitif, berikutan skandal”robodebt”yang terkenal di negara ini, yang menjadikan ketepatan yang paling penting. Risiko menggunakan AI generatif tanpa pengawasan manusia yang ketat. Ia menyoroti kesakitan yang semakin meningkat untuk mengintegrasikan model bahasa yang besar ke dalam kerja profesional dan menimbulkan persoalan mendesak tentang akauntabiliti apabila alat AI digunakan untuk membentuk dasar awam. Apa yang disebutnya signifikan
Suspeknya telah disahkan apabila dia menemui petikan yang dikaitkan dengan rakan-rakannya sendiri. Dr. Rudge menjelaskan bahawa apabila dia melihat bahawa buku-buku itu dikaitkan dengan rakan-rakannya yang tidak pernah dia dengar, dia dengan cepat menyimpulkan bahawa mereka telah dibuat. Profesor Lisa Burton Crawford. Sementara buku sebenarnya bertajuk “Peraturan undang-undang dan Perlembagaan Australia,” Laporan Deloitte memetik karya hantu yang disebut”kedaulatan undang-undang dan keadilan pentadbiran di negara kebajikan, suatu kajian pusat.”Fabrikasi diperluaskan jauh ke dalam petikan undang-undang, mewujudkan ketidaktepatan faktual yang serius. Laporan itu salah merujuk kes mahkamah persekutuan utama,”Deanna Amato v Commonwealth”, dan menyalahkan hakim dengan perenggan fiktif empat hingga lima baris. Dalam versi yang diterbitkan semula, Deloitte mengakui laporan itu”mengandungi kesilapan”mengenai prosiding Amato. Corak ini menghasilkan maklumat yang munasabah tetapi sepenuhnya palsu menunjukkan kegagalan kritikal dalam jaminan kualiti Deloitte dan proses pengawasan manusia. Firma itu menegaskan penemuan teras laporan dan cadangan itu tetap kukuh, walaupun ia bersetuju untuk mengembalikan semula $ 97,000 ansuran kontraknya.
Tanggapan kerajaan adalah tajam. Semasa pendengaran Senat, pegawai DEWR memanggil kerja”tidak dapat diterima.”Seorang jurucakap menyoroti pecahan jaminan kualiti,
Senator Buruh Deborah O’Neill menawarkan teguran yang sangat menyengat,
Dia mencadangkan bahawa jika ini adalah kualiti kerja yang dihasilkan, jabatan-jabatan kerajaan mungkin lebih baik dengan langganan AI langsung, berkata,”Mungkin bukan firma perundingan yang besar, para pengusaha akan lebih baik mendaftar untuk langganan chatgpt. Masalah yang muncul dari”ai slop”-low-quality, salah, atau kandungan tidak masuk akal yang dihasilkan oleh AI dan disampaikan sebagai kerja faktual. Apabila kandungan tersebut menyusup dokumen yang dimaksudkan untuk membimbing dasar kerajaan, risiko diperbesar. Dr. Rudge memberi amaran bahawa pembetulan itu sendiri telah mendedahkan. Beliau menyatakan bahawa rujukan palsu tunggal sering digantikan oleh pelbagai yang baru,
Skandal juga menyoroti cabaran yang semakin meningkat: mengesan teks yang dihasilkan AI. Walaupun alat ada untuk mengenal pasti penulisan AI, keberkesanannya sangat dibahaskan. Ini mewujudkan senario di mana laporan cacat boleh diterima sebagai fakta, yang membawa kepada pengambilan keputusan yang lemah di peringkat tertinggi.