Pakar Teknologi dan kolumnis TI Mark Pesce telah mengidentifikasi kelemahan besar yang memengaruhi berbagai perusahaan besar model bahasa (LLM), termasuk yang digunakan di chatbot AI populer seperti ChatGPT, Microsoft Copilot, dan Google Gemini. Cacat ini, yang dipicu oleh perintah yang tampaknya sederhana, menyebabkan model menghasilkan keluaran yang tidak koheren dan tidak ada habisnya, sehingga menimbulkan kekhawatiran tentang stabilitas dan keandalan sistem AI ini.

Output yang Tidak Masuk Akal dan Berkelanjutan

Seperti yang ditulis Pesce dalam artikelnya untuk The Register, masalahnya telah ditemukan ketika dia mencoba membuat perintah untuk Pengklasifikasi berbasis AI. Pengklasifikasi dimaksudkan untuk membantu pengacara kekayaan intelektual dengan mengotomatiskan tugas-tugas yang memerlukan penilaian subjektif. Saat diuji pada Microsoft Copilot Pro, yang menggunakan model GPT-4 OpenAI, perintah tersebut menyebabkan chatbot menghasilkan keluaran yang tidak masuk akal dan berkelanjutan. Perilaku serupa diamati di model AI lainnya, termasuk Mixtral dan beberapa lainnya, kecuali Claude 3 Sonnet dari Anthropic. Pesce menulis:

“Saya mulai menulis prompt untuk pengklasifikasi tersebut, dimulai dengan sesuatu yang sangat sederhana – tidak jauh berbeda dari prompt yang saya masukkan ke chatbot mana pun. Untuk mengujinya sebelum saya mulai menggunakan panggilan API yang mahal, saya memasukkannya ke Microsoft Copilot Pro. Di bawah merek Microsoft, Copilot Pro berada di atas model OpenAI yang terbaik di kelasnya, GPT-4. Ketik perintahnya, lalu tekan kembali.
 
Chatbot dimulai dengan baik – untuk beberapa kata pertama dalam responsnya. Lalu berubah menjadi kegilaan seperti celoteh.”

Respon dan Tantangan Industri

Pesce melaporkan masalah ini ke berbagai penyedia layanan AI, termasuk Microsoft dan xAI milik Elon Musk, yang berada di balik produk Grok AI kelemahan pada beberapa model, menunjukkan adanya masalah mendasar dan bukan kesalahan tersendiri. Namun, tanggapan dari perusahaan lain kurang menggembirakan karena menganggap masalah ini sebagai kesalahan yang tidak terkait dengan keamanan, sementara perusahaan AI terkemuka lainnya gagal memberikan tanggapan Beberapa perusahaan tidak memiliki informasi kontak langsung untuk melaporkan masalah kritis tersebut, hal ini menunjukkan adanya kesenjangan yang signifikan dalam proses dukungan pelanggan dan keamanan mereka.

Implikasi terhadap Pengembangan AI

Penemuan ini menggarisbawahi potensi risiko yang terkait dengan penerapan teknologi AI secara cepat tanpa dukungan dan mekanisme umpan balik yang kuat. Kurangnya saluran yang jelas untuk melaporkan dan mengatasi bug dalam sistem ini menimbulkan ancaman terhadap keandalan dan keamanannya. Pakar industri menekankan perlunya perusahaan AI untuk membangun proses yang efisien dalam menangani masukan pelanggan dan menyelesaikan masalah dengan segera. Sampai langkah-langkah ini diterapkan, keamanan dan keandalan aplikasi berbasis AI masih dipertanyakan.

Pengalaman Pesce menunjukkan masalah yang lebih luas dalam industri AI: perlunya pengujian yang lebih ketat dan komunikasi yang lebih baik antar pengembang dan pengguna. Seiring dengan terus berintegrasinya AI ke dalam berbagai aspek kehidupan dan bisnis sehari-hari, memastikan sistem ini efektif dan aman adalah hal yang terpenting.

Categories: IT Info