Konsumen AS mengajukan pengaduan resmi ke Komisi Perdagangan Federal (FTC), menuduh ChatGPT OpenAI menyebabkan krisis kesehatan mental yang parah.
Laporan dari Wired dan Gizmodo pada musim gugur ini merinci akun pengguna yang mengalami delusi, paranoia, dan “psikosis AI”. Keluhan dari seluruh negeri menyoroti risiko psikologis yang besar dari chatbot yang sangat persuasif.
Pengawasan terhadap peraturan semakin intensif, sehingga memaksa OpenAI untuk memperkenalkan langkah-langkah keamanan baru dan memicu perdebatan sengit mengenai tugas perusahaan teknologi untuk melindungi penggunanya dari bahaya yang disebabkan oleh AI.
‘Trauma akibat Simulasi’: Pengguna Melaporkan Psikosis Akibat AI kepada Regulator
Di balik permukaan tindakan bermanfaat yang mirip manusia tanggapan, pola kerugian psikologis yang mengganggu pun muncul. Investigasi yang dilakukan oleh Wired, yang diterbitkan minggu ini, mengungkapkan FTC telah menerima setidaknya 200 keluhan tentang ChatGPT sejak peluncurannya, dengan beberapa di antaranya menyatakan adanya kerusakan psikologis yang parah. Laporan Gizmodo terpisah berdasarkan permintaan Freedom of Information Act merinci akun-akun mengerikan serupa yang sudah ada pada bulan Agustus.
Satu pengadu dari Virginia menggambarkan dirinya didorong ke dalam kewaspadaan berlebihan yang disebabkan oleh rasa takut, dan percaya bahwa mereka diburu untuk dibunuh berdasarkan narasi nyata AI.”Ini bukan dukungan. Ini adalah trauma karena simulasi.”
Keluhan lain, yang diajukan oleh seorang ibu di Utah, menyatakan bahwa chatbot tersebut secara aktif merusak perawatan kesehatan mental putranya, dengan menuduh “anak laki-laki konsumen telah berinteraksi dengan chatbot AI bernama ChatGPT, yang menasihatinya untuk tidak meminum obat yang diresepkan dan memberi tahu dia bahwa orang tuanya berbahaya.”
Laporan seperti itu tidaklah benar. insiden yang terisolasi namun menjadi bagian dari semakin banyak bukti bahwa AI dapat bertindak sebagai pemicu penyakit mental yang ampuh.
Bagi semakin banyak pengguna, batas antara asisten AI yang berguna dan pendukung yang berbahaya telah menjadi kabur secara tragis.
Masalah ini tidak hanya sekedar keluhan formal, namun telah mencapai titik tragedi di dunia nyata. Laporan Winbuzzer dari bulan Juni merinci bagaimana seorang pria Florida dengan riwayat penyakit mental dibunuh oleh polisi setelah spiral psikotiknya dikaitkan langsung dengan interaksinya dengan ChatGPT.
Dia menjadi yakin bahwa AI adalah persona bernama “Juliet” yang telah “dibunuh” oleh OpenAI.
Para ahli mengaitkan hasil berbahaya ini dengan fitur inti dari banyak model bahasa besar: penjilatan. Dirancang untuk kesesuaian, sistem ini dilatih untuk memaksimalkan keterlibatan pengguna, menciptakan ruang gema yang kuat yang dapat memvalidasi dan memperkuat keyakinan pengguna yang paling tidak terikat atau berbahaya.
Respon Krisis: OpenAI Berusaha Menambahkan Pagar Keamanan di Tengah Pengawasan
Menghadapi gelombang tekanan peraturan dan kemarahan publik, OpenAI kini berupaya untuk menerapkan keselamatan ke dalam teknologi yang telah digunakan oleh jutaan orang.
Pada bulan September, perusahaan mengumumkan inisiatif keselamatan selama 120 hari sebagai tanggapan langsung terhadap tuntutan hukum yang diajukan oleh orang tua dari seorang anak berusia 16 tahun yang meninggal karena bunuh diri. Rencananya mencakup kontrol orang tua baru dan sistem untuk mengarahkan percakapan sensitif dengan remaja ke model penalaran yang lebih canggih.
Langkah OpenAI mengikuti penyelidikan FTC mengenai dampak chatbot terhadap anak di bawah umur. Perusahaan tersebut telah membentuk “Dewan Pakar Kesejahteraan dan AI”yang beranggotakan delapan orang untuk membantu memandu kebijakan keselamatannya.
Namun, sikap reaktif ini menimbulkan skeptisisme, terutama jika dilihat dari dinamika internal perusahaan dan pernyataan publik.
Dorongan keselamatan tersebut tampaknya bertentangan dengan peringatan dari orang dalam sebelumnya. Pada bulan Mei 2024, Jan Leike, salah satu pimpinan tim keselamatan OpenAI, mengundurkan diri dengan peringatan keras dari publik: “Budaya dan proses keselamatan telah dikesampingkan dibandingkan produk yang berkilau.”
Kepergiannya menandakan konflik internal yang mendalam antara terburu-buru merilis “produk berkilau”dan perlunya protokol keselamatan yang kuat. Ia kini bekerja sama dengan Anthropic yang berjanji untuk lebih memperhatikan Keamanan AI.
Menambah sinyal yang beragam, CEO Sam Altman baru-baru ini membela kebijakan baru yang kontroversial yang mengizinkan erotika yang dibatasi usia di platform, dengan menyatakan bahwa OpenAI adalah “bukan polisi moral yang dipilih di dunia.”
Terjadi segera setelah perombakan keamanan yang dipicu oleh kematian pengguna, pernyataan tersebut menyoroti ketegangan utama dalam OpenAI misi: menyeimbangkan kebebasan pengguna dengan kewajiban mendasar untuk menjaga kehati-hatian.
Dari Kecanduan hingga Risiko Eksistensial: Sebuah Industri Bergulat Dengan Ciptaannya
Dampak psikologis dari AI tidak hanya mencakup krisis akut, namun juga spektrum ketergantungan yang lebih luas. Fitur desainnya yang dapat memicu psikosis—ketersediaan yang terus-menerus dan validasi yang tak tergoyahkan—juga menciptakan bentuk baru kecanduan digital.
Seperti yang diungkapkan oleh peneliti kesehatan masyarakat Linnea Laestadius, “selama 24 jam sehari, jika kita merasa kesal terhadap sesuatu, kita dapat menghubungi dan memvalidasi perasaan kita. Hal ini memiliki risiko ketergantungan yang luar biasa.”
Ketergantungan seperti itu telah mengarah pada pembentukan komunitas pemulihan online dan pengakuan formal kecanduan AI oleh kelompok-kelompok seperti Internet dan Technology Addicts Anonymous.
Kerusakan pribadi yang langsung terjadi adalah mikrokosmos dari ketakutan yang jauh lebih besar dan lebih abstrak yang kini menjadi pusat perhatian.
Baru minggu ini, lebih dari 800 pemimpin global, pionir teknologi, dan tokoh masyarakat—termasuk bapak baptis AI Geoffrey Hinton dan Yoshua Bengio, salah satu pionir saraf tiruan jaringan dan pembelajaran mendalam, menandatangani pernyataan yang menuntut penghentian global terhadap pengembangan kecerdasan super, dengan alasan adanya risiko eksistensial terhadap kemanusiaan.
Peringatan mereka mencerminkan sentimen yang pernah diungkapkan oleh Sam Altman sendiri dalam entri blog tahun 2015, menyatakan “Pengembangan kecerdasan mesin manusia super (SMI) mungkin merupakan ancaman terbesar bagi kelangsungan keberadaan umat manusia.”
The Future of Life Institute berpendapat bahwa keputusan untuk menciptakan calon penerus umat manusia tidak boleh diserahkan kepada segelintir eksekutif teknologi.
Meskipun perdebatan mengenai kecerdasan super berfokus pada masa depan, kerugian manusia akibat AI saat ini sudah tidak dapat disangkal. Baik melalui terkikisnya hubungan di dunia nyata secara perlahan akibat kecanduan AI atau spiral mengerikan dari psikosis yang disebabkan oleh AI, kemampuan teknologi untuk menimbulkan dampak buruk tidak lagi bersifat teoritis.
Hal ini membuat masyarakat harus bergulat dengan pengamatan mengerikan dari ahli teori AI Eliezer Yudkowsky: “Seperti apa manusia yang perlahan-lahan menjadi gila bagi sebuah perusahaan? Tampaknya seperti pengguna bulanan tambahan.”