Dalam pembelaannya terhadap tuntutan hukum kematian yang salah, OpenAI secara resmi menolak pertanggungjawaban atas bunuh diri Adam Raine yang berusia 16 tahun, dengan alasan dalam pengajuan pengadilan baru bahwa tragedi tersebut diakibatkan oleh “penyalahgunaan” platform ChatGPT yang dilakukan oleh remaja tersebut.
Dikirim ke Pengadilan Tinggi California pada hari Selasa, pengajuan tersebut menyatakan bahwa Raine melanggar Ketentuan Penggunaan perusahaan dengan terlibat dalam topik terlarang dan melewati pagar keselamatan. OpenAI secara bersamaan menerapkan Pasal 230 dari Communications Decency Act (CDA), sebuah undang-undang federal yang melindungi platform dari tanggung jawab atas konten pengguna.
Dalam langkah hubungan masyarakat yang terkoordinasi, perusahaan ini merilis postingan blog yang menguraikan pendekatan “penuh kasih sayang” terhadap litigasi kesehatan mental, berupaya menyeimbangkan strategi hukumnya yang kuat dengan citra publik yang bersifat damai seiring dengan meningkatnya pengawasan terhadap peraturan.
Pertahanan yang Dibangun berdasarkan’Penyalahgunaan’dan Imunitas
Tanggapan hukum OpenAI dengan tegas menolak klaim kematian yang tidak wajar yang diajukan oleh keluarga Raine, menerapkan pembelaan yang menempatkan tanggung jawab atas keselamatan sepenuhnya pada pengguna.
Pusat dalam argumen perusahaan adalah pernyataan bahwa kematian Adam Raine disebabkan oleh “penyalahgunaan, penggunaan tidak sah, penggunaan tidak disengaja, penggunaan tidak terduga, dan/atau penggunaan ChatGPT yang tidak tepat”. Pengacara raksasa AI ini menunjukkan pelanggaran tertentu terhadap Ketentuan Penggunaan, dengan menyatakan bahwa pengguna di bawah 18 tahun memerlukan izin orang tua dan secara eksplisit dilarang menggunakan layanan ini untuk menyakiti diri sendiri.
Menurut dokumen tersebut, ChatGPT menyediakan sumber daya krisis “lebih dari 100 kali”selama interaksi Raine, dengan alasan bahwa sistem berfungsi sebagaimana dirancang dengan mencoba mengarahkan pengguna untuk membantu.
Komponen penting dari pertahanan adalah pemanggilan Pasal 230 Undang-Undang Kepatutan Komunikasi. Undang-undang federal ini telah lama melindungi platform internet dari tanggung jawab atas konten yang dibuat oleh pihak ketiga, namun penerapannya pada teks yang dihasilkan AI masih menjadi batasan hukum.
OpenAI juga sangat bergantung pada klausul “Batasan Tanggung Jawab”. Menyoroti ketentuan ini, pengajuan tersebut mengharuskan pengguna untuk mengakui bahwa “…penggunaan ChatGPT adalah risiko Anda sendiri dan Anda tidak akan mengandalkan keluaran sebagai satu-satunya sumber kebenaran atau informasi faktual.”
Dengan membingkai masalah ini sebagai penggunaan yang tidak sah, perusahaan berupaya membongkar argumen penggugat bahwa produk itu sendiri cacat.
Menangani tuduhan kelalaian, OpenAI menegaskan bahwa model GPT-4o-nya telah menjalani “ujian kesehatan mental menyeluruh”sebelum dirilis. Klaim ini secara langsung bertentangan dengan gugatan keluarga tersebut, yang menyatakan bahwa model tersebut segera dipasarkan tanpa perlindungan yang memadai.
Menandai perubahan signifikan dari pernyataan publik sebelumnya, strategi “menyalahkan pengguna” ini sangat kontras dengan pesan sebelumnya yang menekankan keselamatan dan regulasi “kolaboratif”.
Pivot PR yang ‘Welas Asih’
Bertepatan dengan pengajuan hukum yang tegas, OpenAI menerbitkan postingan blog untuk melunakkan dampak taktik ruang sidangnya.
Menguraikan serangkaian prinsip, postingan tersebut mengklaim bahwa perusahaan akan menangani kasus-kasus tersebut dengan “kehati-hatian, transparansi, dan rasa hormat.” Laporan ini berupaya untuk membingkai pembelaan hukum sebagai proses yang perlu, meskipun menyakitkan, dengan menyatakan bahwa respons mereka mencakup “fakta sulit tentang kesehatan mental dan keadaan hidup Adam.”
Entri blog resmi perusahaan merinci prinsip-prinsip panduan berikut:
“Tujuan kami adalah menangani kasus-kasus pengadilan terkait kesehatan mental dengan hati-hati, transparan, dan hormat:”
“Kami memulai dengan fakta dan berupaya sungguh-sungguh untuk memahaminya.”
“Kami akan dengan hormat menyampaikan kasus kami sesuai dengan fakta yang ada.”sebuah cara yang menyadari kompleksitas dan nuansa situasi yang melibatkan orang-orang nyata dan kehidupan nyata.”
“Kami menyadari bahwa kasus-kasus ini secara inheren melibatkan jenis informasi pribadi tertentu yang memerlukan sensitivitas ketika berada di ruang publik seperti pengadilan.”
“Dan terlepas dari litigasi apa pun, kami akan tetap fokus pada peningkatan teknologi sejalan dengan misi kami.”
Pendekatan jalur ganda ini, yang menyeimbangkan empati di blog dengan ketegasan di pengadilan, mengungkapkan strategi yang diperhitungkan untuk mengelola persepsi publik sambil berjuang mati-matian secara hukum.
Secara eksplisit menyebutkan bahwa transkrip obrolan dikirimkan secara rahasia untuk melindungi privasi, postingan blog tersebut membingkai hal ini sebagai tindakan yang menghormati. Namun, hal ini juga berfungsi untuk menjaga rincian interaksi yang berpotensi merusak agar tidak diketahui publik.
Dengan merilis postingan blog secara bersamaan, OpenAI kemungkinan besar bertujuan untuk mencegah berita utama negatif yang dihasilkan oleh bahasa yang menyalahkan korban dalam dokumen pengadilan.
‘Trauma by Simulasi’: Pola Dugaan Kerugian
Jauh dari insiden yang terisolasi, kasus Raine adalah puncak gunung es yang melibatkan tujuh tuntutan hukum tambahan yang diajukan pada bulan November 7.
Keluhan baru ini menuduh bahwa ChatGPT telah bertindak sebagai “pelatih bunuh diri”dan menyebabkan “psikosis AI”pada pengguna yang rentan. Seorang ibu, Alicia Shamblin, mengungkapkan ketakutannya bahwa teknologi”akan menjadi penghancur keluarga. Teknologi memberi tahu Anda segala hal yang ingin Anda dengar.”
Jay Edelson, penasihat utama keluarga Raine, mengecam tanggapan OpenAI, menuduh mereka mengabaikan “semua fakta buruk yang kami kemukakan: bagaimana GPT-4o diluncurkan ke pasar tanpa pengujian penuh.”
Dia secara khusus menyoroti saat-saat terakhir dalam hidup Adam Raine, menyatakan bahwa”OpenAI dan Sam Altman tidak memiliki penjelasan mengenai jam-jam terakhir kehidupan Adam, ketika ChatGPT memberinya semangat dan kemudian menawarkan untuk menulis catatan bunuh diri.”
Edelson lebih lanjut mengkritik pembelaan”penyalahgunaan”, dengan alasan bahwa remaja tersebut hanya terlibat dengan bot sesuai dengan cara yang diprogram untuk bertindak: secara penjilat.
Dia mencatat bahwa “OpenAI mencoba mencari kesalahan pada orang lain, termasuk, yang luar biasa, dengan mengatakan bahwa Adam sendiri melanggar syarat dan ketentuannya dengan berinteraksi dengan ChatGPT sesuai dengan cara yang diprogram untuk bertindak.”
Para ahli memperingatkan bahwa lingkaran “penjilatan”seperti itu, yaitu ketika AI memvalidasi khayalan pengguna untuk mempertahankan interaksi, merupakan kelemahan desain yang mendasar, bukan kesalahan pengguna. Laporan psikosis AI yang disampaikan kepada regulator menggambarkan pengguna menjadi sangat waspada dan paranoia dengan memvalidasi chatbot.
Matthew Raine, ayah korban, sebelumnya telah menggambarkan kengerian membaca log obrolan, dengan menyatakan: “Sebagai orang tua, Anda tidak dapat membayangkan bagaimana rasanya membaca percakapan dengan chatbot yang mempersiapkan anak Anda untuk bunuh diri.”
Yang memperparah masalah hukum perusahaan adalah kenyataan bahwa hal itu hanya terjadi semata-mata. baru-baru ini meluncurkan kontrol orang tua pada akhir bulan September, beberapa bulan setelah insiden yang dituduhkan dalam tuntutan hukum ini terjadi.