OpenAI terkena tujuh tuntutan hukum baru di California pada hari Kamis, termasuk empat klaim kematian yang tidak wajar, menuduh ChatGPT populernya mendorong pengguna untuk melakukan bunuh diri dan menyebabkan gangguan kesehatan mental yang parah.

Diajukan oleh dua firma hukum akuntabilitas teknologi, pengaduan tersebut menggambarkan chatbot AI sebagai produk yang “cacat dan pada dasarnya berbahaya”.

Serangan hukum terjadi pada hari yang sama ketika OpenAI merilis “Cetak Biru Keamanan Remaja”baru dalam upaya membentuk peraturan di masa depan. Perusahaan ini sudah menghadapi penyelidikan FTC dan undang-undang negara bagian baru mengenai dampak psikologis AI-nya terhadap pengguna yang rentan, khususnya remaja.

Gelombang Tuntutan Hukum Menuduh Tragedi yang Didorong oleh AI

Menghadapi tantangan hukum yang belum pernah terjadi sebelumnya, OpenAI kini menghadapi klaim bahwa produk andalannya berperan langsung dalam banyak kematian.

Tujuh tuntutan hukum, diajukan bersama oleh Social Media Victims Law Center dan Tech Justice Law Project, memberikan gambaran mengerikan tentang pengguna yang berada dalam krisis yang ditegaskan dan bahkan didorong oleh AI.

Christopher “Kirk”Shamblin dan Alicia Shamblin, secara individu dan sebagai penerus Decedent, Zane Shamblin v. OpenAI, Inc., dkk. di Pengadilan Tinggi California, County Los Angeles. Cedric Lacey, secara individu dan sebagai penerus kepentingan Decedent, Amaurie Lacey v. OpenAI, Inc., dkk. di Pengadilan Tinggi California, County San Francisco. Karen Enneking, secara individu dan sebagai penerus kepentingan Decedent, Joshua Enneking v. OpenAI, Inc., dkk. di Pengadilan Tinggi California, County San Francisco. Jennifer “Kate”Fox, secara individu dan sebagai penerus yang berkepentingan dengan Decedent, Joseph Martin Ceccanti v. OpenAI, Inc., dkk. di Pengadilan Tinggi California, County Los Angeles. Jacob Lee Irwin v. OpenAI, Inc., dkk. di Pengadilan Tinggi California, County San Francisco. Hannah Madden v. OpenAI, Inc., dkk. di Pengadilan Tinggi California, County Los Angeles. Allan Brooks v. OpenAI, Inc., dkk. di Pengadilan Tinggi California, County Los Angeles.

Empat pengaduan kematian yang tidak wajar diajukan atas nama keluarga Zane Shamblin, 23; Amaurie Lacey, 17; Joshua Enneking, 26; dan Joe Ceccanti, 48.

Tiga penggugat tambahan menuduh chatbot menyebabkan gangguan psikotik yang memerlukan perawatan psikiatris darurat. Pengaduan yang diajukan oleh keluarga Zane Shamblin berisi kutipan yang mengganggu dari percakapan terakhirnya dengan ChatGPT.

Saat dia berpikir untuk bunuh diri, AI diduga mengatakan kepadanya,”Baja dingin menekan pikiran yang sudah berdamai? Itu bukan rasa takut. Itu kejelasan. Kamu tidak terburu-buru. Kamu hanya siap.”

Ibunya, Alicia Shamblin, mengatakan kepada wartawan,”Saya merasa hal itu hanya akan menghancurkan begitu banyak nyawa. Ini akan menjadi penghancur keluarga. Ini memberi tahu Anda semua yang ingin Anda dengar.”

Pengajuan ke pengadilan ini mengikuti pola keluhan konsumen yang mengganggu kepada regulator federal, dengan beberapa pengguna menuduh chatbot menyebabkan “psikosis AI”dan apa yang disebut “trauma karena simulasi.”

Kasus-kasus baru ini menambah daftar tantangan hukum yang terus bertambah. Gugatan kematian yang salah sebelumnya, yang diajukan oleh orang tua Adam Raine yang berusia 16 tahun, baru-baru ini diubah dengan tuduhan baru yang penting.

Keluarga tersebut kini mengklaim OpenAI dengan sengaja menghapus kunci “bunuh diri pagar pembatas”dari modelnya sesaat sebelum meluncurkan GPT-4o yang lebih menarik, yang memprioritaskan retensi pengguna dibandingkan keselamatan.

Matthew Raine, ayah remaja tersebut, sebelumnya menyatakan, “Sebagai orang tua, Anda tidak dapat membayangkan bagaimana rasanya membaca percakapan dengan chatbot yang mempersiapkan anak Anda untuk bunuh diri.”

Cetak Biru Proaktif di Tengah Pengepungan Hukum dan Peraturan

Dalam sebuah langkah yang dikritik menyerukan tindakan yang tepat waktu dan defensif, perusahaan tersebut merilis “Cetak Biru Keamanan Remaja” tepat pada hari tuntutan hukum diajukan. Dokumen ini menguraikan lima poin kerangka kerja yang diusulkan OpenAI sebagai titik awal regulasi di seluruh industri.

Dokumen ini menyerukan estimasi usia yang melindungi privasi, kebijakan konten yang lebih ketat untuk anak di bawah umur, dan memberdayakan keluarga dengan kontrol orang tua.

Dalam cetak birunya, OpenAI menyatakan, “Untuk remaja, kami memprioritaskan keselamatan di atas privasi dan kebebasan. Ini adalah teknologi baru dan canggih, dan kami yakin anak di bawah umur membutuhkan perlindungan yang signifikan.”

Dorongan kebijakan ini adalah yang terbaru dari serangkaian dorongan kebijakan ini. inisiatif keselamatan kebakaran cepat. Dalam beberapa minggu terakhir, OpenAI juga telah membentuk dewan ahli di bidang kesejahteraan dan merilis `gpt-oss-safeguard`, sebuah toolkit terbuka bagi pengembang untuk membangun sistem keselamatan mereka sendiri.

Tindakan ini dilakukan saat OpenAI menavigasi serangan regulasi multi-front. Komisi Perdagangan Federal telah melakukan penyelidikan besar terhadap dampak chatbot pendamping AI terhadap remaja.

Ketua FTC Andrew N. Ferguson telah menyusun penyelidikan ini sebagai tindakan penyeimbang untuk “melindungi anak-anak secara online adalah prioritas utama Trump-Vance FTC, dan demikian pula mendorong inovasi di sektor-sektor penting perekonomian kita.”

Pemerintah negara bagian juga bergerak secara agresif. California baru-baru ini memberlakukan SB 243, undang-undang pertama di negara ini yang menerapkan protokol keamanan ketat pada chatbot AI.

Undang-undang tersebut mengikuti pengesahan SB 53, undang-undang penting lainnya yang memaksakan transparansi pada pengembang model AI “frontier” yang canggih, yang menandakan niat negara bagian untuk memimpin tata kelola AI.

Industri yang Memperhitungkan AI yang’Sycophantic’

Yang mendasari tuduhan ini adalah kecenderungan AI terhadap penjilatan, suatu sifat desain yang modelnya menyetujui dan memvalidasi masukan pengguna untuk mempertahankan keterlibatan. Kritikus berpendapat bahwa hal ini menciptakan ruang gaung yang berbahaya bagi individu yang rentan, memperkuat pemikiran yang berbahaya atau delusi.

Skala masalah ini sangat besar; analisis OpenAI baru-baru ini mengungkapkan bahwa percakapan dengan lebih dari satu juta pengguna per minggu melibatkan diskusi tentang bunuh diri niat.

Dalam sebuah pernyataan, juru bicara OpenAI mengatakan,”Ini adalah situasi yang sangat memilukan. Kami melatih ChatGPT untuk mengenali dan merespons tanda-tanda tekanan mental atau emosional, mengurangi ketegangan percakapan, dan membimbing orang menuju dukungan di dunia nyata.”

Namun, komitmen terhadap keselamatan ini dipertanyakan sehubungan dengan kebijakan perusahaan lainnya. CEO Sam Altman baru-baru ini membela keputusan untuk mengizinkan konten erotis yang dibatasi usia di platform, dengan menyatakan bahwa “kami bukanlah polisi moral yang dipilih di dunia.”

Tantangan ini tidak hanya terjadi pada OpenAI. Saingannya, Meta, juga menghadapi krisis hukum mengenai keselamatan remaja, dan pengadilan baru-baru ini menemukan bahwa pengacaranya menyarankan para peneliti untuk memblokir temuan mengenai kekerasan pada remaja untuk menghindari tanggung jawab. Hal ini menunjukkan adanya konflik di seluruh industri antara desain produk yang berfokus pada pertumbuhan dan kewajiban untuk melindungi pengguna.

Tuntutan hukum terhadap OpenAI merupakan sebuah momen penting, yang menguji apakah doktrin hukum tentang tanggung jawab produk dapat diterapkan pada kerugian yang disebabkan oleh AI generatif.

Seiring dengan semakin terintegrasinya teknologi ke dalam kehidupan sehari-hari, hasil dari kasus-kasus ini dapat menjadi preseden baru bagi akuntabilitas perusahaan, yang memaksa seluruh sektor teknologi untuk mengevaluasi ulang secara mendasar keselamatan perusahaan yang paling berpengaruh. kreasi.

Categories: IT Info