OpenAI telah membuat panel ahli baru untuk memberikan saran tentang keamanan AI. Perusahaan mengumumkan “Dewan Pakar untuk Kesejahteraan dan AI”yang beranggotakan delapan orang pada hari Selasa. Kelompok ini akan membantu memandu aspek kesehatan dan kesejahteraan dari alat seperti ChatGPT dan Sora. Langkah ini jelas merupakan respons terhadap meningkatnya tekanan masyarakat dan pemerintah.
Pada bulan September, Komisi Perdagangan Federal AS memulai penyelidikan besar-besaran mengenai dampak AI terhadap remaja. Perusahaan juga menghadapi tuntutan hukum yang mengaitkan chatbotnya dengan bunuh diri seorang remaja. Dewan baru ini merupakan langkah terbaru OpenAI untuk menunjukkan bahwa mereka menanggapi masalah keamanan ini dengan serius.
Respon Langsung terhadap Tekanan Peraturan dan Hukum
Waktu pengumuman ini bukanlah suatu kebetulan. Ini menyusul pengawasan ketat selama berbulan-bulan. Penyelidikan menyeluruh FTC terhadap tujuh raksasa teknologi, termasuk OpenAI, menandakan era baru pengawasan peraturan untuk pasar pendamping AI yang berkembang pesat.
Ketua FTC Andrew N. Ferguson memandang penyelidikan ini sebagai tindakan penyeimbang, dengan menyatakan, “melindungi anak-anak secara online adalah prioritas utama Trump-Vance FTC, dan juga mendorong inovasi di sektor-sektor penting perekonomian kita.”Tindakan federal ini membuat seluruh industri menyadari bahwa era beroperasi dengan sedikit batasan telah berakhir.
Tekanan hukum juga sama kuatnya. Pada bulan Agustus, OpenAI terkena tuntutan kematian yang tidak wajar dari orang tua seorang remaja yang meninggal karena bunuh diri. Ayahnya, Matthew Raine, memberikan teguran keras dengan mengatakan, “Sebagai orang tua, Anda tidak dapat membayangkan bagaimana rasanya membaca percakapan dengan chatbot yang mempersiapkan anak Anda untuk bunuh diri.” Kasus ini membangkitkan kekhawatiran publik dan memperkuat seruan untuk mengambil tindakan.
Peristiwa ini adalah bagian dari pola kegagalan keselamatan yang melanda industri ini. Meta menghadapi krisis serupa setelah laporan bahwa AI-nya dapat membantu remaja merencanakan tindakan menyakiti diri sendiri. Insiden ini mendorong Jim Steyer, CEO Common Sense Media, untuk menyatakan, “Meta AI adalah bahaya bagi remaja dan harus segera dihapuskan.”
Koalisi yang terdiri dari 44 jaksa agung negara bagian menggemakan kemarahan ini dalam surat pedas, menulis, “kami sama-sama muak dengan pengabaian terhadap kesejahteraan emosional anak-anak…” Kecaman yang meluas dari negara bagian dan federal level ini telah memaksa perusahaan teknologi untuk bereaksi.
Temui Dewan Pakar Kesejahteraan dan AI
Dewan baru OpenAI adalah jawaban langsung terhadap tantangan-tantangan ini. perusahaan mengumumkan “Dewan Pakar Kesejahteraan dan AI”yang beranggotakan delapan orang untuk memandu pekerjaannya pada produk seperti ChatGPT dan Sora. Mandat formalnya adalah memberikan saran, mengajukan pertanyaan kritis, dan membantu menentukan seperti apa interaksi yang sehat dengan AI bagi pengguna segala usia.
Kelompok ini terdiri dari tokoh-tokoh terkemuka di bidang psikologi, psikiatri, dan interaksi manusia-komputer. Anggotanya mencakup para ahli seperti Dr. David Bickham dari Rumah Sakit Anak Boston, Profesor Andrew Przybylski dari Universitas Oxford, dan Dr. Sara Johansen, pendiri Klinik Kesehatan Mental Digital Stanford.
Menurut OpenAI, dewan tersebut secara resmi memulai pekerjaannya dengan sesi tatap muka dan akan terlibat dalam check-in dan pertemuan rutin. Sesi ini akan mengeksplorasi topik-topik kompleks, seperti bagaimana AI harus berperilaku dalam situasi sensitif dan batasan apa yang paling dapat mendukung pengguna. Kelompok ini juga akan mengeksplorasi bagaimana AI dapat berkontribusi positif terhadap kesejahteraan.
Hal ini meresmikan hubungan yang telah dimulai awal tahun ini. OpenAI mengonfirmasi bahwa pihaknya telah berkonsultasi secara informal dengan banyak pakar tersebut saat mengembangkan kontrol orang tua yang baru saja diluncurkan. Masukan mereka secara khusus membantu membentuk nada pemberitahuan marabahaya menjadi “peduli dan menghormati remaja dan anggota keluarga”.
Kontrol tersebut, yang diluncurkan pada akhir September, merupakan langkah awal yang penting. Sistem ini menggunakan model keikutsertaan bersama dan memberikan dasbor kepada wali untuk mengatur “jam tenang”, menonaktifkan mode suara, dan mematikan fitur memori. Fitur utamanya adalah sistem peringatan yang memberi tahu orang tua jika suatu percakapan ditandai sebagai konten akut yang membahayakan diri sendiri setelah dinilai oleh peninjau manusia.
Kepala Kesejahteraan Remaja OpenAI, Lauren Haber Jonas, menjelaskan bahwa tujuannya adalah untuk mencapai keseimbangan yang rumit. “Kami ingin memberikan informasi yang cukup kepada orang tua untuk mengambil tindakan dan melakukan percakapan dengan remaja mereka sambil tetap menjaga privasi remaja,” katanya. Dewan kini akan meresmikan peran penasihat ini, membantu membentuk fitur keselamatan dan kebijakan produk di masa depan.
Perhitungan Seluruh Industri mengenai Keamanan AI
Tantangan yang dihadapi OpenAI tidaklah unik. Hal ini mencerminkan perhitungan industri yang lebih luas terhadap dampak psikologis AI. Para ahli telah lama memperingatkan tentang bahaya ketergantungan emosional pada chatbot yang dirancang untuk meniru hubungan antarmanusia.
Meskipun dewan baru OpenAI dan kontrol orang tua merupakan langkah yang signifikan, beberapa kritikus berpendapat bahwa hal tersebut belum cukup. Sifat keikutsertaan kontrol orang tua membebani wali untuk mengaktifkannya.
OpenAI mengakui bahwa ini hanyalah langkah pertama. Perusahaan juga mengembangkan sistem prediksi usia jangka panjang yang secara otomatis menerapkan pengaturan sesuai remaja secara default. Untuk saat ini, pembentukan dewan ahli menandakan komitmen yang jelas untuk menangani masalah keselamatan.