OpenAI telah mencipta panel pakar baru untuk memberi nasihat mengenai keselamatan AI. Firma mengumumkan lapan orang”Majlis Pakar pada Kesejahteraan dan AI”pada hari Selasa . Kumpulan ini akan membantu membimbing aspek kesihatan dan kesejahteraan alat seperti Chatgpt dan Sora. Langkah ini adalah tindak balas yang jelas terhadap peningkatan tekanan awam dan kerajaan.

Pada bulan September, Suruhanjaya Perdagangan Persekutuan A.S. memulakan penyelidikan besar ke dalam kesan AI terhadap remaja. Syarikat itu juga menghadapi tuntutan mahkamah yang menghubungkan chatbotnya kepada bunuh diri remaja. Majlis baru adalah langkah terbaru Openai untuk menunjukkan bahawa ia mengambil kebimbangan keselamatan ini dengan serius.

Sambutan langsung kepada tekanan pengawalseliaan dan undang-undang

Masa pengumuman ini bukan kebetulan. Ia mengikuti bulan-bulan pengawasan yang sengit. The

Tekanan undang-undang adalah sama sengit. Pada bulan Ogos, Openai terkena dengan tuntutan kematian yang salah dari ibu bapa seorang remaja yang meninggal dunia akibat bunuh diri. Ayahnya, Matthew Raine, memberikan teguran yang kuat, berkata,”Sebagai ibu bapa, anda tidak dapat membayangkan apa yang ia suka membaca perbualan dengan chatbot yang menyapu anak anda untuk mengambil nyawa sendiri.”Kes ini menggalakkan kebimbangan awam dan menguatkan panggilan untuk tindakan.

Peristiwa-peristiwa ini adalah sebahagian daripada corak kegagalan keselamatan yang telah melanda industri. Meta menghadapi krisis yang sama selepas melaporkan AI yang dapat membantu remaja merancang kecederaan diri. Kejadian itu mendorong Jim Steyer, Ketua Pegawai Eksekutif Common Sense Media, untuk mengisytiharkan,”Meta ai adalah bahaya kepada remaja dan ia harus diturunkan dengan segera.”href=”https://oag.ca.gov/system/files/attachments/press-docs/ai%20chatbot_final%20%2844%29.pdf”sasaran=”_ kosong”> Surat Scathing Tahap Persekutuan telah memaksa syarikat-syarikat teknologi untuk bertindak balas. The Syarikat mengumumkan lapan ahli”Majlis Pakar Kesejahteraan dan AI”Mandat formalnya adalah untuk memberi nasihat, bertanya soalan kritikal, dan membantu mewujudkan interaksi yang sihat dengan AI yang sepatutnya kelihatan seperti pengguna dari semua peringkat umur. Ahli-ahli termasuk pakar seperti Dr. David Bickham dari Hospital Kanak-kanak Boston, Profesor Andrew Przybylski dari University of Oxford, dan Dr. Sara Johansen, pengasas Klinik Kesihatan Mental Digital Stanford. Sesi-sesi ini akan meneroka topik yang kompleks, seperti bagaimana AI harus berkelakuan dalam situasi sensitif dan guardrails apa yang dapat menyokong pengguna terbaik. Kumpulan ini juga akan meneroka bagaimana AI dapat memberi sumbangan positif kepada kesejahteraan.

Ini memformalkan hubungan yang bermula awal tahun ini. Openai mengesahkan ia telah berunding secara tidak rasmi dengan banyak pakar ini semasa membangunkan kawalan ibu bapa yang baru dilancarkan. Maklum balas mereka secara khusus membantu membentuk nada pemberitahuan kesusahan untuk menjadi”penyayang dan menghormati kedua-dua remaja dan ahli keluarga.”Sistem ini menggunakan model opt-in bersama dan memberikan Papan pemuka untuk menetapkan”jam yang tenang,”melumpuhkan mod suara, dan matikan ciri memori. Ciri utama adalah sistem amaran yang memberitahu ibu bapa jika perbualan ditandakan untuk kandungan kecederaan diri akut setelah dinilai oleh pengulas manusia.”Kami mahu memberikan maklumat ibu bapa yang cukup untuk mengambil tindakan dan mempunyai perbualan dengan remaja mereka sambil mengekalkan beberapa privasi remaja,”katanya. Majlis kini akan merumuskan peranan penasihat ini, membantu membentuk ciri-ciri keselamatan masa depan dan dasar produk.

Perhimpunan seluruh industri mengenai keselamatan AI

Cabaran OpenAI Faces tidak unik. Mereka mencerminkan perhitungan yang lebih luas dan luas di seluruh industri dengan kesan psikologi AI. Pakar-pakar telah lama memberi amaran tentang bahaya ketergantungan emosi pada chatbots yang direka untuk meniru sambungan manusia.

Walaupun Majlis Baru dan Kawalan Ibu Bapa adalah langkah-langkah penting, beberapa pengkritik berpendapat bahawa mereka tidak cukup jauh. Sifat opt-in dari kawalan ibu bapa meletakkan beban kepada penjaga untuk mengaktifkannya.

OpenAI mengakui ini hanyalah langkah pertama. Syarikat ini juga membangunkan sistem ramalan umur jangka panjang untuk menggunakan tetapan yang sesuai dengan remaja secara automatik secara lalai. Buat masa ini, pembentukan majlis pakar menandakan komitmen yang jelas untuk menangani keselamatan.

Categories: IT Info