Openai mengeluarkan”Rangka Tanaman Remaja”pada hari Khamis, rangka kerja baru yang direka untuk melindungi pengguna AI muda.
Langkah itu adalah tindak balas langsung terhadap tekanan undang-undang dan kerajaan yang sengit yang menghadapi firma San Francisco. OpenAI sedang menavigasi siasatan Suruhanjaya Perdagangan Persekutuan, undang-undang chatbot California yang baru, dan tindakan undang-undang yang menghubungkan alat chatgptnya kepada kecederaan diri remaja.
Untuk mendahului krisis, syarikat itu mencadangkan lima prinsip keselamatan teras. Ini termasuk pengesanan umur yang lebih baik dan perlindungan lalai untuk kanak-kanak di bawah umur. Openai berharap pelan proaktif ini akan membentuk peraturan industri masa depan dan menangani kebimbangan keselamatan yang semakin meningkat. jantung Blueprint adalah lima prinsip teras terbuka Pertama, ia memerlukan mengenal pasti remaja di atas platform menggunakan”alat-alat anggaran privasi-perlindungan, pelindung berasaskan risiko”untuk memberikan pengalaman yang berbeza dan sesuai dengan usia. Untuk mengurangkan risiko pengguna di bawah 18 tahun. Menurut pelan tindakan, sistem AI harus direka untuk tidak menggambarkan bunuh diri atau bahaya diri, dan mesti”melarang grafik atau immersive (iaitu, peranan) kandungan intim dan ganas. Kejurulatihan.”
Ketiga, penyokong terbuka untuk memungkiri pengalaman U18 yang selamat apabila usia pengguna diragui, terutamanya untuk pengguna yang tidak sah. Ini mengutamakan keselamatan walaupun ia menghalang penggunaan produk dewasa dewasa.
Keempat, pelan tindakan itu menekankan memperkasakan keluarga dengan kawalan ibu bapa yang boleh diakses, membina ciri-ciri syarikat yang baru dilancarkan. Kawalan ini membolehkan Penjaga untuk menghubungkan akaun, menetapkan”jam pemadaman,”menguruskan tetapan privasi data, dan menerima makluman jika aktiviti remaja mencadangkan niat untuk mencederakan diri sendiri. Dokumen Openai membingkai ini sebagai peralihan asas dalam keutamaan.”Bagi remaja, kami mengutamakan keselamatan di hadapan privasi dan kebebasan. Ini adalah teknologi yang baru dan berkuasa, dan kami percaya anak-anak di bawah umur memerlukan perlindungan yang ketara.”Syarikat itu kini mempertahankan diri terhadap tuntutan kematian yang salah dari ibu bapa seorang remaja yang meninggal dunia dengan bunuh diri. mikroskop.
Tekanan kerajaan meningkat dari pelbagai arah. Pada bulan September, Suruhanjaya Perdagangan Persekutuan A.S. melancarkan siasatan utama ke dalam kesan chatbots sahabat AI pada remaja, mensasarkan OpenAI dan enam gergasi teknologi lain. Dan penggubal undang-undang persekutuan juga bergerak secara agresif. Di California, Gabenor Gavin Newsom , mewujudkan peraturan pertama-dalam-negara untuk chatbots AI. tidak boleh dipercayai kepada polis sendiri.”Di peringkat persekutuan, sekumpulan bipartisan senator A.S. menyatakan bahawa pada separuh pertama 2025 sahaja, ia melaporkan lebih daripada 75,000 cyberips ai-generated kanak-kanak Pendirian
Namun, sebagai kedudukan Openai sendiri sebagai pemimpin dalam keselamatan remaja, ia juga harus bertanding dengan pernyataan dan dasar awam yang bertentangan. Pemesejan keselamatan ke hadapan ini sangat berbeza dengan pergeseran dasar baru-baru ini. Dia menolak kritikan dengan mengisytiharkan,”Kami bukan polis moral yang dipilih di dunia.”Langkah itu, yang menarik perhatian dari tokoh-tokoh seperti Mark Cuba, mencipta persepsi tentang keutamaan yang bertentangan dalam syarikat itu. Pada akhir September, syarikat itu melancarkan suite kawalan ibu bapa.
Hanya dua minggu kemudian, ia mengumumkan pembentukan Majlis Pakar Lapan Ahli untuk memberi nasihat mengenai kesejahteraan dan kesihatan mental. Pesaing seperti Meta menghadapi krisis undang-undang mereka sendiri terhadap keselamatan remaja. Mahkamah D.C. baru-baru ini memohon pengecualian penipuan jenayah yang jarang berlaku untuk memerintah bahawa Meta tidak dapat menyembunyikan penyelidikan kemudaratan remaja dalaman di belakang keistimewaan peguam-klien.
Dengan melepaskan pelan tindakannya, OpenAI membuat permainan strategik untuk menentukan syarat keselamatan AI, dengan harapan dapat membentuk peraturan sebelum pengawal selia dan mahkamah mengenakan yang lebih ketat.