AI Pemimpin Keselamatan Antropik adalah proposin sebuah framework baru yang bertujuan untuk meningkatkan transparansi dalam pengembangan yang kuat”Frontier”Frontier”. Proposal tersebut menyerukan perusahaan AI besar untuk secara terbuka mengungkapkan protokol keselamatan mereka melalui”kerangka kerja pengembangan yang aman”dan”kartu sistem”terperinci.”
Langkah ini terjadi ketika industri AI menghadapi pengawasan yang semakin besar atas serangkaian kegagalan keselamatan, kekurangan keamanan, dan masalah etika. Pendekatan”sentuhan ringan”Anthropic berupaya membangun kepercayaan dan akuntabilitas publik dengan menstandarkan pelaporan keselamatan. Ini menawarkan alternatif yang fleksibel untuk peraturan pemerintah yang kaku sambil menangani kebutuhan yang mendesak untuk pengawasan.
Kerangka kerja pengembangan yang aman menjelaskan
Pada intinya, proposal tersebut membutuhkan pengembang dari model yang paling mampu untuk membuat dan menerbitkan < kerangka pengembangan aman (sdf) . Dokumen ini akan menguraikan bagaimana perusahaan menilai dan mengurangi risiko bencana yang tidak masuk akal sebelum menggunakan model baru.
. Ini juga membahas potensi bahaya dari model yang bertindak secara mandiri dengan cara yang bertentangan dengan maksud pengembang mereka. </p>
<p> Bersama SDF, perusahaan akan menerbitkan”kartu sistem”atau dokumen serupa. Ini akan merangkum prosedur pengujian model, hasil evaluasi, dan mitigasi yang diperlukan. Ini menciptakan catatan publik tentang kemampuan dan keterbatasan model pada saat rilisnya. </p><div style=)
Standardisasi pakta sukarela di tengah debat peraturan
Proposal antropik dengan sengaja menghindari menjadi terlalu preskriptif. Perusahaan berpendapat bahwa “standar yang dipaksakan pemerintah yang kaku akan sangat kontra-kontraptif mengingat bahwa metode evaluasi menjadi sudah ketinggalan zaman dalam beberapa bulan karena laju perubahan teknologi,” anggukan pada laju inovasi yang cepat yang dapat membuat aturan teknis spesifik segera menjadi usang. Antropik menyarankan ambang batas seperti $ 100 juta dalam pendapatan tahunan atau $ 1 miliar dalam pengeluaran Litbang untuk menghindari pembakaran startup. Ini juga mencakup ketentuan untuk perlindungan whistleblower, menjadikannya ilegal bagi lab untuk berbohong tentang kepatuhannya.
Pendekatan ini secara efektif berupaya mengkodifikasi dan menstandarkan apa yang saat ini merupakan komitmen keselamatan sukarela dari laboratorium utama. Perusahaan seperti Google DeepMind, openai , dan
Kerangka kerja yang diusulkan oleh antropik adalah upaya yang jelas untuk mengatasi krisis kepercayaan ini. Dengan mendorong akuntabilitas publik dan menstandarisasi pengungkapan keselamatan, perusahaan berusaha untuk menetapkan garis dasar baru untuk pengembangan yang bertanggung jawab. Proposal ini berfungsi sebagai alat praktis dan langkah strategis untuk membentuk masa depan peraturan AI.