OpenAI telah meluncurkan Red Teaming Network, sebuah inisiatif yang bertujuan untuk memperkuat ketahanan dan keamanan model AI-nya. Red Teaming Network berupaya memanfaatkan keahlian dari beragam kelompok profesional untuk menilai secara kritis dan menguji sistem AI-nya.

Pendekatan Proaktif terhadap Keamanan AI

Tim merah, sebuah metode untuk mengevaluasi keamanan dengan menyimulasikan potensi serangan musuh, telah menjadi langkah penting dalam model AI proses pengembangan. Pendekatan ini sangat penting karena teknologi AI generatif semakin populer. Tujuan utamanya adalah untuk mengidentifikasi dan memperbaiki bias dan kerentanan dalam model sebelum menjadi masalah yang meluas. Misalnya, DALL-E 2 OpenAI mendapat kritik karena melanggengkan stereotip, dan kerja sama merah memastikan model seperti ChatGPT mematuhinya protokol keselamatan.

Sejarah OpenAI dengan tim merah bukanlah hal baru. Perusahaan sebelumnya telah berkolaborasi dengan pakar eksternal untuk penilaian risiko. Namun, Red Teaming Network mewakili upaya yang lebih terstruktur, yang bertujuan untuk memperdalam dan memperluas kolaborasi OpenAI dengan para ilmuwan, lembaga penelitian, dan organisasi masyarakat sipil. Sebagaimana dinyatakan dalam pengumuman mereka, “Anggota jaringan akan dipanggil berdasarkan keahlian mereka untuk membantu tim merah di berbagai tahap siklus hidup model dan pengembangan produk.”

Mencari Beragam Keahlian untuk Evaluasi Komprehensif

Penilaian AI sistem menuntut pemahaman yang beragam, mencakup berbagai domain dan perspektif yang beragam. OpenAI secara aktif mengundang lamaran dari para ahli di seluruh dunia, menekankan keragaman geografis dan domain dalam proses seleksi mereka. Bidang minat mencakup berbagai macam, mulai dari ilmu kognitif dan ilmu komputer hingga perawatan kesehatan , hukum, dan bahkan linguistik.

Pendekatan OpenAI menunjukkan komitmen untuk menangkap pandangan holistik mengenai risiko, bias, dan peluang AI. Perusahaan tidak hanya membatasi panggilannya pada peneliti AI tradisional tetapi juga mencari pakar dari berbagai disiplin ilmu, yang menunjukkan strategi multidisiplin.

Selanjutnya, OpenAI telah menekankan bahwa semua anggota Jaringan Tim Merah akan diberi kompensasi atas kontribusi mereka. Meskipun rincian pasti mengenai kompensasi masih dirahasiakan, perusahaan menyebutkan bahwa anggota mungkin perlu menandatangani Perjanjian Non-Disclosure (NDA), dan penelitian mereka berpotensi dipublikasikan.

Categories: IT Info