Dinamika kompetitif dalam bidang kecerdasan buatan sekarang tampaknya secara langsung memengaruhi pengembangan kebijakan keselamatan di OpenAI. Perusahaan di balik chatgpt Just memperbarui pedoman keselamatan internal jika tidak ada sistem yang kuat. Revisi kerangka kesiapsiagaan ini muncul sebagai perusahaan, yang sekarang bernilai $ 300 miliar setelah putaran investasi yang dipimpin Softbank utama, menavigasi persaingan pasar yang intens dan meningkatnya pengawasan atas prosedur evaluasi untuk model AI canggih, seperti Seri Potensi yang akan datang. It establishes specific ‘Tracked Categories’ for monitoring known risks like misuse in biology, chemistry, and cybersecurity, alongside forward-looking ‘Research Categories’ exploring areas like long-range autonomy and autonomous replication.
The framework also defines ‘High’ and ‘Critical’ capability thresholds which trigger specific safety reviews and safeguard implementation requirements, overseen by an internal Safety Advisory Group (Sag). Namun, perubahan yang paling menarik perhatian adalah klausul yang secara langsung menangani lingkungan kompetitif. Pengumuman OpenAI berbunyi:”Jika pengembang AI perbatasan lain merilis sistem risiko tinggi tanpa perlindungan yang sebanding, kami dapat menyesuaikan persyaratan kami.”
Penyesuaian kebijakan tidak dilakukan secara terpisah. Itu datang hanya beberapa hari setelah laporan muncul, menuduh bahwa Openai secara signifikan mengompresi waktu yang dialokasikan untuk pengujian keselamatan pada model yang akan datang seperti O3. Berbagai sumber yang akrab dengan operasi mengklaim periode evaluasi menyusut dari bulan ke kadang-kadang di bawah seminggu, konon didorong oleh kebutuhan untuk mengimbangi pesaing seperti Google, Meta, dan XAI. Akselerasi yang dilaporkan ini menyebabkan kegelisahan di antara beberapa penguji yang terlibat. Salah satu sumber yang bekerja pada evaluasi O3 mengatakan kepada FT bahwa pendekatan itu terasa”ceroboh,”menguraikan,”tetapi karena ada lebih banyak permintaan untuk itu, mereka menginginkannya lebih cepat. Saya harap ini bukan langkah salah besar, tetapi ceroboh. Ini adalah resep untuk bencana.”Orang lain yang berpartisipasi dalam evaluasi enam bulan yang lebih lama untuk GPT-4 pada tahun 2023 dilaporkan menyatakan, “Mereka sama sekali tidak memprioritaskan keselamatan publik sama sekali.” Metodologi pengujian khusus juga mendapat kecaman. Kekhawatiran muncul mengenai tingkat evaluasi penyempurnaan-sebuah teknik yang digunakan untuk menyelidiki kemampuan yang muncul yang berbahaya dengan model pelatihan pada data khusus (seperti virologi). Para kritikus, termasuk mantan peneliti keselamatan Openai Steven Adler, menunjukkan kurangnya hasil penyempurnaan yang diterbitkan untuk model terbaru dan paling mampu perusahaan seperti O1 atau O3-Mini. Adler, menyarankan kepada Financial Times bahwa”tidak melakukan tes semacam itu bisa berarti Openai dan perusahaan AI lainnya meremehkan rekan-rekan terburuk dari mereka. Praktik mengevaluasi versi model menengah, atau”pos pemeriksaan,”alih-alih kode akhir yang dirilis juga dipertanyakan. “Ini adalah praktik yang buruk untuk merilis model yang berbeda dari yang Anda evaluasi,” mantan anggota staf teknis Openai berkomentar kepada FT. Defending the company’s process, OpenAI’s head of safety systems, Johannes Heidecke, asserted to the publication, “We have a good balance of how fast we move and how thorough we are,”attributing efficiency to automation efforts and stating that tested checkpoints were fundamentally the same as final releases. The backdrop for Diskusi kebijakan keselamatan ini mencakup pipa produk Openai sendiri yang berkembang. Pada tanggal 4 April 2025, CEO Sam Altman mengumumkan melalui x/a> aing-mon”target”_ _ blank”> mengumumkan melalui x/a> A”PLAN-PLANET”Target=”_ blank”> mengumumkan melalui x/a> aing-mon”target”_ _ blank”> mengumumkan melalui x/a> A”PLAN-PLANET”Target=”_ blank”> mengumumkan melalui x/a> A”PLAN-PLANEing”Target=”_ blank”> mengumumkan melalui x/a> A”PLANET”Target=”_ blank”> mengumumkan melalui x/A>”Mungkin dalam beberapa minggu,”sementara debut GPT-5 akan ditunda oleh”beberapa bulan.”Alasan utama yang diberikan adalah niat untuk”memisahkan model penalaran dan model obrolan/penyelesaian,”menandai perubahan dari rencana sebelumnya yang dibahas pada Februari 2025 untuk berpotensi menggabungkan kemampuan ke dalam GPT-5. Penyesuaian strategis ini membawa model O3, yang menjadi pusat perhatian pengujian keselamatan baru-baru ini, ke garis depan langsung dari jadwal rilis Openai. Meskipun berpotensi memungkinkan lebih banyak kelonggaran dalam prosedur keselamatan internal melalui klausa baru kerangka kerja, OpenAI secara bersamaan mengeksplorasi kontrol yang lebih ketat atas siapa yang dapat mengakses teknologi yang paling canggih. Seperti yang kami laporkan sekitar 14 April, perusahaan adalah mempertimbangkan proses”organisasi terverifikasi”. Ini dapat mengharuskan organisasi yang mencari akses API ke model masa depan seperti O3 atau GPT-4.1 yang diantisipasi untuk memverifikasi identitas mereka menggunakan ID yang dikeluarkan pemerintah. Openai menyarankan ini bertujuan untuk melawan penyalahgunaan oleh”minoritas kecil,”tetapi proposal tersebut menimbulkan kekhawatiran dari pengembang tentang peningkatan gesekan, privasi data, dan pengecualian potensial, terutama bagi mereka yang berada di luar Tekanan industri dan dinamika internal
Harapan keuangan yang sangat besar seputar OpenAi, dipadatkan dengan penilaian $ 300 miliar yang dilaporkan pada 1 April, membentuk bagian signifikan dari konteks kompetitif. Penilaian ini dihasilkan dari penawaran tender yang memungkinkan orang dalam untuk menjual saham, daripada masuknya modal operasi baru, berpotensi memperkuat tekanan untuk memberikan produk yang layak secara komersial dengan cepat. Investasi substansial perusahaan dalam infrastruktur komputasi, dibuktikan dengan kesepakatan $ 11,9 miliar dengan Coreweave dan partisipasi dalam proyek Multi-Fase Stargate, lebih lanjut menyoroti skala dan biaya operasi di perbatasan AI. Ketidaksetujuan internal mengenai prioritas keamanan versus kecepatan pengembangan bukan untuk organisasi. Kepergian Jan Leike, mantan lead tim superalignment yang berfokus pada risiko jangka panjang, pada Mei 2024 ditandai dengan pernyataan publiknya bahwa”budaya dan proses keselamatan telah mengambil kursi belakang untuk produk-produk mengkilap.” Langkah selanjutnya ke pesaing antropik yang tidak terurai dengan ketegangan ini. Baru-baru ini, menambah perspektif internal, sekelompok mantan karyawan OpenAI mengajukan brief amicus pada 11 April 2025, untuk mendukung gugatan yang sedang berlangsung Elon Musk terhadap perusahaan. Brief berpendapat bahwa pergeseran Openai ke arah struktur laba tertutup dapat membahayakan komitmen keselamatan aslinya. Pembaruan kerangka kerja Openai, khususnya potensinya untuk menyesuaikan standar berdasarkan perilaku pesaing, berbeda dengan pengumuman baru-baru ini dari beberapa saingan. Google Deepmind mengusulkan kerangka keselamatan AGI global pada 3 April, menyerukan kerjasama internasional. Antropik, sementara itu, telah mempublikasikan upaya keselamatan teknis seperti kerangka kerja interpretabilitasnya, meskipun perusahaan juga menghadapi pengawasan karena dilaporkan menghilangkan beberapa komitmen keselamatan sukarela sebelumnya. Ketika kerangka kerja regulasi seperti UU AI UE mulai memberikan pengaruh, pendekatan revisi Openai memperkenalkan variabel baru dalam bagaimana laboratorium terkemuka dapat mengelola risiko AI di arena yang semakin kompetitif. iklim akselerasi dan pengawasan
Strategic Shifts and Stricter Access Controls