Dinamika kompetitif dalam bidang kecerdasan buatan sekarang tampaknya secara langsung memengaruhi pengembangan kebijakan keselamatan di OpenAI. Perusahaan di balik chatgpt Just memperbarui pedoman keselamatan internal jika tidak ada sistem yang kuat. Revisi kerangka kesiapsiagaan ini muncul sebagai perusahaan, yang sekarang bernilai $ 300 miliar setelah putaran investasi yang dipimpin Softbank utama, menavigasi persaingan pasar yang intens dan meningkatnya pengawasan atas prosedur evaluasi untuk model AI canggih, seperti Seri Potensi yang akan datang. It establishes specific ‘Tracked Categories’ for monitoring known risks like misuse in biology, chemistry, and cybersecurity, alongside forward-looking ‘Research Categories’ exploring areas like long-range autonomy and autonomous replication.

The framework also defines ‘High’ and ‘Critical’ capability thresholds which trigger specific safety reviews and safeguard implementation requirements, overseen by an internal Safety Advisory Group (Sag). Namun, perubahan yang paling menarik perhatian adalah klausul yang secara langsung menangani lingkungan kompetitif. Pengumuman OpenAI berbunyi:”Jika pengembang AI perbatasan lain merilis sistem risiko tinggi tanpa perlindungan yang sebanding, kami dapat menyesuaikan persyaratan kami.”

iklim akselerasi dan pengawasan

Penyesuaian kebijakan tidak dilakukan secara terpisah. Itu datang hanya beberapa hari setelah laporan muncul, menuduh bahwa Openai secara signifikan mengompresi waktu yang dialokasikan untuk pengujian keselamatan pada model yang akan datang seperti O3. Berbagai sumber yang akrab dengan operasi mengklaim periode evaluasi menyusut dari bulan ke kadang-kadang di bawah seminggu, konon didorong oleh kebutuhan untuk mengimbangi pesaing seperti Google, Meta, dan XAI.

Akselerasi yang dilaporkan ini menyebabkan kegelisahan di antara beberapa penguji yang terlibat. Salah satu sumber yang bekerja pada evaluasi O3 mengatakan kepada FT bahwa pendekatan itu terasa”ceroboh,”menguraikan,”tetapi karena ada lebih banyak permintaan untuk itu, mereka menginginkannya lebih cepat. Saya harap ini bukan langkah salah besar, tetapi ceroboh. Ini adalah resep untuk bencana.”Orang lain yang berpartisipasi dalam evaluasi enam bulan yang lebih lama untuk GPT-4 pada tahun 2023 dilaporkan menyatakan, “Mereka sama sekali tidak memprioritaskan keselamatan publik sama sekali.”

Metodologi pengujian khusus juga mendapat kecaman. Kekhawatiran muncul mengenai tingkat evaluasi penyempurnaan-sebuah teknik yang digunakan untuk menyelidiki kemampuan yang muncul yang berbahaya dengan model pelatihan pada data khusus (seperti virologi). Para kritikus, termasuk mantan peneliti keselamatan Openai Steven Adler, menunjukkan kurangnya hasil penyempurnaan yang diterbitkan untuk model terbaru dan paling mampu perusahaan seperti O1 atau O3-Mini.

Adler, menyarankan kepada Financial Times bahwa”tidak melakukan tes semacam itu bisa berarti Openai dan perusahaan AI lainnya meremehkan rekan-rekan terburuk dari mereka. Praktik mengevaluasi versi model menengah, atau”pos pemeriksaan,”alih-alih kode akhir yang dirilis juga dipertanyakan. “Ini adalah praktik yang buruk untuk merilis model yang berbeda dari yang Anda evaluasi,” mantan anggota staf teknis Openai berkomentar kepada FT. Defending the company’s process, OpenAI’s head of safety systems, Johannes Heidecke, asserted to the publication, “We have a good balance of how fast we move and how thorough we are,”attributing efficiency to automation efforts and stating that tested checkpoints were fundamentally the same as final releases.

Strategic Shifts and Stricter Access Controls

The backdrop for Diskusi kebijakan keselamatan ini mencakup pipa produk Openai sendiri yang berkembang. Pada tanggal 4 April 2025, CEO Sam Altman mengumumkan melalui x/a> aing-mon”target”_ _ blank”> mengumumkan melalui x/a> A”PLAN-PLANET”Target=”_ blank”> mengumumkan melalui x/a> aing-mon”target”_ _ blank”> mengumumkan melalui x/a> A”PLAN-PLANET”Target=”_ blank”> mengumumkan melalui x/a> A”PLAN-PLANEing”Target=”_ blank”> mengumumkan melalui x/a> A”PLANET”Target=”_ blank”> mengumumkan melalui x/A>”Mungkin dalam beberapa minggu,”sementara debut GPT-5 akan ditunda oleh”beberapa bulan.”Alasan utama yang diberikan adalah niat untuk”memisahkan model penalaran dan model obrolan/penyelesaian,”menandai perubahan dari rencana sebelumnya yang dibahas pada Februari 2025 untuk berpotensi menggabungkan kemampuan ke dalam GPT-5. Penyesuaian strategis ini membawa model O3, yang menjadi pusat perhatian pengujian keselamatan baru-baru ini, ke garis depan langsung dari jadwal rilis Openai.

Meskipun berpotensi memungkinkan lebih banyak kelonggaran dalam prosedur keselamatan internal melalui klausa baru kerangka kerja, OpenAI secara bersamaan mengeksplorasi kontrol yang lebih ketat atas siapa yang dapat mengakses teknologi yang paling canggih. Seperti yang kami laporkan sekitar 14 April, perusahaan adalah mempertimbangkan proses”organisasi terverifikasi”. Ini dapat mengharuskan organisasi yang mencari akses API ke model masa depan seperti O3 atau GPT-4.1 yang diantisipasi untuk memverifikasi identitas mereka menggunakan ID yang dikeluarkan pemerintah. Openai menyarankan ini bertujuan untuk melawan penyalahgunaan oleh”minoritas kecil,”tetapi proposal tersebut menimbulkan kekhawatiran dari pengembang tentang peningkatan gesekan, privasi data, dan pengecualian potensial, terutama bagi mereka yang berada di luar