Dinamik yang kompetitif dalam bidang kecerdasan buatan kini kelihatan secara langsung mempengaruhi pembangunan dasar keselamatan di OpenAI. Syarikat di belakang chatgpt hanya
Ia datang hanya beberapa hari selepas laporan muncul, mendakwa bahawa Openai telah memampatkan masa yang diperuntukkan untuk ujian keselamatan pada model yang akan datang seperti O3. Sumber-sumber yang pelbagai yang biasa dengan operasi mendakwa tempoh penilaian menyusut dari bulan ke kadang-kadang di bawah seminggu, yang dikatakan didorong oleh keperluan untuk mengikuti pesaing seperti Google, META, dan XAI. Satu sumber yang bekerja pada penilaian O3 memberitahu FT pendekatan itu merasakan”melulu,”menghuraikan,”tetapi kerana terdapat lebih banyak permintaan untuknya, mereka menginginkannya lebih cepat, saya harap ia bukan mis-step yang bencana, tetapi ia melulu. Ini adalah resipi untuk bencana.”Satu lagi yang mengambil bahagian dalam penilaian enam bulan yang lebih lama untuk GPT-4 pada tahun 2023 dilaporkan menyatakan,”Mereka tidak mengutamakan keselamatan awam sama sekali.”
Kaedah ujian khusus juga dibakar. Kebimbangan telah dibangkitkan mengenai sejauh mana penilaian penalaan halus-teknik yang digunakan untuk menyiasat keupayaan muncul yang berbahaya oleh model latihan pada data khusus (seperti virologi). Pengkritik, termasuk bekas penyelidik keselamatan terbuka Steven Adler, menunjukkan kekurangan hasil penalaan yang diterbitkan untuk model terbaru, yang paling berkebolehan seperti O1 atau O3-Mini. Amalan menilai versi model pertengahan, atau”pusat pemeriksaan,”bukan kod akhir yang dikeluarkan juga dipersoalkan.”Adalah amalan yang buruk untuk melepaskan model yang berbeza daripada yang anda menilai,”seorang bekas ahli kakitangan Teknikal Terbuka mengulas FT. Mempertahankan proses syarikat, Ketua Sistem Keselamatan Openai, Johannes Heidecke, menegaskan kepada penerbitan,”Kami mempunyai keseimbangan yang baik tentang seberapa cepat kami bergerak dan bagaimana kami,”Latar belakang untuk perbincangan dasar keselamatan ini termasuk saluran paip produk OpenAI sendiri yang berkembang. Pada 4 April 2025, Ketua Pegawai Eksekutif Sam Altman Memandangkan proses”disahkan organisasi”. Ini memerlukan organisasi yang mencari akses API ke model masa depan seperti O3 atau GPT-4.1 yang dijangkakan untuk mengesahkan identiti mereka menggunakan ID yang dikeluarkan oleh kerajaan. Openai mencadangkan ini bertujuan untuk mengatasi penyalahgunaan oleh”minoriti kecil,”tetapi cadangan itu menimbulkan kebimbangan daripada pemaju mengenai peningkatan geseran, privasi data, dan pengecualian yang berpotensi, terutama bagi mereka yang berada di luar