CEO OpenAI Sam Altman telah mengisyaratkan rekalibrasi ulang yang signifikan dari pandangannya tentang peraturan AI selama sidang komite perdagangan Senat pada 8 Mei 2025.
Altman memperingatkan bahwa memaksakan pemerintahan yang ketat di bidang pimpinan yang cepat di bidangnya. Posisi ini terutama kontras dengan kesaksiannya yang Mei 2023, di mana ia telah menganjurkan untuk penciptaan agen federal baru untuk melisensikan dan menguji AI tingkat lanjut, menyebutnya rekomendasi’nomor satu’nya untuk memastikan keamanan AI.
Penekanannya saat ini adalah penekanan yang dipimpin industri dan pendekatan yang lebih terkendali terhadap intervensi pemerintah, sikap penekanan yang ada di industri yang dipimpin oleh Industri dan pendekatan yang lebih terkendali pada intervensi pemerintah, sikap penekanan yang ada di Industri dan pengaruh yang dipimpin oleh Industry dan sebuah pendekatan yang lebih terbatas pada intervensi pemerintah, sikap penekanan yang ada di Industri dan penasihat yang dipimpin oleh Industri dan pendekatan yang lebih tertahan pada intervensi pemerintah, sebuah sikap penandatanganan yang ada di Industri dan pendekatan yang dipimpin oleh Industry dan sebuah pendekatan yang lebih terbatas pada intervensi Pemerintah, sikap penekanan yang ada di Industri, yang ada di Industri dan pendekatan Tech Intervensi Pemerintah, Sikap Pandangan Landasan yang ada di Industri dan Pendekatan Teknik dalam Intervensi Pemerintah, Sikap Pemberian Luas Untuk kerangka peraturan’sentuhan ringan’untuk mendorong inovasi dan mempertahankan keunggulan kompetitif, terutama terhadap Cina.

Pada sidang, Altman lebih lanjut mengklarifikasi posisinya tentang peran tubuh seperti presidor nasional dan teknologi yang tidak bermanfaat,”Saya tidak perlu mengutamakannya. [Konten Tertanam]
Konteks politik dan industri yang lebih luas semakin membingkai pembangunan AI melalui prisma kompetisi internasional dan keamanan nasional. Senator Ted Cruz (R-Texas), memimpin persidangan, menggarisbawahi hal ini dengan menyatakan AS”tidak dapat mengizinkan peraturan, bahkan jenis yang seharusnya jinak, untuk mencekik inovasi dan adopsi”dan mengumumkan rencana untuk memperkenalkan tagihan yang menciptakan’kotak pasir peraturan untuk AI,’menurut pendengaran Senat . href=”https://lk.usembassy.gov/remarks-by-vice-president-vance-at-the-arttificial-intelligence-ai-action-mummit/”target=”_ kosong”yang diumumkan oleh Wakil Presiden JD Vance di KTT Paris , yang mendeklarasikannya,”yang akan diumumkan oleh Wakil Presiden di Paris Summit , yang mendeklarasikannya,”THE THE NOW GOOD OLEH PDAN DI SUMIT PARIS Pendekatan ini menandai keberangkatan dari strategi administrasi Biden, yang termasuk perintah eksekutif yang mengamanatkan tes keselamatan AI, yang kemudian dicabut oleh Presiden Trump. Administrasi Trump sejak itu telah mengeluarkan bimbingan baru TUJUAN AIM-PROCUREMENT-OF-OF”Target=”_ Blank”> New Guidance TUJUAN AIM-PROCUREMENT-OF-AIR=”_ Blank”> New Guidance TUJUAN AIM-PROCUREMENT-OF-OF”Target=”_ Blank”> New Guidance TUJUAN AIM-PROCUREMENT”BUKU BARU Detail oleh Wilmerhale.
AI industri menavigasi seruan peraturan yang bergeser
Sam Altman’s seruan industri untuk memimpin dalam mendefinisikan standar AI, sementara kebobolan bahwa”tidak, saya pikir beberapa kebijakan baik, tetapi saya pikir itu mudah untuk itu untuk terlalu jauh. Dia secara khusus menggambarkan tindakan Uni Eropa Uni Eropa yang komprehensif sebagai”bencana.”
Pandangan ini beresonansi dengan eksekutif teknologi lainnya, termasuk Presiden Microsoft Brad Smith, yang, meskipun ada panggilan sebelumnya untuk agen AI federal yang berdedikasi, sekarang mendukung kerangka kerja’sentuhan ringan’. Sikap yang berkembang juga tercermin dalam perubahan kebijakan di laboratorium AI utama; DeepMind Google, misalnya, membatalkan janji yang telah lama dipegang pada Februari 2025 terhadap pengembangan AI untuk persenjataan atau pengawasan, dan Openai, Meta, dan Anthropic juga telah memperbarui kebijakan mereka tentang proyek militer.
Namun, dorongan ini untuk berkurangnya kritik yang berkurang-berkurang dengan kritik. Rumman Chowdhury, a former State Department science envoy for AI, suggested to The Washington Post that the tech industry’s earlier focus on existential AI risks functioned as a “bait and Beralih,”Mengalihkan fokus dari bahaya langsung dan memanfaatkan masalah keamanan nasional untuk menghindari peraturan yang kuat.
Tekanan internal di Openai mengenai komitmen keselamatannya juga telah muncul. Jan Leike, mantan co-lead tim superalignment Openai, mengundurkan diri pada Mei 2024, secara terbuka menyatakan bahwa”budaya dan proses keselamatan telah mengambil kursi belakang ke produk-produk mengkilap”, seperti yang dilaporkan WinBuzzer. Ini mengikuti pembubaran tim superalignment, yang didirikan pada Juli 2023 untuk fokus pada risiko AI jangka panjang. Menanggapi dinamika internal ini, Sam Altman mengakui pada Mei 2024 bahwa Openai memiliki”lebih banyak hal yang harus dilakukan”tentang keselamatan.
Baru-baru ini, pada bulan April 2025, OpenAI memperbarui pedoman keselamatan internalnya, memperkenalkan ketentuan yang dapat memungkinkan perusahaan untuk menyesuaikan persyaratan keamanannya jika pesaing merilis sistem Rekrumasi tinggi tanpa perbandingan. Langkah ini datang tak lama setelah laporan muncul bahwa OpenAI secara signifikan mengurangi waktu pengujian keselamatan untuk model-model barunya, seperti O3, dari bulan ke bulan ke bawah seminggu, mendorong kekhawatiran dari penguji, salah satunya menggambarkan pendekatan tersebut sebagai”ceroboh,”.
Menyimpan Inovasi, Keselamatan, dan Kepercayaan Publik
Menyeimbangkan inovasi, keselamatan, dan kepercayaan publik
p> power. Sementara OpenAI memiliki pendekatan teknis yang terperinci seperti’penyelarasan deliberatif’untuk menanamkan penalaran keselamatan ke dalam modelnya, dan telah menyatakan penelitiannya tentang persuasi AI bertujuan untuk memastikan AI tidak menjadi terlalu efektif, seperti yang ditanggung dalam studi persuasi AI Openai, tindakan Bahan Bakar Perusahaan, seperti pengunduran diri Altman pada September 2024 dari Dewan Keselamatan dan Keamanan Openai, telah menyalakan dewan keamanan, Altman. Mantan staf Openai bahkan menuduh Altman menolak peraturan AI yang efektif demi kebijakan yang melayani kepentingan bisnis perusahaan.
Laboratorium AI lainnya juga menavigasi medan yang kompleks ini. Antropik, misalnya, meluncurkan kerangka kerja interpretabilitas pada bulan Maret 2025 untuk membuat penalaran Claude AI lebih transparan, dan juga menyerahkan rekomendasi kepada Gedung Putih yang mendesak pengujian keamanan nasional sistem AI.
Namun, perusahaan juga dilaporkan menghapus beberapa janji keselamatan sukarela yang dibuat di bawah inisiatif Gedung Putih sebelumnya. Ini menyoroti perusahaan tari AI yang rumit yang melakukan antara mengadvokasi jenis tata kelola tertentu dan mempertahankan fleksibilitas operasional.
Konteks yang lebih luas mencakup risiko yang sangat nyata yang ditunjukkan oleh AI, seperti penelitian baru-baru ini yang menunjukkan AI mengungguli pakar manusia dalam pemecahan masalah lab virologi, meningkatkan kekhawatiran ganda tentang bioweapon. Selain itu, kerentanan keamanan baru dalam alat AI yang banyak digunakan, seperti kopilot Microsoft untuk SharePoint, terus muncul, menyoroti risiko langsung bahkan ketika seruan untuk peraturan yang lebih ringan meningkat.
mendefinisikan masa depan tata kelola AI yang ada
samon altman 202. Superhuman di General Intelligence”tampaknya sangat menonjol karena ia sekarang menganjurkan untuk lebih banyak kebebasan industri. His previous call for a licensing agency and pre-release testing stands in stark contrast to his current emphasis on avoiding regulations that could ‘choke innovation.’
This evolution in his public stance occurs as the U.S. government itself, under a new administration, signals a preference for accelerating AI development to compete globally, particularly with China, a concern also voiced by other tech leaders like Scale AI’s Alexandr Wang, who has described Dukungan AI Militer sebagai”keharusan moral.”
Sementara Altman menyarankan bahwa masalah-masalah kompleks seperti privasi mewakili”ini adalah area abu-abu… bagi Anda [anggota parlemen] untuk memikirkan dan menganggap dengan sangat serius.”, Pesannya yang menyeluruh sekarang bersandar pada masa depan dengan penentuan nasib sendiri dalam menetapkan standar keselamatan.
Max Tegmark Masa Depan Life Life Instance dalam Menetapkan Standar Keselamatan.
Max Tegmark Masa Depan Life Life Life dalam Menyusun Standar KRITAS.
Max Tegmark Masa Depan Life Life Life In Life Instutasi. Washington Post bahwa “Jika ada toko sandwich di seberang jalan dari Openai atau Anthropic atau salah satu perusahaan lain, sebelum mereka dapat menjual bahkan satu sandwich yang mereka harus memenuhi standar keselamatan untuk dapur mereka. Jika [perusahaan AI] ingin merilis intelijen super besok, mereka bebas untuk melakukannya.”
Ketika’zaman intelijen’terungkap, tugas penting untuk menyeimbangkan inovasi dengan keselamatan publik, dan mendefinisikan kerangka kerja tata kelola untuk AI yang semakin kuat, tidak dapat diragukan lagi akan tetap berada di garis depan wacana global.
P> p>