Koalisi beragam yang terdiri lebih dari 800 tokoh masyarakat, termasuk peraih Nobel, keluarga kerajaan Inggris, dan “bapak baptis”AI modern, menandatangani pernyataan pada hari Rabu yang menyerukan penghentian global terhadap pengembangan “superintelligence”.
Mengutip risikonya mulai dari keusangan manusia hingga kepunahan total, para penandatangan menuntut pelarangan penciptaan AI yang melampaui kemampuan kognitif manusia hingga dapat terbukti aman, terkendali, dan mendapat dukungan masyarakat luas.
Upaya ini, yang diselenggarakan oleh Future of Life Institute (FLI), dilakukan di tengah perlombaan teknologi yang semakin ketat. Hal ini mempertemukan para pakar yang peduli dengan momentum besar finansial dan politik yang mendorong kemajuan AI.
Koalisi Luas Membunyikan Alarm
Penyelenggara pernyataan tersebut menunjukkan adanya keterputusan yang mencolok antara ambisi industri teknologi dan keinginan publik.
Survei nasional FLI baru-baru ini terhadap 2.000 orang dewasa di AS menemukan bahwa 73% menginginkan regulasi yang kuat mengenai AI tingkat lanjut. Selain itu, 64% responden percaya bahwa AI yang bersifat manusia super tidak boleh dikembangkan sampai terbukti aman atau tidak boleh diciptakan sama sekali.
Hanya 5% orang Amerika yang mendukung status quo pembangunan yang cepat dan tidak diatur saat ini.
Anthony Aguirre, Direktur Eksekutif di FLI, menyatakannya dengan blak-blakan dalam sebuah wawancara dengan NBC News: “Ini bukan yang diinginkan publik. Mereka tidak ingin berlomba untuk ini.”
Sentimen ini juga diamini oleh pionir AI, Yoshua Bengio, yang menandatangani pernyataan tersebut dan menambahkan, “Kita juga perlu memastikan masyarakat memiliki suara yang lebih kuat dalam pengambilan keputusan yang akan membentuk masa depan kita bersama.”
Daftar para penandatangan terkenal karena banyaknya daftar yang menjembatani kesenjangan politik dan budaya yang mendalam.
Salah satu pendiri Apple Steve Wozniak, Richard dari Virgin Group Branson, dan mantan Ketua Kepala Staf Gabungan Mike Mullen menandatangani perjanjian tersebut, begitu pula tokoh media konservatif Glenn Beck dan Steve Bannon.
Mereka bergabung dengan Pangeran Harry dan Meghan Markle, aktor Joseph Gordon-Levitt, dan mantan Presiden Irlandia Mary Robinson. Mungkin yang paling penting, daftar tersebut mencakup pemenang Turing Award Geoffrey Hinton dan Yoshua Bengio, yang karya dasarnya memungkinkan terjadinya ledakan AI saat ini.
Partisipasi mereka memberikan kredibilitas ilmiah yang besar terhadap peringatan tersebut. Penulis Yuval Noah Harari, salah satu penandatangan, memperingatkan, “Kecerdasan super kemungkinan akan menghancurkan sistem operasi peradaban manusia – dan hal ini sama sekali tidak diperlukan.”
Opini Publik vs. Ambisi Industri
Sementara raksasa teknologi menghabiskan miliaran dolar untuk bersaing demi supremasi AI, pernyataan tersebut berpendapat bahwa tujuan akhir masih terlalu jauh.
Aktor dan penulis Sir Stephen Fry berkomentar, “Secara definisi, hal ini akan menghasilkan kekuatan yang tidak dapat kita pahami atau kendalikan.”
Kekhawatiran mengenai kendali ini merupakan inti perdebatan, mencerminkan ketakutan yang sebelumnya disuarakan oleh mantan orang dalam OpenAI yang memperingatkan akan laju perkembangan yang sangat pesat.
Ironisnya, bahkan para pemimpin perusahaan yang membangun sistem ini pun menyuarakan ketakutan serupa. Entri blog tahun 2015 dari CEO OpenAI Sam Altman, jauh sebelum peluncuran ChatGPT, menyatakan, “Perkembangan kecerdasan mesin manusia super (SMI) mungkin merupakan ancaman terbesar bagi kelangsungan keberadaan umat manusia.”
Demikian pula, Anthropic CEO Dario Amodei secara terbuka memperkirakan, “Saya pikir ada 25% kemungkinan segalanya akan menjadi sangat, sangat buruk.”
CEO Anthropic Dario Amodei kini mengatakan P(Doom)-nya adalah 25%.https://t.co/lAinvcaYUh
— Calum Chace (@cccalum) 19 September 2025
CEO Microsoft AI Mustafa Suleyman juga mengatakan, “Sampai kita dapat membuktikan dengan tegas bahwa teknologi ini [aman], kita tidak boleh menciptakannya.”
Perlombaan yang Tak Terhentikan untuk Supremasi AI
Meskipun ada hambatan internal peringatan, perlombaan korporasi dan nasional menuju superintelligence terus berlanjut.
Meta secara eksplisit menamai divisi barunya “Meta Superintelligence Labs”, yang menandakan tujuan perusahaannya. Dorongan ini didorong oleh investasi keuangan yang sangat besar.
Menurut perkiraan Gartner, pengeluaran perusahaan untuk AI diproyeksikan mencapai $1,5 triliun pada tahun 2025.
OpenAI saja menghasilkan pendapatan sebesar $4,3 miliar pada paruh pertama tahun 2025, yang menunjukkan besarnya aliran modal ke sektor ini.
Momentum ini diperkuat oleh kebijakan nasional. Rencana Aksi AI pemerintahan Trump, yang diumumkan pada bulan Juli, memprioritaskan penghapusan hambatan peraturan untuk mempercepat pembangunan dan mempertahankan keunggulan strategis dibandingkan Tiongkok.
Perbatasan yang Terlalu Jauh? Perdebatan Mengenai Risiko Eksistensial
Tidak semua pakar AI setuju dengan peringatan mengerikan ini. Kepala Ilmuwan AI Meta, Yann LeCun, telah menjadi kritikus vokal terhadap apa yang dianggapnya mengkhawatirkan skenario “malapetaka”.
Dia menolak gagasan pengambilalihan AI yang tidak terkendali, dan malah membayangkan masa depan “penguat kecerdasan”di mana sistem AI meningkatkan kemampuan manusia dibandingkan menggantikannya.
Perspektif ini menunjukkan bahwa risiko dapat dikelola dan bahwa manfaat AI yang kuat, mulai dari penyembuhan penyakit hingga penyelesaian perubahan iklim, terlalu signifikan untuk diabaikan. ketakutan.
Pandangan LeCun mewakili kesenjangan filosofis yang signifikan dalam komunitas AI, yang menggambarkan perdebatan antara pengelolaan yang hati-hati dan inovasi yang ambisius dan tidak terkekang.
Pada akhirnya, pernyataan tersebut memaksa perbincangan publik tentang masa depan umat manusia di era mesin yang semakin canggih. Penyelenggaranya berpendapat bahwa keputusan untuk menciptakan spesies penerus potensial tidak boleh diserahkan kepada segelintir eksekutif dan peneliti teknologi.
Profesor Berkeley dan penandatangan Stuart Russell menyusun proposal tersebut bukan sebagai larangan Luddite tetapi sebagai tindakan pengamanan yang masuk akal.
“Ini bukan larangan atau bahkan moratorium dalam pengertian biasa. Ini hanyalah sebuah proposal yang memerlukan langkah-langkah keamanan yang memadai untuk sebuah teknologi yang… memiliki peluang besar untuk menyebabkan kepunahan manusia.”
Seiring dengan kemajuan teknologi, pertanyaan utamanya adalah apakah umat manusia dapat mengerem cukup lama untuk memastikan teknologi tetap menjadi penentu.