Yang sudah lama ditentukan oleh heuristik tunggal, era “tambahkan saja komputasi” kini benar-benar mengalami hambatan yang semakin berkurang, pikir Ilya Sutskever.
Dari tahun 2020 hingga 2025, industri kecerdasan buatan beroperasi dengan asumsi bahwa hukum kekuasaan menentukan hasil yang dapat diandalkan.
Memasukkan lebih banyak data dan komputasi ke dalam model diharapkan secara otomatis menghasilkan hasil yang lebih cerdas. Periode tersebut, yang sekarang didefinisikan sebagai “Age of Scaling,” telah berakhir, katanya dalam wawancara terbaru dengan Dwarkesh Patel.
Sutskever, salah satu pendiri dan mantan kepala ilmuwan OpenAI yang kini menjalankan usahanya sendiri, Safe Superintelligence Inc. (SSI), adalah arsitek utama revolusi pembelajaran mendalam, dan sangat layak untuk didengarkan.
Dalam wawancaranya dengan Patel, ia secara eksplisit membatasi garis waktu industri ini menjadi dua era yang berbeda. Dia berpendapat bahwa strategi yang hanya melakukan penskalaan sebelum pelatihan sudah tidak membuahkan hasil.
“Sampai tahun 2020, dari tahun 2012 hingga 2020, adalah era penelitian. Sekarang, dari tahun 2020 hingga 2025, adalah era penskalaan… karena orang-orang berkata,’Ini luar biasa. Anda harus meningkatkan lebih banyak lagi. Teruslah melakukan penskalaan.’sangat besar. Pastinya akan berbeda. Namun apakah keyakinan bahwa jika Anda memperbesar skalanya sebanyak 100x saja, semuanya akan berubah? Menurut saya, hal tersebut tidak benar. Jadi, kita kembali ke zaman penelitian, hanya dengan komputer yang besar.”
Mendominasi dalam lima tahun terakhir, menurut Sutskever, penskalaan heuristik “menyedot semua hal di dalam ruangan”, yang menyebabkan homogenisasi strategi di semua laboratorium besar. Menurutnya, “semua orang mulai melakukan hal yang sama.”
Jelas bahwa setiap pemain besar, mulai dari OpenAI hingga Google, semuanya mengikuti kurva yang sama, dengan asumsi bahwa komputasi 100x lebih banyak akan menghasilkan kecerdasan 100x lebih banyak.
Menurut Sutskever, “Age of Research”yang baru menuntut kembalinya inovasi arsitektur daripada kekerasan.
Yann LeCun, yang masih menjabat sebagai Kepala Ilmuwan AI di Meta namun akan segera berhenti, ia berbagi pandangan ini, dengan alasan bahwa perkembangan saat ini tanpa gejala mendekati batas tertinggi dibandingkan kecerdasan super.
Dia menegaskan bahwa “kita tidak akan mencapai AI tingkat manusia hanya dengan meningkatkan LLM. Hal ini tidak akan terjadi,”katanya dalam sebuah wawancara dengan podacaster Alex Kantrowitz.
Masalah Data yang Terbatas: Mengapa’Lebih Banyak’Tidak Lagi’Lebih Baik’
Peralihan mendasar dari penskalaan ke penelitian adalah hambatan yang tidak dapat dipecahkan oleh GPU Nvidia sebanyak apa pun: sifat terbatas dari data pra-pelatihan berkualitas tinggi. Sutskever mencatat bahwa “datanya sangat terbatas,” memaksa laboratorium untuk memilih antara “pra-pelatihan yang disempurnakan” atau paradigma yang benar-benar baru.
Dan LeCun bahkan melangkah lebih jauh dengan kritik pedasnya terhadap teknologi terkini, dengan menggambarkan Model Bahasa Besar (LLM) sebagai mesin pengambilan yang canggih, bukan agen cerdas.
“Apa yang mungkin akan kita miliki adalah sistem yang dilatih pada data dalam jumlah cukup besar yang dapat pertanyaan apa pun yang mungkin ditanyakan oleh orang yang berakal sehat akan mendapatkan jawabannya melalui sistem tersebut. Dan rasanya seperti Anda sudah memiliki gelar PhD yang ada di samping Anda. Namun yang ada di samping Anda bukanlah gelar PhD, melainkan Anda yang mengetahui sistem dengan memori dan kemampuan pengambilan yang sangat besar, bukan sistem yang dapat menemukan solusi untuk masalah baru.”
Perbedaan seperti itu sangat penting untuk memahami poros industri. Sebuah “memori raksasa”pasti dapat lulus ujian dengan mengambil pola, namun tidak dapat menemukan solusi terhadap permasalahan baru.
Ia juga tidak dapat melakukan tugas yang kompleks dan multi-langkah tanpa berhalusinasi.
Menjelaskan stagnasi tersebut, kelemahan ini mencegah model untuk melakukan generalisasi di luar distribusi pelatihannya, sebuah batasan yang tidak dapat lagi ditutupi oleh penskalaan sederhana.
Dan tanpa perubahan dalam metodologi, industri berisiko menghabiskan miliaran dolar untuk membangun sedikit lebih baik pustakawan, bukan ilmuwan.
Sumber: S&P, Sparkline. Dari Kuartal 1 2015 hingga Kuartal 2 2025
Masukkan’Era Penelitian’: Fungsi Penalaran, RL, dan Nilai
Sutskever yang mendefinisikan “Era Penelitian”adalah peralihan dari Prediksi Token Berikutnya ke penalaran “Sistem 2″. Dia menunjuk pada “Value Functions”dan Reinforcement Learning (RL) sebagai garis depan baru.
Tidak seperti pra-pelatihan, yang memerlukan kumpulan data statis yang ekstensif, RL memungkinkan model untuk belajar dari jejak penalarannya sendiri, sehingga secara efektif menghasilkan datanya sendiri melalui uji coba.
Dia mengutip DeepSeek-R1 kertas sebagai contoh utama perubahan ini. Dengan memanfaatkan RL murni untuk memberi insentif pada kemampuan penalaran tanpa penyesuaian yang diawasi, model ini menunjukkan bahwa perubahan arsitektural dapat menghasilkan keuntungan yang tidak dapat diperoleh oleh skala mentah.
Mesin “Deep Think” Google pada pembaruan Gemini 3 juga mewakili pergerakan menuju “komputasi waktu pengujian”. Para insinyur bertujuan untuk menciptakan model yang dapat “berpikir”lebih lama untuk memecahkan masalah yang lebih sulit.
Dengan memungkinkan model mengeksplorasi beberapa jalur solusi sebelum merespons, laboratorium berharap dapat menembus batasan penalaran yang telah membatasi kinerja LLM saat ini.
[konten tertanam]
Tanggapan Google: Mandat’Era Inferensi’1.000x
Sementara para ilmuwan AI memperdebatkan jalur terbaik ke depan, Google sudah melakukannya memperlengkapi kembali seluruh infrastruktur fisiknya untuk menghadapi kenyataan baru ini. Presentasi internal pada tanggal 6 November mengungkapkan mandat “masa perang”: melipatgandakan kapasitas layanan AI setiap enam bulan.
Sesuai dengan mandat pertumbuhan 1.000x, target jangka panjangnya adalah peningkatan kapasitas sebesar 1.000 kali lipat pada tahun 2030.
VP Infrastruktur Amin Vahdat menggambarkan hal ini sebagai kebutuhan eksistensial, dengan menyatakan bahwa infrastruktur adalah “bagian yang paling penting dan juga paling mahal dari dunia perlombaan AI.”Yang mendorong perluasan ini bukanlah pelatihan (hambatan lama) namun “Era Inferensi.”
Model penalaran canggih seperti ChatGPT-5.1 dan Gemini 3 Pro memerlukan komputasi yang jauh lebih besar saat runtime untuk menjelajahi jalur solusi.
Tidak seperti kueri penelusuran standar yang memerlukan biaya sepersekian sen, kueri “Deep Think”di masa mendatang mungkin berjalan selama beberapa menit atau bahkan berjam-jam, sehingga menghabiskan komputasi inferensi yang besar.
Tetapi kapasitas penskalaan sebesar 1.000x menggunakan perangkat keras standar secara ekonomi tidak mungkin; efisiensi adalah satu-satunya mekanisme kelangsungan hidup. Oleh karena itu, strategi Google bergantung pada “desain bersama”, yang mengintegrasikan kebutuhan perangkat lunak langsung ke silikon khusus dengan TPU “Ironwood” barunya.
Pada saat yang sama, beban kerja tujuan umum dipindahkan ke CPU “Axion” berbasis Arm untuk menghemat anggaran daya bagi TPU yang haus daya.
Namun, Paradoks Jevons tampak besar. Prinsip ekonomi ini menyatakan bahwa peningkatan efisiensi mendorong konsumsi total lebih tinggi daripada konservasi. Ketika biaya inferensi turun, permintaan akan penalaran “Deep Think” yang kompleks akan meledak.
Akibatnya, total konsumsi energi dan belanja modal kemungkinan akan meningkat, bahkan ketika efisiensi per unit meningkat.
[konten tertanam]
Biaya OpenAI untuk Menjadi Yang Pertama
Peralihan dari penskalaan murni telah memberikan pukulan paling berat bagi petahana, OpenAI. Menyusul kejayaan DevDay 2025, perusahaan ini mengalami perubahan psikologis, beralih dari pola pikir pemenang default ke pijakan yang disiplin di masa perang.
Pergeseran ini diwujudkan dalam memo internal yang bocor dari CEO Sam Altman, yang secara eksplisit memperingatkan staf tentang “suasana buruk”dan “hambatan ekonomi yang signifikan.”
Memo tersebut menandai momen kerentanan yang jarang terjadi bagi seorang pemimpin yang dikenal dengan optimisme tanpa henti, sangat kontras dengan optimisme perusahaan. proyeksi publik tentang tak terkalahkan. Yang paling mengkhawatirkan adalah revisi perkiraan internal mengenai lintasan pertumbuhan.
Dalam skenario “bear case”, pertumbuhan pendapatan bisa anjlok hingga satu digit, khususnya 5-10%, pada tahun 2026. Hal ini akan menunjukkan perlambatan yang sangat besar dari ekspansi tiga digit yang menjadi ciri booming ChatGPT.
Yang menambah kekhawatiran terhadap pendapatan adalah tingkat pembakaran yang sangat besar yang dilakukan perusahaan. Proyeksi menunjukkan bahwa perusahaan sedang menghadapi potensi kerugian operasional sebesar $74 miliar pada tahun 2028. Dengan profitabilitas yang sebelumnya diabaikan oleh para pemimpin sebagai perhatian sekunder, fokus mendadak pada disiplin fiskal menunjukkan bahwa kesabaran investor terhadap kerugian yang tidak terbatas mungkin berkurang seiring dengan meningkatnya biaya infrastruktur.
Memo tersebut juga berisi konsesi yang jujur mengenai lanskap persaingan. Mengakui bahwa kesenjangan teknis telah tertutup, Altman mengakui kepada karyawannya bahwa perusahaan kini berada dalam posisi “mengejar ketinggalan dengan cepat.”
“Google telah melakukan pekerjaan luar biasa akhir-akhir ini dalam segala aspek,” akunya.
Secara operasional, kecemasan ini terwujud dalam tindakan perbaikan yang segera. Desas-desus tentang pembekuan perekrutan mulai beredar, menambah bobot peringatan akan adanya fase yang lebih disiplin.
Pada saat yang sama, tim teknik bergegas untuk menerapkan model baru dengan nama sandi “Shallotpeat”. Secara eksplisit ditujukan untuk memperbaiki bug yang muncul selama proses pra-pelatihan, model ini mewakili upaya penting untuk menstabilkan fondasi teknis perusahaan.
Perang Produk:’Kegembiraan’vs.’Tak Terkalahkan’
Pembaruan Gemini 3 Google telah berhasil mengubah narasi dari “mengejar ketertinggalan” menjadi “kegembiraan produk”. Pembelotan publik CEO Salesforce Marc Benioff dari ChatGPT merupakan peristiwa penting:”Saya tidak akan kembali lagi. Lompatan ini gila, penalaran, kecepatan, gambar, video… semuanya menjadi lebih tajam dan cepat,”katanya baru-baru ini.
Namun,”Lensa Skeptis”mengungkap medan perang yang terfragmentasi, bukan monopoli baru. Peluncuran Claude Opus 4.5 dari Anthropic membuktikan bahwa perlombaan masih jauh dari selesai. Model ini mendapatkan skor 80,9% pada SWE-bench VERIFIED, mengalahkan Gemini 3 Pro dan GPT-5.1.
Kebuntuan tiga arah antara OpenAI, Google, dan Anthropic membuktikan bahwa tidak ada satu lab pun yang memiliki “parit” permanen. Kecerdasan mentah tidak lagi menjadi satu-satunya pembeda, namun integrasi dan utilitas.
Kejutan Perangkat Keras: Defensif Crouch Nvidia
Dan tumpukan vertikal mahal yang diterapkan oleh para pemain ini mewakili ancaman nyata bagi Nvidia. Laporan bahwa Meta sedang bernegosiasi untuk menggunakan Google TPU membuat saham Nvidia anjlok dalam beberapa hari terakhir, meskipun pendapatannya mencapai rekor tertinggi.
Jika perusahaan hyperscaler seperti Meta dan Google dapat mengandalkan silikon mereka sendiri untuk “Age of Inference”, Nvidia mungkin akan kehilangan pelanggan terbesarnya.
Untuk keluar dari sikap diamnya, Nvidia merasa perlu untuk mengeluarkan pernyataan defensif yang mengklaim sebagai “satu generasi terdepan dalam industri”, dan bersikeras bahwa mereka memiliki “satu-satunya platform yang menjalankan setiap model AI dan melakukan hal tersebut.” di mana pun komputasi dilakukan.”
Sanggahan publik seperti itu menunjukkan kekhawatiran yang tulus terhadap komoditisasi perangkat keras AI.
Kemampuan Google untuk menawarkan TPU melalui Cloud menimbulkan serangan serius terhadap margin Nvidia, menantang asumsi bahwa GPU-nya adalah satu-satunya jalur yang memungkinkan menuju AI yang canggih.
Google Prosesor Ironwood TPU v7 (Gambar: Google)
Realitas Pasar: Gelembung atau Metamorfosis?
Saat menyandingkan ketakutan “AI Bubble”dengan belanja modal yang signifikan mendefinisikan momen saat ini, Sundar Pichai telah mengakui adanya “elemen irasionalitas” di pasar, sekaligus mewajibkan pertumbuhan 1.000x.
Bukannya kontradiksi, hal ini mewakili sebuah kalkulasi: “Era of Gelembung penskalaan sudah mulai meledak, namun perekonomian “Era Inferensi” baru saja dimulai.
Pemenang fase berikutnya adalah mereka yang mampu mempertahankan biaya penelitian dan pengembangan yang besar pada “Zaman Penelitian” berikutnya di bidang AI.
Perusahaan yang hanya mengandalkan perangkat keras siap pakai dan data publik (panduan tahun 2020) akan menghadapi kepunahan. Masa depan akan menjadi milik mereka yang dapat membangun keseluruhan tumpukan, mulai dari chip hingga sistem operasi.