Qualcomm memasuki pasar pusat data AI pada hari Senin, meluncurkan chip baru untuk menantang pemimpin Nvidia dan AMD. Qualcomm meluncurkan akselerator AI200 dan AI250 miliknya, yang dibuat untuk pasar inferensi AI yang sedang berkembang.

Qualcomm bertaruh pada desain dengan kapasitas memori besar untuk menawarkan biaya lebih rendah dan efisiensi tinggi kepada pelanggan. Langkah ini merupakan perubahan strategis besar bagi raksasa teknologi seluler tersebut. Investor menyambut berita tersebut dan membuat saham perusahaan naik 15%. Perangkat keras barunya akan hadir pada tahun 2026, sehingga menambah pemain baru yang kuat dalam perlombaan senjata AI.

Pertaruhan Strategis pada Pasar Inferensi AI

Memanfaatkan keahlian puluhan tahun dalam prosesor seluler berdaya rendah, Qualcomm membuat permainan yang diperhitungkan untuk pusat data. Perusahaan ini menghindari konfrontasi langsung dengan Nvidia dalam bidang pelatihan AI, pasar yang didominasi oleh raksasa GPU tersebut.

Sebaliknya, perusahaan ini menargetkan pasar inferensi yang berkembang pesat, yang melibatkan berlari model yang sudah dilatih untuk aplikasi real-time. Peralihan strategis dari fokus mobile-first merupakan perjalanan yang disengaja.

“Pertama-tama kami ingin membuktikan diri di domain lain, dan setelah kami membangun kekuatan kami di sana, cukup mudah bagi kami untuk meningkatkan level kami ke tingkat pusat data,” kata Durga Malladi, SVP & GM di Qualcomm.

Fokus pada inferensi ini adalah strategi bersama di antara para pesaing Nvidia. Intel baru-baru ini meluncurkan GPU “Crescent Island” miliknya dengan tujuan serupa. Seperti yang dijelaskan oleh CTO Intel, Sachin Katti, “AI beralih dari pelatihan statis ke inferensi real-time, di mana saja—didorong oleh AI agen.”

Pergeseran di seluruh industri ini membuka peluang bagi arsitektur baru yang memprioritaskan kinerja per watt dan menurunkan biaya operasional dibandingkan daya komputasi mentah yang diperlukan untuk pelatihan.

Untuk mendukung perangkat kerasnya, Qualcomm meluncurkan tumpukan perangkat lunak terbuka yang dirancang untuk kemudahan penerapan.

Dengan menekankan kompatibilitas tanpa batas dengan AI utama kerangka kerja dan penerapan sekali klik untuk model dari pusat pengembang seperti Hugging Face, perusahaan ini bertujuan untuk memberikan alternatif yang layak terhadap ekosistem CUDA milik Nvidia, sehingga mengurangi hambatan bagi perusahaan dan penyedia cloud.

Memory Over Muscle: Pendekatan Berbeda pada Desain Chip

Sebagai tantangan langsung terhadap status yang berpusat pada GPU quo, akselerator baru Qualcomm memprioritaskan kapasitas dan efisiensi memori. Kartu AI200 akan menampilkan memori LPDDR 768 GB yang sangat besar.

Ini mewakili perubahan strategis dari standar memori bandwidth tinggi (HBM) yang mahal pada chip kelas atas dari Nvidia dan AMD.

Meskipun HBM menawarkan bandwidth yang unggul, namun biayanya mahal dan dapat menjadi penghambat rantai pasokan. Dengan menggunakan LPDDR, Qualcomm bertujuan untuk memuat model AI dalam jumlah besar ke dalam satu kartu, sehingga mengurangi kebutuhan transfer data yang mahal dan boros daya antar beberapa chip.

Filosofi desainnya berpusat pada penurunan total biaya kepemilikan (TCO) untuk operator pusat data. AI250 yang lebih canggih, yang direncanakan pada tahun 2027, mendorong konsep ini lebih jauh dengan tata letak komputasi yang mendekati memori.

Qualcomm mengklaim arsitektur ini dapat memberikan bandwidth memori efektif 10 kali lebih tinggi, mengatasi kemacetan yang sering kali memperlambat tugas inferensi. Menurut Durga Malladi, SVP & GM di Qualcomm, “Dengan Qualcomm AI200 dan AI250, kami mendefinisikan ulang apa yang mungkin dilakukan untuk inferensi AI skala rak.”

Qualcomm akan menawarkan teknologi ini sebagai kartu akselerator individual atau sebagai rak server berpendingin cairan yang lengkap.

Sistem rak penuh akan beroperasi pada daya 160 kilowatt, konsumsi daya yang sebanding dengan yang ada saat ini. GPU lebih unggul dari kompetitor, namun menjanjikan efisiensi yang lebih besar untuk beban kerja inferensi, sehingga berdampak langsung pada anggaran operasional pusat data.

Memasuki Bidang yang Ramai: Qualcomm vs. the Titans

Bagi penyedia cloud dan perusahaan besar, kedatangan pemasok besar lainnya dapat membawa persaingan harga dan stabilitas rantai pasokan yang disambut baik.

Selama bertahun-tahun, AI pasar perangkat keras sebagian besar didominasi oleh Nvidia, yang GPU-nya kuat dan ekosistem perangkat lunak CUDA-nya telah menjadi standar industri. Dominasi tersebut telah menciptakan kendala pasokan dan biaya tinggi, sehingga mendorong pemain besar seperti Oracle dan OpenAI untuk secara aktif mencari alternatif dari AMD dan bahkan mengembangkan silikon khusus.

Masuknya Qualcomm meningkatkan persaingan ini. Respons pasar yang antusias, termasuk lonjakan saham Qualcomm sebesar 15%, menandakan keyakinan investor yang kuat terhadap potensi perusahaan untuk memperoleh pangsa pasar yang signifikan.

Qualcomm telah mendapatkan pelanggan awal yang signifikan di Humain, Arab Saudi, yang telah berkomitmen untuk menerapkan sistem yang menggunakan daya hingga 200 megawatt.

Dengan peluncuran AI200 pada tahun 2026 dan AI250 pada tahun 2026, Pada tahun 2027, Qualcomm berkomitmen terhadap irama rilis tahunan untuk mengimbangi para pesaingnya.

Perusahaan juga menekankan fleksibilitas, memungkinkan pelanggan untuk mengintegrasikan komponen-komponennya ke dalam desain server khusus mereka sendiri.

“Apa yang kami coba lakukan adalah memastikan bahwa pelanggan kami berada dalam posisi untuk mengambil semuanya atau berkata,’Saya akan memadupadankan,'”Malladi berkata. Ketika perlombaan senjata AI terus meningkat, strategi Qualcomm yang berbeda menjadikannya pesaing baru yang tangguh dalam persaingan demi masa depan pusat data.

Categories: IT Info