Microsoft tampaknya sedang mengembangkan perangkat lunak baru untuk menjalankan perangkat lunak AI NVIDIA pada chip AMD yang lebih murah, menurut komentar dari seorang karyawan yang muncul minggu ini.

Memotong beban kerja AI yang berbiaya tinggi, juga dikenal sebagai inferensi, akan secara langsung menantang dominasi NVIDIA yang telah lama dipegang.

Alat tersebut dilaporkan akan bekerja dengan mengkonversi kode dari platform CUDA milik NVIDIA ke format ROCm sumber terbuka AMD. Jika benar, strategi ini akan mencerminkan tren industri yang lebih luas, karena raksasa teknologi seperti Oracle dan OpenAI meningkatkan ketergantungan mereka pada perangkat keras AMD untuk mendorong persaingan.

Senjata Rahasia Melawan Dominasi AI NVIDIA?

Klaim mengenai toolkit baru ini berasal dari transkrip yang beredar online yang, meskipun belum dikonfirmasi oleh Microsoft, tampaknya berasal dari Third Bridge Forum, sebuah jaringan pakar terkemuka yang menyediakan wawancara berbayar untuk klien institusional.

Di dalamnya, seorang individu anonim yang dianggap sebagai pakar Microsoft menuduh perusahaan tersebut secara aktif berupaya menjembatani kesenjangan antara perangkat lunak milik NVIDIA dan perangkat keras pesaingnya.

Dalam transkrip yang dibagikan melalui tangkapan layar di X, pembicara mengklaim adanya proyek internal yang dirancang untuk mengatasi tantangan ini langsung.

“Selama tiga hingga empat bulan terakhir, ada lebih banyak minat dalam menghemat biaya dengan inferensi. Kami membangun beberapa toolkit untuk membantu mengkonversi model seperti CUDA ke ROCm sehingga Anda dapat menggunakannya pada AMD, seperti 300X.

Kami memiliki banyak pertanyaan tentang jalur kami dengan AMD, 400X, dan 450X. Kami secara aktif bekerja sama dengan AMD untuk melihat hal tersebut bagaimana cara memaksimalkannya. Tantangan terbesar yang saya katakan sedang kita hadapi saat ini, terutama dengan server yang lebih baru, hanyalah mencari tahu kepadatan di rak dan mendapatkan cairan pendingin di rak.”

Postingan Alledged Third Bridge Forum (Sumber: @Jukanlosreve/X)

Perangkat seperti itu akan secara efektif bertindak sebagai lapisan terjemahan, memungkinkan model AI yang awalnya dibuat untuk ekosistem NVIDIA untuk berjalan di perangkat keras AMD tanpa memerlukan penulisan ulang yang lengkap dan mahal.

Untuk Selama bertahun-tahun, platform CUDA NVIDIA telah menjadi alat yang ampuh sekaligus sangkar emas bagi pengembang AI. Sebagai platform komputasi paralel yang perpustakaannya kuat menjadikannya standar industri, CUDA telah menciptakan “parit” kuat yang menyulitkan pesaing untuk memperoleh pangsa pasar.

Jika benar, upaya Microsoft akan menjadi serangan langsung terhadap parit tersebut. Meskipun ROCm AMD adalah alternatif sumber terbuka yang mumpuni, jalur konversi yang andal akan memungkinkan pelanggan Microsoft Azure mendapatkan manfaat biaya perangkat keras AMD tanpa meninggalkan lingkungan CUDA yang sudah dikenal.

Opsi untuk menjalankan CUDA dengan chip AMD sudah tersedia, seperti rantai alat GPGPU SCALE. Namun, hilangnya efisiensi akibat konversi terus menjadi kendala yang tampaknya ingin diatasi oleh Microsoft.

Permainan yang Menghemat Biaya untuk Boom Inferensi AI

Didorong oleh membengkaknya biaya operasi AI, raksasa teknologi kini secara agresif melakukan langkah-langkah penghematan biaya. Pembicara dalam transkrip tersebut menekankan bahwa motivasi utama di balik dugaan toolkit ini adalah finansial, terutama untuk tahap inferensi AI, di mana model terlatih diterapkan.

Seiring dengan layanan AI yang menjangkau jutaan pengguna, inferensi menyumbang sebagian besar biaya operasional.

Meningkatnya minat terhadap efisiensi biaya membuat harga GPU AMD yang lebih kompetitif menjadi alternatif yang menarik dibandingkan perangkat keras NVIDIA dengan harga premium, asalkan hambatan perangkat lunak dapat diatasi.

Selain perangkat lunak dan chip biaya, kendala fisik pusat data menjadi hambatan yang kritis. Sumber dalam transkrip menyatakan bahwa tantangan mendasar bukan lagi sekedar menyediakan listrik yang cukup namun juga mengelolanya secara efektif.

Fokusnya pada kepadatan daya dan pendingin cair menyoroti besarnya permintaan akan akselerator AI generasi mendatang.

Dorongan Seluruh Industri untuk Mematahkan Kendali CUDA

Strategi Microsoft yang diduga akan selaras dengan dorongan signifikan di seluruh industri untuk mengembangkan rantai pasokan perangkat keras AI yang lebih kompetitif. Bagi NVIDIA, yang kepemimpinan pasarnya dibangun berdasarkan perangkat lunak dan silikon, tren ini merupakan ancaman jangka panjang.

Oracle, pemain kunci dalam infrastruktur cloud, baru-baru ini mengumumkan kemitraan besar untuk menerapkan 50.000 chip AMD AI. Karan Batta, Senior Vice President Oracle Cloud, secara eksplisit menekankan pentingnya alternatif ini untuk beban kerja yang sensitif terhadap biaya.

Laboratorium penelitian AI terkemuka, OpenAI, juga mengambil langkah tegas untuk mendiversifikasi fondasi komputasinya. OpenAI menjalin perjanjian definitif senilai multi-miliar dolar dengan AMD untuk menggunakan 6 gigawatt GPU-nya.

Kemitraan ini mencakup jaminan unik hingga 160 juta lembar saham, yang dapat memberi OpenAI sekitar 10% saham ekuitas di pembuat chip tersebut, sehingga sangat menyelaraskan tujuan mereka.

Tren “koopetisi” tersebut meluas bahkan ke para pesaing bersejarahnya. Intel sedang dalam pembicaraan untuk memproduksi chip untuk AMD, menyoroti pentingnya strategis dari rantai pasokan semikonduktor yang terdiversifikasi.

Jika klaim tentang perangkat Microsoft benar, perusahaan tidak hanya berupaya memecahkan masalah biaya internal namun juga berkontribusi terhadap evolusi pasar yang lebih luas. Alat konversi yang berhasil dapat menandakan masa depan pengembangan AI yang tidak bergantung pada perangkat keras, sehingga pengembang tidak terikat dengan vendor.

Pergeseran potensial seperti itu akan menandai fase baru pendewasaan bagi seluruh industri AI, beralih dari perampasan lahan komputasi yang heboh ke ekosistem multi-kutub yang lebih strategis.

Categories: IT Info