Google meningkatkan upayanya untuk mendominasi perangkat keras AI. Pada hari Kamis, perusahaan mengumumkan chip kustomnya yang paling canggih, Ironwood TPU, kini memasuki ketersediaan umum untuk pelanggan cloud-nya.

Dibuat untuk menangani lonjakan permintaan akan inferensi AI, prosesor baru ini menangani tantangan pekerjaan real-time di belakang chatbots. Untuk mendukung sistem AI ini, Google juga meluncurkan prosesor Axion baru yang hemat biaya untuk tugas komputasi sehari-hari.

Langkah strategis ini menargetkan klien utama seperti Anthropic dan mempertajam tantangan Google terhadap pemimpin pasar Nvidia dalam pertempuran penting untuk infrastruktur AI.

Ironwood: Pembangkit Tenaga Silikon Khusus untuk Era Inferensi

Untuk mendukung model AI generasi berikutnya, Google bertaruh pada strategi yang terintegrasi secara vertikal.

Yang menjadi inti dari upaya ini adalah Unit Pemrosesan Tensor generasi ketujuh, Ironwood, yang pertama kali diluncurkan pada bulan April.

Sekarang beralih ke ketersediaan umum, chip ini dibuat khusus untuk apa yang disebut Google sebagai “era inferensi”, peralihan dari pelatihan model besar-besaran untuk menerapkannya demi interaksi yang bermanfaat dan responsif dalam skala besar.

Ironwood memberikan lompatan performa yang signifikan, dirancang untuk menangani tuntutan kompleks baik dari pelatihan maupun melayani model AI terbesar saat ini.

Menurut Google, arsitektur baru ini menawarkan Peningkatan kinerja puncak 10x dibandingkan pendahulunya TPU v5p dan kinerja per chip empat kali lebih baik dibandingkan generasi Trillium sebelumnya.

Dalam konfigurasi terbesarnya, sistem Ironwood dapat mencapai daya komputasi FP8 sebesar 42,5 exaFLOPS, sebuah metrik yang penting untuk aritmatika presisi rendah yang mendominasi beban kerja AI modern.

Kekuatan mentah ini dipadukan dengan fokus tentang efisiensi; Ironwood memiliki performa per watt dua kali lipat dibandingkan Trillium, menjadikannya chip Google yang paling hemat daya hingga saat ini.

Google TPU Peak Flops Per Watt (Sumber: Google)

Tingkat performa ini hanya berguna jika dapat ditingkatkan, dan arsitektur Ironwood dirancang untuk pengoperasian yang masif dan kohesif.

Satu “superpod” Ironwood dapat menghubungkan hingga 9.216 chip individual, sehingga dapat berfungsi sebagai satu kesatuan yang terpadu superkomputer. Landasan sistem ini adalah struktur Inter-Chip Interconnect (ICI) berkecepatan tinggi yang menyediakan bandwidth antar chip hingga 9,6 terabit per detik, sehingga menciptakan topologi Torus 3D yang padat.

Jaringan ini memungkinkan chip mengakses kumpulan Memori Bandwidth Tinggi (HBM) yang sangat besar dan bersama, sehingga menghilangkan kemacetan data yang dapat melumpuhkan pekerjaan AI berskala besar.

Untuk menghubungkan hal-hal tersebut kelompok chip, Google menggunakan jaringan Optical Circuit Switch (OCS) yang dinamis. Struktur yang dapat dikonfigurasi ulang ini merupakan kunci bagi skala dan ketahanan.

Sebagaimana dijelaskan dalam ringkasan teknis perusahaan, OCS dapat secara optik mengabaikan perangkat keras yang rusak dan membuat sirkuit baru dan lengkap yang hanya menghubungkan unit yang sehat.

Google Arsitektur TPU Ironwood (Sumber: Google)

Bagi pelanggan yang menjalankan tugas pelatihan yang dapat berlangsung selama berminggu-minggu, toleransi kesalahan dinamis ini adalah fitur penting yang mencegah gangguan yang merugikan dan memaksimalkan waktu aktif produktif seluruh sistem.

Yang terpenting, perangkat keras canggih ini terintegrasi secara mendalam dengan tumpukan perangkat lunak yang dirancang bersama dan dibangun berdasarkan filosofi pengoptimalan tingkat sistem. Intinya adalah kompiler Accelerated Linear Algebra (XLA) Google, yang menerjemahkan kode tingkat tinggi dari kerangka kerja populer seperti JAX dan PyTorch menjadi instruksi mesin yang sangat optimal.

Kompiler ini secara eksplisit dirancang untuk menargetkan perangkat keras khusus TPU, termasuk Matrix Multiply Units (MXUs) dan Vector Processing Units (VPU) yang padat. Dengan secara otomatis menggabungkan operasi ke dalam kernel yang efisien, XLA memberikan kinerja “out-of-the-box”yang kuat.

Sebagai kesimpulan, perusahaan telah lebih mengoptimalkan tumpukan dengan mengaktifkan mesin penyajian canggih seperti vLLM di Ironwood melalui sistem terpadu yang baru backend, menjadikan kekuatannya yang sangat besar lebih mudah diakses oleh pengembang yang menerapkan model dalam produksi.

Dorongan perangkat keras Google adalah komponen dari strategi infrastruktur multi-cabang yang jauh lebih besar.

Dalam laporan terbaru kami telah menyoroti beberapa rencana ambisius Google, mulai dari pusat data AI yang strategis secara geopolitik di Pulau Christmas, Australia, hingga Proyek Suncatcher ‘moonshot’, yang bertujuan untuk membangun pusat data bertenaga TPU di luar angkasa.

Inisiatif ini menyoroti hal-hal berikut: diperlukan sumber daya yang sangat besar untuk tetap menjadi yang terdepan dalam AI.

[konten tersemat]

Ekspansi Axion: Mendefinisikan Ulang Komputasi Tujuan Umum

Di luar akselerator khusus untuk AI, aplikasi modern memerlukan tulang punggung yang kuat dan efisien untuk beban kerja sehari-hari.

Google mengatasi hal ini dengan perluasan portofolio CPU Axion berbasis Arm kustomnya. Perusahaan ini mengumumkan bahwa mesin virtual N4A barunya kini sedang dalam tahap pratinjau, bersamaan dengan pratinjau logam C4A yang akan datang, mesin virtual bare-metal berbasis Arm yang pertama.

Dirancang untuk memberikan kinerja harga yang unggul, prosesor ini menangani tugas-tugas tujuan umum yang mendukung aplikasi AI, termasuk persiapan data, layanan mikro dalam container, dan penyajian web.

Google Axion CPU (Sumber: Google)

Masukan pelanggan awal menyoroti keuntungan yang signifikan. Sergei Koren, Kepala Arsitek Infrastruktur di ZoomInfo, memuji instance baru ini, dengan menyatakan, “Dalam pratinjau kami terhadap instance N4A baru, kami mengukur peningkatan kinerja harga sebesar 60% untuk beban kerja utama ini dibandingkan dengan rekan-rekan mereka yang berbasis x86.”

Demikian pula, Vimeo melaporkan peningkatan kinerja sebesar 30% untuk beban kerja transcoding video intinya dibandingkan dengan VM berbasis x86.

Google sedang menentukan posisi Axion sebagai alternatif yang jelas dan lebih efisien dibandingkan prosesor tradisional.

Menurut Mark Lohmeyer, VP dan GM AI dan infrastruktur komputasi di Google Cloud, “Mereka akan memiliki performa 50% lebih tinggi dibandingkan prosesor generasi x86 yang sebanding dan efisiensi energi 60% lebih baik dibandingkan instance berbasis x86 yang sebanding.”

Adopsi Strategis dan Perlombaan Senjata AI

Komitmen besar Anthropic berfungsi sebagai validasi yang kuat untuk silikon khusus Google. Lab AI, pengembang model keluarga Claude, berencana untuk mengakses hingga 1 juta TPU, yang menandakan keyakinan yang kuat terhadap kemampuan platform untuk pelatihan dan inferensi.

James Bradbury, Head of Compute perusahaan, menjelaskan manfaatnya: “Peningkatan Ironwood dalam performa inferensi dan skalabilitas pelatihan akan membantu kami melakukan penskalaan secara efisien sambil mempertahankan kecepatan dan keandalan yang diharapkan pelanggan kami.”

Namun kesepakatan besar ini terjadi dalam realitas multi-cloud yang kompleks. Meskipun kemitraan ini merupakan kemenangan yang signifikan bagi Google, laporan mengklarifikasi bahwa Anthropic mempertahankan strategi infrastruktur yang terdiversifikasi, dengan Amazon Web Services tetap menjadi penyedia cloud utamanya.

Hal ini mencerminkan tren industri yang lebih luas di mana laboratorium AI besar menghindari ketergantungan pada satu vendor, sebuah strategi yang sebelumnya terlihat ketika OpenAI mulai menggunakan Google Cloud untuk melengkapi infrastruktur inti Microsoft Azure.

Dibuka di tengah perlombaan senjata AI yang intens, upaya silikon khusus Google ditujukan untuk menantang dominasi pasar Nvidia. Diperlukan investasi yang besar untuk bersaing.

Untuk memenuhi permintaan yang melonjak, Google baru-baru ini menaikkan perkiraan belanja modal untuk tahun ini menjadi $93 miliar dari $85 miliar.

Komitmen keuangan yang sangat besar ini menunjukkan bahwa pengendalian perangkat keras yang mendasarinya kini dipandang sebagai keunggulan kompetitif yang penting.

Dengan meluncurkan Ironwood TPU yang sangat terspesialisasi dan CPU Axion yang efisien dan serbaguna, Google menghadirkan solusi komprehensif dan serbaguna. solusi yang dirancang bersama.

Perusahaan yakin bahwa menawarkan kepada pelanggan rangkaian perangkat keras yang optimal dan hemat biaya, mulai dari chip hingga pusat data, akan menjadi kunci untuk memenangkan fase berikutnya dari revolusi AI.

Categories: IT Info