谷歌正在加大對人工智能硬件主導地位的爭奪。週四,該公司宣布其最強大的定制芯片 Ironwood TPU 現已全面向其云客戶推出

這款新型處理器專為滿足 AI 推理不斷增長的需求而打造處理聊天機器人背後的實時工作。為了支持這些人工智能係統,谷歌還推出了新的、經濟高效的 Axion 處理器,用於日常計算任務。

這一戰略舉措針對的是 Anthropic 等關鍵客戶,並增強了谷歌在人工智能基礎設施關鍵戰役中對市場領導者 Nvidia 的挑戰。

這項工作的核心是其第七代張量處理單元 Ironwood,該單元於 4 月份首次推出。

該芯片現已全面上市,專為 Google 所謂的“推理時代”而打造,即“推理時代”。從訓練大規模模型轉向大規模部署它們以進行有用、響應式的交互。

Ironwood 實現了性能的顯著飛躍,旨在滿足訓練和服務當今最大 AI 模型的複雜需求。

根據 Google 的說法,新架構提供了峰值性能比其 TPU v5p 前身提高了 10 倍,與上一代 Trillium 相比,每個芯片的性能提高了四倍以上。

在其最大配置下,Ironwood 系統可以實現驚人的 42.5 exaFLOPS FP8 計算能力,這是主導現代人工智能工作負載的低精度算法的基本指標。

這種原始能力與對效率的關注相結合; Ironwood 的每瓦性能是 Trillium 的兩倍,使其成為 Google 迄今為止最節能的芯片。

Google TPU 每瓦每秒浮點運算峰值(來源:Google)

這種性能水平只有在可擴展的情況下才有用,而且 Ironwood 的架構專為大規模、有凝聚力的操作而設計。

單個 Ironwood“superpod”可以連接多達 9,216 個單獨的芯片,使它們能夠作為單個、統一的芯片運行超級計算機。 該系統的基礎是高速芯片間互連 (ICI) 結構,可在芯片之間提供高達每秒 9.6 太比特的帶寬,從而創建密集的 3D 環面拓撲。

該網絡允許芯片訪問 1.77 PB 高帶寬內存 (HBM) 的巨大共享池,消除了可能削弱大規模人工智能作業的數據瓶頸。

連接這些集群在芯片方面,谷歌採用了動態光路交換(OCS)網絡。這種可重新配置的結構對於規模和彈性都至關重要。

正如該公司技術概述中所詳述的,OCS 可以光學繞過任何故障硬件並建立僅連接健康單元的新的完整電路

通過一個新的統一的平台在 Ironwood 上啟用 vLLM 等最先進的服務引擎後端,使在生產中部署模型的開發人員更容易獲得其巨大的能力。

Google 的硬件推動是一個更大、多管齊下的基礎設施戰略的組成部分。

在最近的報告中,我們重點介紹了 Google 的一些雄心勃勃的計劃,從澳大利亞聖誕島的地緣政治戰略人工智能數據中心到旨在在太空建立 TPU 驅動的數據中心的“登月”項目 Suncatcher。

這些舉措強調了保持在 AI 前沿所需的巨大資源。

[嵌入內容]

Axion 的擴展:重新定義通用計算

除了 AI 專用加速器之外,現代應用程序還需要強大而高效的主幹來處理日常工作負載。

Google 正在通過擴展其基於 Arm 的定制 Axion CPU 產品組合來解決這一問題。該公司宣布,其新的 N4A 虛擬機現已推出預覽版,同時即將推出首款基於 Arm 的裸機實例 C4A Metal 預覽版。

這些處理器旨在提供卓越的性價比,可處理支持 AI 應用程序的通用任務,包括數據準備、容器化微服務和 Web 服務。

該公司計算主管 James Bradbury 解釋了這一優勢:“Ironwood 在推理性能和訓練可擴展性方面的改進將幫助我們高效擴展,同時保持客戶期望的速度和可靠性。”

然而,這項重大交易存在於復雜的多雲現實中。雖然此次合作對谷歌來說是一次重大勝利,但報告澄清,Anthropic 保持了多元化的基礎設施戰略,亞馬遜網絡服務仍然是其主要雲提供商。

這反映了更廣泛的行業趨勢,即主要人工智能實驗室正在避免對單一供應商的依賴,這一策略之前在 OpenAI 開始使用谷歌云來補充其核心 Microsoft Azure 基礎設施時就曾出現過。

在激烈的人工智能軍備競賽中,谷歌的定制芯片努力旨在挑戰 Nvidia 的市場主導地位。競爭需要驚人的投資。

為了滿足不斷增長的需求,Google 最近將今年的資本支出預測從 850 億美元上調至 930 億美元。

如此巨大的財務承諾表明,控制底層硬件現在被視為一項關鍵的競爭優勢。

通過推出高度專業化的 Ironwood TPU 和高效、通用的 Axion CPU,Google 正在推出一款全面的、共同設計的產品。

該公司堅信,為客戶提供從芯片到數據中心的優化且經濟高效的硬件堆棧,將成為贏得下一階段人工智能革命的關鍵。

Categories: IT Info