高通週一進軍人工智能數據中心市場,推出新芯片來挑戰領先者英偉達和AMD。高通公司推出了專為不斷增長的人工智能推理市場而打造的 AI200 和 AI250 加速器。
高通公司押注於具有海量內存容量的設計,可為客戶提供更低的成本和更高的效率。此舉是這家移動技術巨頭的重大戰略轉變。投資者對這一消息歡呼雀躍,該公司股價上漲 15%。其新硬件預計將於 2026 年推出,為 AI 軍備競賽增添一位強大的新玩家。
對 AI 推理市場的戰略押注
憑藉數十年在低功耗移動處理器方面的專業知識,高通是 精心策劃數據中心。該公司正在迴避與 Nvidia 在人工智能訓練領域(GPU 巨頭主導的市場)發生直接對抗。
相反,它瞄準了快速擴張的推理市場, 涉及為實時應用程序運行已經訓練好的模型。高通公司高級副總裁兼總經理杜爾加·馬拉迪 (Durga Malladi) 表示:“我們從移動優先的戰略重點轉向了一個深思熟慮的旅程。
“我們首先想在其他領域證明自己,一旦我們在那裡建立了自己的實力,我們就很容易在數據中心級別上更上一層樓。 “
這種對推理的關注是 Nvidia 挑戰者之間的共同戰略。英特爾最近推出了自己的“新月島”GPU,也有著類似的目標。正如英特爾首席技術官 Sachin Katti 所解釋的那樣,“人工智能正在從靜態訓練轉向由代理人工智能驅動的實時、無處不在的推理。 “
這種全行業的轉變正在為新架構創造機會,這些架構優先考慮每瓦性能和降低運營成本,而不是訓練所需的原始計算能力。
為了支持其硬件,高通推出易於採用的開放軟件堆棧。
通過強調與主要人工智能的無縫兼容性 該公司的目標是為 Nvidia 專有的 CUDA 生態系統提供一個可行的替代方案,減少企業和雲提供商之間的摩擦。
內存優於肌肉:芯片設計的不同方法
直接挑戰以 GPU 為中心的地位 目前,高通的新加速器優先考慮內存容量和效率。 AI200 卡將配備 768GB 的巨大 LPDDR 內存。
它代表著與 Nvidia 和 AMD 高端芯片中昂貴的高帶寬內存 (HBM) 標準的戰略背離。
雖然 HBM 提供卓越的帶寬,但成本高昂,並且可能成為供應鏈瓶頸。通過使用 LPDDR,高通的目標是將大量人工智能模型加載到單張卡上,從而減少多個芯片之間昂貴且耗電的數據傳輸需求。
其設計理念的核心是降低數據中心運營商的總擁有成本 (TCO)。計劃於 2027 年推出的更先進的 AI250 通過近內存計算佈局進一步推動了這一概念。
高通聲稱該架構可以提供高出 10 倍以上的有效內存帶寬,解決經常減慢推理任務的瓶頸。高通高級副總裁兼總經理 Durga Malladi 表示:“借助高通 AI200 和 AI250,我們正在重新定義機架級人工智能推理的可能性。 “
高通將以單獨的加速卡或完整的液冷服務器機架的形式提供該技術。
全機架系統的運行功率為 160 千瓦,功耗與現有的相當。 GPU 機架來自競爭對手,但承諾提高推理工作負載效率,直接影響數據中心的運營預算。
進入擁擠的領域:高通 vs. 泰坦
對於雲提供商和大型企業來說,另一家主要供應商的到來可能會帶來受歡迎的價格競爭和供應鏈穩定性。
多年來,人工智能 硬件市場一直由Nvidia佔據壓倒性優勢,其強大的GPU和CUDA軟件生態系統已成為行業標準。這種主導地位造成了供應限制和高成本,促使 Oracle 和 OpenAI 等主要參與者積極尋求 AMD 的替代品,甚至開發定制芯片。
高通的加入加劇了這場競爭。高通股票上漲 15% 等熱烈的市場反應,表明投資者對該公司獲得有意義的市場份額的潛力充滿信心。
高通已經在沙特阿拉伯的 Humain 中獲得了重要的早期客戶,該公司承諾部署使用高達 200 兆瓦功率的系統。
隨著 AI200 於 2026 年推出,AI250 於 2027 年推出, 高通致力於每年發布一次節奏,以跟上競爭對手的步伐。
該公司還強調靈活性,允許客戶將其組件集成到自己的定制服務器設計中。
“我們試圖做的是確保我們的客戶能夠接受所有這些,或者說,‘我要混合搭配,’”Malladi 說道。隨著人工智能軍備競賽不斷升級,高通的差異化戰略使其成為數據中心未來爭奪戰中強大的新競爭者。