nvidia推出了魯賓CPX,這是一種新的GPU專用構建,以加速AI推理的計算密集型“上下文階段”。該芯片旨在處理具有超過100萬個令牌的大量工作負載,例如視頻生成和大規模代碼分析。
這項建築創新,NVIDIA稱之為“分類推斷”,將處理任務分開以極大地提高效率。 The Rubin CPX is part of the forthcoming Vera Rubin platform, which was first teased at GTC 2025 and is expected in late 2026.
The 移動創建了一個新的專業硬件類別,旨在提高AI工廠的盈利能力。它還擴大了NVIDIA對競爭對手的統治地位,其中許多人仍在努力開發通用替代方案。
分解推理:AI最艱難的工作負載的新體系結構
該策略解決了現代AI中的基本瓶頸。正如NVIDIA所解釋的那樣,推理不是一個任務,而是兩個具有不同要求的不同工作負載。
第一個是“上下文”或“ prefll”階段,是計算密集型的,處理了整個代碼庫或視頻文件之類的大量輸入。第二個是“生成”或“解碼”階段,是內存密集的,由令牌產生輸出令牌。對於具有大量輸入的應用,這會產生一個重大的性能問題。
出現了響應的第一個標記之前,計算較重的預填充階段可能會導致長時間延遲(有時)。 NVIDIA的產品主管Shar Narasimhan表示,一個通用的GPU被迫處理這兩個任務時僅針對一個任務進行了真正優化,從而創造了建築折衷,從而阻礙了效率。
解決方案是一個建築轉移的NVIDIA NVIDIA稱為“分解匯總的優點”。核心思想是獨立處理這些階段,允許對計算和內存資源進行有針對性的優化。
通過將計算與結合的上下文階段分配給專業的處理器,NVIDIA聲稱方法improves throughput, reduces latency, and enhances overall resource utilization.
This is not just a theoretical concept. NVIDIA has already proven the strategy’s power in software, using its Dynamo orchestration layer to intelligently route tasks across its existing Blackwell hardware.
This software-based disaggregation was pivotal in 在最新的MLPERF推理結果中設置新的性能記錄。 Rubin CPX現在代表了這種驗證的策略的物理表現,從軟件優化到專門構建的矽。
這種側重於專業硬件信號的市場成熟。它不僅可以為單個芯片設計添加更多原始功率,還可以對整個AI工作流進行更複雜的全堆棧優化。 t
它是公司“ AI工廠”願景的中心宗旨,在此期間,最大化績效和投資回報是最終目標。為上下文階段設計。它提供了強大的30 petaflops NVFP4計算,並配備了128GB的GDDR7內存。
根據NVIDIA,這是一個故意且具有成本效益的設計選擇;
。 by opting for GDDR7 over the more expensive High Bandwidth Memory (HBM) typically used in generation-focused GPUs, the company can provide adequate performance for the compute-bound prefill task while significantly improving the system’s overall return on investment.
Beyond raw compute, the chip boasts a critical performance enhancement: 與當前的is a is a is a is a cr
GPU還包括用於視頻解碼和編碼的專用硬件支持,直接回答出現高價值應用的需求。
集成系統是一個強大的人,將144 Rubin CPX GPU組合在一起,用於上下文處理,144個標準的Rubin GPU和36個Vera CPUS結合了144個標準的Rubin GPU和36個Vera CPU。這種配置提供了令人驚嘆的8個NVFP4計算功率的驚人的Exaflops,比已經強大的GB300 NVL72。
增加了7.5倍。
系統級別的規格同樣令人印象深刻,具有100TB的高速存儲器和1.7 PETABYTB,並且每秒為1.7 Petabytes。整個機架與NVIDIA Dynamo軟件平台進行了與Quantum-X800 Infiniband或Spectrum-X以太網相互連接。
用於在可用CPX之前採用標準Rubin平台的客戶,NVIDIA還確認它將確認它將出售單獨的,可連接的CPX Nodes nodes nodes for Epraples for Exprade for Exprade for grouplede for grouphare現有的安裝。預計整個平台將在2026年底提供。
擴展領先優勢:Nvidia加深了其競爭性的護城河
該公告在Nvidia的競爭對手的艱難時期降落。從亞馬遜的火車芯片到Meta的MTIA處理器,整個科技行業都在競爭開發專有的AI加速器。然而,許多人在芯片設計的巨大困難中苦苦掙扎。儘管競爭對手仍在嘗試建立一個GPU以匹配NVIDIA的一般表現,但市場領導者已經在與專業的協同處理器分段。
甚至直接競爭對手AMD,該公司最近對其Instinct MI350系列進行了直接攻擊,專注於單一設計。 NVIDIA的分析方法代表了一種根本不同的建築哲學。
該策略似乎可以回應NVIDIA首席執行官Jensen Huang先前所表達的情緒,他曾經問:“如果您可以更好地指出,那麼建立ASIC的意義是什麼? Nvidia正在加強其市場領導。
NVIDIA產品總監Shar Narasimhan表示,新的建築“將大大提高AI工廠的生產力和績效”。 Nvidia的到來計劃於2026年末,不僅僅是建造籌碼。它正在構建AI數據中心的未來,一次是一個專業的組件。