nvidia wprowadził najnowsze postępy w sztucznej inteligencji (AI) na GTC 2025, odrzucając Blackwell Ultra GB300 i Vera Rubin Superchips. Zmiany te mają na celu zwiększenie możliwości AI w różnych sektorach.

Blackwell Ultra GB300: Ulepszona wydajność

Blackwell Ultra GB300, ustawiony na wysyłkę w drugiej połowie 2025 r., Reprezentuje znaczącą pozycję podwyższoną. Blackwell Ultra GB300 Superchip oferuje lepszą moc obliczeniową i przepustowość pamięci, zajmując się rosnącymi wymaganiami aplikacji AI.

Każdy system GB300 integruje 72 NVIDIA Blackwell Ultra GPU i 36 procesorów NVIDIA Grace na podstawie 36 ARM, zbiorczo oferując 1400 peklopów wydajności FP4 AI. Ta konfiguracja reprezentuje wzrost gęstego obliczenia FP4 o wymiarach 1,5 × w porównaniu do jego poprzednika, Blackwell B200.

Podobnie pełna skala DGX GB300 „Superpod” nadal mieści 288 procesorów i 576 GPU, dostarczając 11,5 Exaflops komputerów FP4-identyczne dla oryginalnego superpod na bazie Blackwell-choć o 25% wzrost pamięci ogółem, teraz osiągając 300TB. Te aktualizacje pamięci wskazują, że NVIDIA priorytetem jest obsługa większych modeli i poprawa wydajności rozumowania AI zamiast surowej mocy obliczeniowej.

zamiast skupiać się na bezpośrednich porównacjach Blackwell do Blackwell, które wciąż napędzają działanie ultra. Firma twierdzi, że Blackwell Ultra zapewnia 1,5x wydajność wnioskowania FP4 H100, ale najbardziej uderzającą zaletą jest jej zdolność do przyspieszenia rozumowania AI.

Na przykład klaster NVL72 prowadzący DeepSeek-R1 671b-ogromny model dużego języka-może teraz generować odpowiedzi w zaledwie dziesięć sekund, w porównaniu z 90 sekundami na H100.

Nvidia przypisuje tę poprawę dziesięciokrotnie wzrostu prędkości przetwarzania tokenów, przy czym Blackwell Ultra obsługuje 1000 tokenów na sekundę w porównaniu z 100 tokenami H100 na sekundę. Liczby te sugerują, że chociaż Blackwell Ultra nie przewyższa swojego bezpośredniego poprzednika, oferuje one przekonujące wzrost wydajności dla firm, które wciąż przechodzą z architektury poprzedniej generacji.

Vera Rubin Superchip: Next Generation Ai Processing

podążając za Blackwell Ultra, Nvidia, aby wydać supercheat w Vera Rubin w kolejce 2026. Znany astronomer Vera Rubin, ten układ integruje niestandardowy procesor (Vera) i GPU (Rubin).

CPU Vera, oparty na architekturze Olympus NVIDIA, zapewnia dwukrotnie wydajność obecnego procesora Grace. Rubin GPU będzie obsługiwał do 288 GB pamięci o dużej przepustowości, znacznie zwiększając możliwości przetwarzania danych dla złożonych zadań AI.

Architektura Vera Rubin zawiera konstrukcję podwójnego GPU na jednej matryce, dostarczając 50 petAflopów wnioskowania FP4 na układ. Ta konstrukcja pozwala na bardziej wydajne przetwarzanie i zmniejszenie opóźnień w aplikacjach AI.

Dodatkowo procesor Vera, powiadomienia procesora Grace, zawiera 88 niestandardowych rdzeni ramienia z jednoczesnym wielofunkcyjnym, co daje 176 wątków na gniazdo. Ma również interfejs rdzenia do rdzenia 1,8 TB/S, zwiększając prędkości transferu danych między komponentami CPU i GPU.

Blackwell Ultra GB300 i Vera Rubin Superchip reprezentują znaczne skoki w wydajności nad wydajnością NVIDIA. Wzrost GB300 1,5 × Wzrost gęstego obliczenia FP4 w porównaniu z B200 przekłada się na bardziej wydajne przetwarzanie obciążeń AI, umożliwiając szybsze szkolenie i czasy wnioskowania.

Podobnie, 50 PETAFLOPS Vera Rubin wydajności FP4 na układ, oznacza znaczne zyski, co oznacza znaczne zyski, umożliwiające wdrożenie bardziej wyrafinowanych modeli AI. Agresywna harmonogram rozwoju, z planami rocznych wydawnictw nowych pokoleń AI, odzwierciedla jego zaangażowanie w utrzymanie pozycji kierowniczej na rynku sprzętu AI.