nvidia Bemutatta a mesterséges intelligencia (AI) hardverét a GTC 2025 legutóbbi előrelépéseivel, a Blackwell Ultra GB300 és a Vera Rubin Superchips-en. Ezeknek a fejleményeknek az a célja, hogy javítsák az AI képességeket a különböző ágazatokban. A Blackwell Ultra GB300 Superchip javított számítási teljesítményt és memóriatartalmú sávszélességet kínál, kezelve az AI alkalmazások növekvő igényeit.

Mindegyik GB300 rendszer integrálja a 72 NVIDIA Blackwell Ultra GPU-t és a 36 ARM-alapú NVIDIA GRACE CPU-t, együttesen 1400 PETAFLOPS FP4 AI teljesítményt kínál. Ez a konfiguráció a sűrű FP4 számítás 1,5-szeres növekedését képviseli elődjéhez, a Blackwell B200-hoz képest. A GB300 javítása a memóriakapacitása. Mindegyik GPU 288 GB HBM3E memóriával van felszerelve, összesen több mint 20 TB GPU memória rendszerenként. Ez a lényeges memóriaterhelés lehetővé teszi a nagyobb AI modellek és adatkészletek kezelését, megkönnyítve a bonyolultabb számításokat és a gyorsabb feldolgozási időket. Egyetlen ultra chip ugyanazt a 20 AI-számú petaflopot tartja fenn, mint a Blackwell, de a nagy sávszélességű memória (HBM3E) 50%-os növekedéséből adódik, és az 192 GB-ról 288 GB-ra ugrik.

Hasonlóképpen, egy teljes méretű DGX GB300 “Superpod” továbbra is 288 CPU-t és 576 GPU-t tartalmaz, 11,5 FP4 számítással-az eredeti Blackwell-alapú Superpod-hoz-bár a teljes memória 25%-os növekedésével, most 300 TB-t érnek el. Ezek a memóriafrissítések azt jelzik, hogy az NVIDIA prioritást élvez a nagyobb modellek kezelésére és az AI érvelési hatékonyság javítására, nem pedig a nyers számítási teljesítményre. A vállalat azt állítja, hogy a Blackwell Ultra 1,5x-nek adja ki a H100 FP4 következtetési teljesítményét, de a legszembetűnőbb előnye az, hogy képes felgyorsítani az AI érvelést.

Például egy NVL72 klaszter, amely a DeepSeek-R1 671B-t futtatja-egy hatalmas nagy nyelvi modell-most már tíz másodperc alatt, a H100 90 másodpercétől lefelé. A

nvidia ezt a javulást a token-feldolgozási sebesség tízszeres növekedéséhez tulajdonítja, a Blackwell Ultra kezeléssel másodpercenként 1000 tokennel, szemben a H100 100 tokenjével másodpercenként. Ezek a számadatok azt sugallják, hogy míg a Blackwell Ultra nem drasztikusan felülmúlja közvetlen elődjét, kényszerítő hatékonysági nyereséget kínál a korábbi generációs architektúrákból való áttérésű vállalatok számára. Vera Rubin csillagász, ez a chip integrálja az egyéni tervezésű CPU-t (Vera) és a GPU-t (Rubin). A Rubin GPU akár 288 GB nagy sávszélességű memóriát is támogat, ami jelentősen javítja az összetett AI feladatok adatfeldolgozási képességeit.

A Vera Rubin architektúra kettős GPU-kialakítással rendelkezik, egyetlen szerszámon, és chipenként 50 Petaflop-ot szállít. Ez a kialakítás lehetővé teszi az AI alkalmazások hatékonyabb feldolgozását és csökkentett késleltetését. Ezenkívül 1,8 TB/s NVLink mag-to-mag interfésztel büszkélkedhet, javítva az adatátviteli sebességet a CPU és a GPU komponensek között. A GB300 sűrű FP4 számításának 1,5-szeres növekedése a B200-hoz képest az AI munkaterhelések hatékonyabb feldolgozásához vezet, lehetővé téve a gyorsabb edzési és következtetési időket. Az agresszív fejlesztési ütemterv, az új AI chip generációk éves kiadásainak terveivel tükrözi elkötelezettségét az AI hardverpiac vezetői pozíciójának fenntartása mellett.