A Microsoft Azure telepítette a világ első szuperszámítógép-méretű NVIDIA GB300 NVL72 klaszterét, amely kifejezetten a partnerének, az Openai számára épült hatalmas rendszer. A Microsoft AI adatközpontjában található, a három technológiai óriás mély stratégiai szövetségének jelentős mérföldkövet képvisel. Célja, hogy drasztikusan felgyorsítsa az AI fejlesztését, lehetővé téve az Openai számára, hogy erősebb és összetettebb modelleket készítsen, mint valaha, megerősítve a vállalatok kollektív vezetését a hevesen versenyképes AI infrastruktúra versenyen. src=”adatok: image/svg+xml; nitro-üres-id=mty1mdoxmjg0-1; base64, phn2zyb2awv3qm94psiwidagmti4mca3nt Uiihdpzhropsixmjgwiibozwlnahq9ijc1nsigeg1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>”>”>”>”>”>”>”>”>”>”>”>

Egy új szuperszámítógépes behemoth az Openai számára

A bejelentés egy többéves, együttes mérnöki erőfeszítés csúcspontja, amely képes a határ menti munkaterhelések kezelésére. href=”https://azure.microsoft.com/en-us/blog/microsoft-azure-delivers-the-first–cale-cluster-with-nvidia-gb300-nvl72-for-openai-workloads/”Target=”_ üres”> Méretezők, több ezer ezer ezer jelzőtáblához. hosszú távú AI stratégiájából. Az olyan ügyfelek, mint az Openai, a következő generációs infrastruktúrát példátlan skálán és sebességgel telepíthetik.”

Microsoft és Nvidia azt állítják, hogy új ipari referenciaértéket állít fel az AI szuperszámításhoz. Folyékony hűtött, állványméretű GB300 NVL72 rendszer, egy építészet, amelyet 2025 márciusában mutatnak be a GTC-n. Mindegyik egység integrálja a 72 Blackwell Ultra GPU-t és a 36 Grace CPU-t egyetlen koherens rendszerbe. href=”https://blogs.nvidia.com/blog/microsoft-azure-worlds-first-gb300-nvl72-supercomputing-cluster-openai/”Target=”_ blank”> 1.44 exp4 compute exaflops-t szállít. A beépített folyadékhűtés elengedhetetlen az ilyen nagy sűrűségű konfiguráció hatalmas hőtermelésének kezeléséhez, lehetővé téve a tartós csúcsteljesítményt. Az egyes állványokon belül az NVIDIA ötödik generációs NVlink-szövete 130 TB/s-t tartalmaz minden-mindenki sávszélességet. Ez ténylegesen a 72 GPU-t a nvidia quantum-x800 infiniband platformon. A szövet biztosítja a zökkenőmentes, nagysebességű kommunikációt 800 GB/s sávszélességgel GPU-nként, amely kritikus elem az általános költségek minimalizálásához, amikor az ultra nagy modelleket több ezer processzoron képzik. 2025 júliusában a CoreWeave lett az első cég, amely a GB300 platformot a kereskedelemben elérhetővé tette, biztosítva a piacon kulcsfontosságú első mozgatórugó előnyeit. 2024 végén a GB300 prioritássá tétele a késleltetett elődje, a GB200 felett. A sikeres telepítés az AI infrastruktúra fegyverkezési versenyének dominanciájának nyilatkozata, megerősítve a vállalat helyzetét a Cloud Rivals ellen. Openai a multitrilliós paraméteres modellek kiszolgálására. Az NVIDIA vezérigazgatója, Jensen Huang hangsúlyozta annak mély hatását az AI érvelési munkaterhelésre, megjegyezve: „A Blackwell Ultra NVL72 drámaian felgyorsítja az AI érvelési munkaterhelést, lehetővé téve a közel-adagok számára, még a legnagyobb modelleknél is.

nvidia agresszív ütemterv most a Vera Rubin platformra mutat, amely várhatóan 2026 végén lesz elérhető. Ez a jövőbeli építészet még több specializációt vezet be, mint például a nemrégiben bejelentett Rubin CPX CO-processzor, egy célzott chip, amelynek célja az AI-t. A piacra dobó jelzések „Contexts fázisának” felgyorsítása. Monolitikus, általános célú GPU-k. Az AI munkafolyamat egyes részeinek speciális hardverének létrehozásával az NVIDIA mélyebb versenyképes várárat épít. Ez a könyörtelen innováció üteme kiemeli az AI hardverpiac érlését.