Microsoft Azure wdrożył pierwszy na świecie klaster NVIDIA GB300 NVL72 o wielkości superkomputera, ogromny system zbudowany specjalnie dla swojego partnera, OpenAI.
Klaster produkcyjny integruje ponad 4600 najnowszych procesorów graficznych NVIDIA Blackwell Ultra, zapewniając ogromną moc potrzebną do szkolenia i uruchamiania modeli sztucznej inteligencji nowej generacji.
wdrożenie, zlokalizowane w centrach danych AI firmy Microsoft, stanowi kamień milowy w głębokim strategicznym sojuszu pomiędzy trzema gigantami technologicznymi. Ma na celu radykalne przyspieszenie rozwoju sztucznej inteligencji, umożliwiając OpenAI budowanie potężniejszych i bardziej złożonych modeli niż kiedykolwiek wcześniej, umacniając wspólną przewagę firm w niezwykle konkurencyjnym wyścigu w zakresie infrastruktury sztucznej inteligencji.
Nowy gigant superkomputerowy dla OpenAI
Ogłoszenie to jest zwieńczeniem wieloletnich wspólnych wysiłków inżynieryjnych mających na celu zbudowanie infrastruktury zdolnej do obsługi pionierskich obciążeń AI.
Microsoft planuje, że ten początkowy klaster będzie pierwszym z wielu, a ambitnym celem jest skalowanie do setek tysięcy procesorów graficznych Blackwell Ultra w swoich globalnych centrach danych, wyraźny sygnał długoterminowej strategii sztucznej inteligencji.
Przeczytaj także: Dlaczego Microsoft może zostać ostatecznym zwycięzcą po pęknięciu bańki AI
Ta ogromna inwestycja umożliwi szkolenie modeli w tygodniach zamiast miesięcy i wesprze rozwój modeli zawierających setki bilionów parametrów.
Według Nidhi Chappell, wiceprezesa korporacyjnego w firmie Microsoft, „współpraca pomaga zapewnić klientom takim jak OpenAI możliwość wdrażania infrastruktury nowej generacji na niespotykaną skalę i z niespotykaną dotąd szybkością.”
Microsoft i Nvidia twierdzą, że wyznacza to nowy branżowy punkt odniesienia dla superkomputerów AI na skalę produkcyjną.
Pod maską: wewnątrz klastra GB300 NVL72
W sercu superkomputera znajduje się Chłodzony cieczą system GB300 NVL72 do montażu w szafie serwerowej, architektura zaprezentowana na targach GTC w marcu 2025 r. Każda jednostka integruje 72 procesory graficzne Blackwell Ultra i 36 procesorów Grace w jeden spójny system.
Ta gęsta konstrukcja zapewnia 1,44 exaflopa mocy obliczeniowej FP4 i zapewnia ujednoliconą pulę szybkiej pamięci o pojemności 37 TB na system. Wbudowane chłodzenie cieczą jest niezbędne do zarządzania ogromną mocą cieplną konfiguracji o dużej gęstości, umożliwiając stałą najwyższą wydajność.
Aby połączyć ponad 4600 procesorów graficznych w jeden spójny superkomputer, klaster wykorzystuje wyrafinowaną dwupoziomową architekturę sieciową. W każdej szafie architektura NVLink piątej generacji firmy NVIDIA zapewnia przepustowość na poziomie 130 TB/s dla wszystkich. To skutecznie zamienia 72 procesory graficzne w pojedynczy, ogromny akcelerator ze współdzieloną pamięcią basen.
Do komunikacji w całym klastrze firma Microsoft wdrożyła platformę NVIDIA Quantum-X800 InfiniBand. Ta nieblokująca się tkanina typu fat-tree zapewnia płynną, szybką komunikację z przepustowością 800 Gb/s na procesor graficzny, co jest kluczowym elementem minimalizacji narzutu podczas szkolenia bardzo dużych modeli na tysiącach procesorów.
Wyścig zbrojeń AI: strategiczna rozgrywka o władzę
Chociaż wdrożenie Microsoftu jest jak dotąd największe, następuje po wcześniejszym posunięciu wyspecjalizowanego dostawcy usług w chmurze, CoreWeave. W lipcu 2025 r. firma CoreWeave stała się pierwszą firmą, która udostępniła komercyjnie platformę GB300, zapewniając sobie kluczową przewagę jako pierwszy na rynku.
Jednak oświadczenie Microsoftu starannie podkreśla charakter klastra „na skalę produkcyjną”, sygnalizując nowy poziom industrializacji i wydajności, które odróżniają ją od wcześniejszych, mniejszych wdrożeń.
To posunięcie potwierdza strategiczny kierunek Microsoftu, po raz pierwszy zgłoszono pod koniec 2024 r., aby nadać priorytet GB300 w stosunku do jego opóźnionego poprzednika, GB200. Pomyślne wdrożenie stanowi potwierdzenie dominacji w wyścigu zbrojeń w zakresie infrastruktury sztucznej inteligencji, wzmacniając pozycję firmy wobec rywali w chmurze.
Ian Buck, wiceprezes ds. hiperskali i obliczeń o dużej wydajności w firmie NVIDIA, podkreślił znaczenie systemu dla całej dziedziny, stwierdzając: „Ten wspólnie opracowany system dostarcza pierwszy na świecie skalowalny klaster produkcyjny GB300, zapewniający silnik superkomputerowy potrzebne, aby OpenAI obsługiwało modele o wielu bilionach parametrów.”
Pokazuje rolę platformy jako wiodącego silnika pionierskich badań i rozwoju sztucznej inteligencji.
Poza Blackwell: plan działania firmy NVIDIA na rzecz przyspieszenia
Architektura Blackwell reprezentuje aktualny stan wiedzy w zakresie akceleracji sztucznej inteligencji. Dyrektor generalny firmy NVIDIA, Jensen Huang, podkreślił jej ogromny wpływ na obciążenia związane z wnioskowaniem AI, zauważając, że „Blackwell Ultra NVL72 radykalnie przyspiesza obciążenia związane z wnioskowaniem AI, umożliwiając niemal natychmiastowe reakcje nawet w przypadku największych modeli”.
Jednak mimo że jej flagowa platforma jest wdrażana na dużą skalę, firma już patrzy w przyszłość na kolejny duży krok architektoniczny.
Agresywny plan działania NVIDIA wskazuje obecnie na platformę Vera Rubin, która ma być dostępna pod koniec 2026 r. Ta przyszła architektura wprowadzi jeszcze większą specjalizację, taką jak niedawno ogłoszony koprocesor Rubin CPX, specjalnie zaprojektowany chip zaprojektowany w celu przyspieszenia wymagającej dużej mocy obliczeniowej „fazy kontekstowej” wnioskowania AI.
Ta strategia „wnioskowania zdezagregowanego” sygnalizuje wyjście rynku poza monolityczne procesory graficzne ogólnego przeznaczenia. Tworząc specjalistyczny sprzęt dla określonych części przepływu pracy AI, NVIDIA buduje głębszą fosę konkurencyjną. To nieustanne tempo innowacji podkreśla dojrzewanie rynku sprzętu AI.
W tej chwili sojusz Microsoft-NVIDIA-OpenAI ustanowił nowy standard dla infrastruktury, który zdefiniuje następną erę sztucznej inteligencji.