Microsoft Azure ka vendosur grupin e parë të superkompjuterit në botë NVIDIA GB300 NVL72, një sistem masiv i ndërtuar posaçërisht për partnerin e tij, Openai. Vendosja, e vendosur në të dhënat e AI të Microsoft, përfaqëson një moment historik të madh në një aleancë të thellë strategjike midis tre gjigandëve të teknologjisë. Ai synon të përshpejtojë në mënyrë dramatike zhvillimin e AI, duke i mundësuar Openai të ndërtojë modele më të fuqishme dhe komplekse se kurrë më parë, duke forcuar drejtimin kolektiv të kompanive në garën e infrastrukturës AI konkurruese. src=”të dhëna: imazh/svg+xml; nitro-empty-id=mty1mdoxmjg0-1; base64, phn2zyb2awv3qm94psiwidagmti4mca3nt Uiihdpzhropsixmjgwiibozwlnahq9ijc1nsig1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>
Një behemoth i ri superkompjuter për Openai
Njoftimi është kulmi i një përpjekje shumëvjeçare, bashkë-inxhinierike për të ndërtuar infrastrukturë href=”https://azure.microsoft.com/en-us/blog/microsoft-azure-delivers-the-first-lacale-cale-cluster-with-nvidia-gb300-nvl72-for-openai-workloads/”target=”_ bosh”në shkallë qindra mijëra të Blackwell Ultra Gpus Sinjali i strategjisë së tij afatgjatë të AI.”Bashkëpunimi ndihmon në sigurimin e klientëve si Openai mund të vendosin infrastrukturën e gjeneratës së ardhshme në shkallë dhe shpejtësi të paparë.”Sistemi GB300 NVL72 i ftohur i lëngshëm i NVIDIA-s, një arkitekturë e zbuluar në GTC në Mars 2025. Secila njësi integron 72 Blackwell Ultra GPU dhe 36 Grace CPU në një sistem të vetëm koheziv. href=”https://blogs.nvidia.com/blog/microsoft-azure-worlds-first-g300-nvl72-supercomputing-cluster-openai/”target=”_ bosh”> jep 1.44 Exaflops të FP4 Compute dhe siguron një pishinë të unifikuar 37tb të Memorisë së Shpejtë të Shpejtë. Ftohja e integruar e lëngshme është thelbësore për të menaxhuar prodhimin e jashtëzakonshëm termik të një konfigurimi të tillë me densitet të lartë, duke lejuar performancën e qëndrueshme të pikut. Brenda secilës raft, pëlhura NVLink e gjeneratës së pestë të NVIDIA siguron 130 TB/s të bandës së të gjitha. Kjo e shndërron në mënyrë efektive 72 GPU-të në një NVIDIA’s Quansum-x800 Infinib-infandand. Siguron komunikim të qetë, me shpejtësi të lartë me 800 GB/s të bandës për GPU, një komponent kritik për minimizimin e sipërme kur trajnoni modele ultra të mëdha në mijëra procesorë. Në korrik 2025, Coreweave u bë kompania e parë që e bëri platformën GB300 në dispozicion komercialisht, duke siguruar një avantazh kryesor të lëvizjes së parë në treg. Pivot, raportuar për herë të parë në fund të vitit 2024, për të dhënë përparësi në GB300 mbi paraardhësin e tij të vonuar, GB200. Vendosja e suksesshme është një deklaratë e mbizotërimit në garën e armëve të infrastrukturës AI, duke forcuar pozicionin e kompanisë kundër rivalëve të cloud. që Openai të shërbejë modele multitrillion-parametri.”
Ai tregon rolin e platformës si motor kryesor për hulumtimin dhe zhvillimin e AI Frontier. Drejtori i Përgjithshëm i NVIDIA Jensen Huang ka theksuar ndikimin e tij të thellë në ngarkesat e punës të arsyetimit të AI, duke vërejtur,”Blackwell Ultra NVL72 përshpejton në mënyrë dramatike ngarkesat e arsyetimit të AI-së, duke mundësuar përgjigjet gati-në të gjitha ato që janë duke kërkuar edhe në modelet më të mëdha.
Harta e rrugës agresive të NVIDIA-s tani tregon për platformën Vera Rubin, e cila pritet të bëhet e disponueshme në fund të vitit 2026. Kjo arkitekturë e ardhshme do të prezantojë edhe më shumë specializim, siç është bashkë-procesori i njoftuar së fundmi Rubin CPX, një çip i ndërtuar për qëllime të projektuar për të përshpejtuar”fazën e kontekstit”të AI-së. GPU monolitike, me qëllime të përgjithshme. Duke krijuar pajisje të specializuara për pjesë specifike të rrjedhës së punës të AI, NVIDIA po ndërton një lëvizje më të thellë konkurruese. Ky ritëm i pamëshirshëm i inovacionit nxjerr në pah pjekurinë e tregut të pajisjeve AI.