Ang Microsoft Azure ay na-deploy ang unang supercomputer-scale-scale na NVIDIA GB300 NVL72, isang napakalaking sistema na itinayo para sa kapareha nito, ang pinakabagong Blackwell ultra gpus ng Nvidia, na nagbibigay ng napakalawak na kapangyarihan na kailangan upang sanayin at patakbuhin ang susunod na pag-unlad ng mga modelo ng AI. Ang pag-deploy, na matatagpuan sa AI Datacenters ng Microsoft, ay kumakatawan sa isang pangunahing milestone sa isang malalim na estratehikong alyansa sa pagitan ng tatlong mga higanteng tech. Nilalayon nitong kapansin-pansing mapabilis ang pag-unlad ng AI, na nagpapagana ng OpenAi na bumuo ng mas malakas at kumplikadong mga modelo kaysa dati, pinapatibay ang kolektibong tingga ng mga kumpanya sa mabangis na lahi ng imprastraktura ng AI. src=”data: imahe/svg+xml; nitro-empty-id=mty1mdoxmjg0-1; base64, phn2zyb2awv3qm94psiwidagmti4mca3nt Uiihdpzhropsixmjgwiibozwlnahq9ijc1nsigeg1sbnm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>

isang bagong supercomputing behemoth para sa openai href=”https://azure.microsoft.com/en-us/blog/microsoft-azure-delivers-the-first-large-scale-cluster-with-nvidia-gb300-nvl72-for-openai-workloads/”target=”_ blangko”> scale sa daan-daang libu-libong mga itim na ultra gpus sa buong global na datasents. Ang isang malinaw na signal ng pangmatagalang diskarte sa AI.”Ang pakikipagtulungan ay tumutulong na matiyak na ang mga customer tulad ng OpenAi ay maaaring mag-deploy ng susunod na henerasyon na imprastraktura sa walang uliran na scale at bilis.”

Ang supercomputer ay ang likidong nvidia, rack-scale GB300 NVL72 system, isang arkitektura na ipinakita sa GTC noong Marso 2025. Ang bawat yunit ay nagsasama ng 72 Blackwell Ultra GPU at 36 Grace CPU sa isang solong cohesive system. href=”https://blogs.nvidia.com/blog/microsoft-azure-worlds-first-gb300-nvl72-supercomputing-cluster-openai/”target=”_ blangko”> naghahatid ng 1.44 exaflops ng fp4 compute at nagbibigay ng isang unified 37TB pool ng mabilis na memorya ng bawat sistema. Ang built-in na paglamig ng likido ay mahalaga upang pamahalaan ang napakalawak na thermal output ng tulad ng isang mataas na density na pagsasaayos, na nagpapahintulot sa matagal na pagganap ng rurok. Sa loob ng bawat rack, ang ikalimang henerasyon ng NVLINK na NVLLINK ay nagbibigay ng 130 TB/s ng all-to-all bandwidth. Ito ay epektibong lumiliko ang 72 GPU sa isang . Tinitiyak ng tela ang walang tahi, high-speed na komunikasyon na may 800 GB/s ng bandwidth bawat GPU, isang kritikal na sangkap para sa pag-minimize ng overhead kapag sinasanay ang mga ultra-malalaking modelo sa buong libu-libong mga processors. Noong Hulyo 2025, ang Coreweave ay naging unang kumpanya na gumawa ng gb300 platform na magagamit nang komersyo, na ang pag-secure ng isang pangunahing kalamangan sa first-mover sa merkado. Sa huling bahagi ng 2024, upang unahin ang GB300 dahil sa naantala na nauna, ang GB200. Ang matagumpay na paglawak ay isang pahayag ng pangingibabaw sa lahi ng AI Infrastructure Arms, na pinapatibay ang posisyon ng kumpanya laban sa mga karibal ng ulap. Ang engine na kinakailangan para sa OpenAi upang maghatid ng mga modelo ng multitrillion-parameter.”Binigyang diin ng NVIDIA CEO na si Jensen Huang LEAP.

Ang pag-iintindi”ay nagpapahiwatig ng isang merkado na gumagalaw na lampas sa monolitik, pangkalahatang-layunin na mga GPU. Sa pamamagitan ng paglikha ng dalubhasang hardware para sa mga tiyak na bahagi ng daloy ng trabaho ng AI, ang NVIDIA ay nagtatayo ng isang mas malalim na mapagkumpitensyang moat. Ang walang tigil na bilis ng pagbabago na ito ay nagtatampok ng pagkahinog ng merkado ng hardware ng AI.