Ang mga pangunahing kasosyo sa pagmamanupaktura ng NVIDIA ay nagpapabilis ng paggawa ng punong-guro ng mga rack ng Blackwell AI Server. Sinusundan nito ang paglutas ng mga makabuluhang isyu sa teknikal na dati nang naantala ang mga pagpapadala, ang Financial Times ulat . Ang mga supplier kabilang ang Foxconn, Inventec, Dell, at Wistron ay nag-aaplay ngayon sa mga hamong ito, isang mahalagang hakbang para sa NVIDIA upang matugunan ang surging global AI hardware demand. Noong nakaraan, ang NVIDIA at ang mga kasosyo nito ay may maraming mga problema. Kasama dito ang sobrang pag-init ng mga GPU, pagtagas sa mga likidong sistema ng paglamig, mga bug ng software, at mga isyu sa koneksyon sa inter-chip, isang inhinyero sa isang kasosyo sa isang kasosyo na nakumpirma sa Financial Times. Ang mga setback na ito ay nagambala sa mga pangunahing kliyente tulad ng Microsoft at Google noong 2024. Reuters iniulat Isang 2.5% na pagtaas sa nvidia’s pre-market stock noong 27. na nagsasaad sa huling kita na tumatawag Na ang Blackwell ay”ang pinakamabilis na produkto ng ramp sa kasaysayan ng aming kumpanya, hindi natukoy sa bilis at laki nito at  Ang mga rack ng GB200, ang bawat isa sa pagsasama ng 36 na mga yunit ng pagproseso ng Grace Central at 72 mga yunit ng pagproseso ng graphics ng Blackwell sa pamamagitan ng NVIDIA’s NVLINK system, ay nagpakita ng malaking hurdles ng engineering. Si Chu Wei-chia, isang analyst na nakabase sa Taipei sa Consultancy Semianalysis, ay nagsabi sa The Financial Times na napakalawak ng hamon sa teknikal, dahil walang kumpanya na sinubukan na i-synchronize ang napakaraming mga processors ng AI sa isang server nang napakabilis. Ang pagtaas ng output. Habang ang paglamig ng likido ay isang pangunahing sagabal, ang pakikipagtulungan ng mga pagsisikap ng nvidia at mga kasosyo sa teknolohikal na-optimize ang mga proseso ng pagpupulong at pagsubok, na humahantong sa mas mahusay na mga ani. Ito, kasama ang pinabuting ani para sa mga high-speed interconnect, ay naging pivotal. Pinahusay din ng mga supplier ang mga protocol ng pagsubok bago ang pagpapadala upang matiyak ang pag-andar para sa hinihingi na mga karga ng AI, ayon sa Financial Times. Ang mga naunang paghihirap sa paggawa ay humantong sa Microsoft na naiulat na bawasan ang mga order ng GB200 nito sa 40% sa huli na 2024. Nagtatampok ang sistemang ito ng pinahusay na mga kakayahan sa memorya na idinisenyo para sa mas kumplikadong mga modelo ng pangangatuwiran ng AI. Inutusan ng Kumpanya ang mga kasosyo noong Abril na bumalik sa tinatawag na”Bianca”chip board layout-currently na ginagamit sa GB200-sa halip ng isang bagong disenyo na tinatawag na”Cordelia”, dahil sa mga hamon sa pag-install, ang mga mapagkukunan ng tagapagtustos ay nagsabi sa Financial Times. Iniulat ni Nvidia na ipatupad ang muling pagdisenyo ng Cordelia sa kasunod na mga henerasyon ng AI chip. Ito, ang arkitektura ng Vera Rubin AI ay inaasahan para sa isang 2026 na paglulunsad. Ang demand para sa gayong malakas na hardware ay umaabot sa mga bagong customer, kasama ang Saudi Arabia at United Arab Emirates na inihayag ang mga plano na makakuha ng libu-libong mga blackwell chips. Ang kumpanya ay nagtatrabaho upang mai-offset ang isang makabuluhang epekto sa pananalapi mula sa mga paghihigpit ng gobyerno ng Estados Unidos sa mga pag-export ng H20 chip nito sa China. Nagresulta ito sa isang inaasahang $ 5.5 bilyong singil para sa kumpanya. Ang mga kontrol sa pag-export ay naging isang paksa na nakakasama. Ang AI developer Anthropic ay nagsusulong para sa matatag na mga kontrol, na nagsasabi na ang”pagpapanatili ng kalamangan ng compute ng Amerika sa pamamagitan ng mga kontrol sa pag-export ay mahalaga para sa pambansang seguridad at pang-ekonomiyang kasaganaan”.’Sa tabi ng mga live lobsters.'”. Ang mga paghihigpit ay nag-gasolina din ng mga kakumpitensya, kasama ang analyst na si Patrick Moorhead na hinuhulaan ang”Mga Kumpanya ng Tsino ay lilipat lamang sa Huawei.”Itinampok ng CEO na si Jensen Huang ang pangunahing paglilipat ng industriya, na nagsasabi na ang AI ay pumipilit sa isang muling arkitektura ng mga sentro ng data. Habang ang NVLLink Fusion ay naglalayong linangin ang isang mas madaling iakma na AI hardware ecosystem, ang ilang mga analyst, tulad ng ainvest sa isang >> Maaari itong lumikha ng isang”closed-loop ng dependency,”na potensyal na humahantong sa monopolization ng merkado. Nvl72 at gb300 nvl72 , nagbibigay ng 1.8 terabytes bawat segundo ng kabuuang bandwidth bawat gpu.

Categories: IT Info