A

nvidia vezérigazgatója, Jensen Huang bemutatta a cég legújabb AI infrastruktúra-termékét, a Blackwell-Ai-AI CORTY Platformot. Fokozza az AI érvelést, az agentikus AI-t és a fizikai AI munkaterhelést. Ezt a bejelentést az NVIDIA éves GPU technológiai konferenciáján, a GTC 2025-en tették közzé. Az NVIDIA szerint ez a konfiguráció 1400 PETAFLOP-t szállít az FP4 AI teljesítményből, ami a sűrű FP4 számítási képesség 1,5-szeres növekedését képviseli az előző Blackwell B200 generációhoz képest. HBM3E memória Per GPU. számítástechnika) mint korábbi Blackwell modellek, de most 300 TB-os teljes memóriát kínál-a 240 TB-tól-az NVIDIA stratégiai összpontosítását a nagyobb AI modellek hatékony kezelésére és a továbbfejlesztett érvelési teljesítményre. nyílt forráskódú következtetési kiszolgáló szoftverkeretrendszer , az áteresztőképesség optimalizálására, a késés csökkentésére és az AI érvelési szolgáltatások méretezésére, tovább javítva a Blackwell Ultra telepítések képességeit. Széles körben elfogadott 2022-es H100 chips. Pontosabban, az NVIDIA kiemelte a Blackwell Ultra kiváló következtetési sebességét-1,5-szer gyorsabb FP4 következtetési teljesítményt nyújtva. A DeepSeek-R1 671B modell futtató NVL72 klaszter most mindössze 10 másodperc alatt válaszokat generál, szignifikánsan felülmúlja a H100 tipikus 90 másodperces válaszidőjét. Az NVL72 drámaian felgyorsítja az AI érvelési munkaterhelést, lehetővé téve a közel-instantan válaszokat is a legnagyobb modellekre is”-mondta Jensen Huang, az NVIDIA vezérigazgatója a GTC Keynote során. Az ütemterv magában foglalja a Vera Rubin Superchip-et, amelyet 2026 végén terveznek kiadásra. Vera Rubin csillagász tiszteletére nevezték el, ez a következő generációs chip az NVIDIA egyedi tervezésű Vera CPU-ját, az új olimpus architektúrán alapul, a Rubin GPU-val. Célja, hogy a jelenlegi GRACE CPU-k teljesítményét duplán biztosítsa, és legfeljebb 288 GB nagy sávszélességű memóriánként, GPU-nál. Maga a Vera CPU 88 karmát tartalmaz, amelyek aljzatonként 176 szálra támogatják az egyidejű többszálú szálat, amelyet nagysebességű 1,8 TB/s nvlink mag-Core felület kiegészít a továbbfejlesztett CPU-GPU kommunikációhoz. Teljesítmény. Ezek a rendszerek olyan vállalkozásokat és kutatóintézeteket céloznak meg, amelyek robusztus AI-infrastruktúrát igényelnek, és jelentős nyereséget ígérnek az AI munkaterhelés hatékonyságában és a nagymodell-feldolgozásban. A konfigurációk lehetővé teszik a hatalmas GPU memória kapacitásait, amelyek ideálisak a nagyszabású AI érvelési és következtetési feladatokhoz, jelentősen növelve az AI modell komplexitásának kezelését és az adatátviteli sebességet. A termékek célja, hogy méretezhető teljesítményt biztosítsanak az AI, a gépi tanulás és az adatintenzív alkalmazások igénylésére, a számítási képességek javítására a felhő és az adatközpontok környezetében. Ezek a konfigurációk az optimalizált AI munkaterhelést a jobb teljesítmény, a csökkentett következtetési késés és a fejlett AI telepítéseket kezelő vállalatok megnövekedett méretezhetőségével érik el. A generatív, agentikus és fizikai AI alkalmazások gyorsított telepítése. Ezek a megoldások lehetővé teszik a vállalkozások számára, hogy gyorsan méretezzék AI-képességeiket, csökkentve a telepítési komplexitás és a teljesítmény fokozása. Az NVIDIA Blackwell Ultra GPU-ját kihasználva új szerverrendszereket, amelyek nagyszabású AI munkaterhelésekhez és adatközpontok telepítéséhez készültek. A vállalat célja, hogy felhatalmazza a vállalkozásokat erőteljes AI számítástechnikai platformokkal, egyszerűsítve a kifinomult AI modellek és a munkaterhelések elfogadását. Alkalmazások.

Categories: IT Info