nvidia újradefiniálja az AI számítástechnikát a DGX Spark és a DGX állomás bevezetésével, két asztali AI AI szuperszámítógépekkel, amelyek a Grace Blackwell platformon. Az új rendszereket úgy tervezték, hogy kutatókat, fejlesztőket és vállalkozásokat biztosítsanak a munkaállomás-osztályú AI-képességekkel, anélkül, hogy a felhő vagy az adatközpont erőforrásaira támaszkodnának. Az NVIDIA célja, hogy megváltoztassa ezt azáltal, hogy olyan személyes AI szuperszámítógépeket kínál, amelyek helyben nagy teljesítményű AI képzést és következtetést biztosítanak. Az nagysebességű összekapcsolások kombinálásával , kiterjedt memória és optimalizált hardver, ezek a rendszerek lehetővé teszik a szakemberek fejlesztését, kiképzését és telepítését az AI modellekről. A CES 2025-ben bejelentett belépő szintű AI munkaállomásra tett erőfeszítések. A 3000 dollárra szánt rendszert a fejlesztőknek és a hallgatóknak tervezték, amelyek a GB10 Grace Blackwell Superchip és az AI teljesítményű PETAFLOP-t mutatják be. A DGX Spark kibővíti ezt a koncepciót, szignifikánsan magasabb memória sávszélességgel és több egységes méretezhetőséggel, jelezve az NVIDIA stratégiai elmozdulását a helyi AI számítástechnika felé. src=”adatok: image/svg+xml; nitro-üres-id=mty4mzoxmdi2-1; base64, phn2zyb2awv3qm94psiwidagmtaynca1nz Uiihdpzhropsixmdi0iibozwlnahq9iju3nsigeg1sbnm9imh0dha6lyy93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>”>”>”>”>”>”>”>”>”>”>”>
DGX Spark: Egy kicsi AI erőmű fejlesztők számára
A DGX Spark egy kompakt AI munkaállomás, amelyet a GB10 Grace Blackwell Superchip körül építettek, egy hibrid CPU-GPU kialakítás, amelyet a gépi tanulási hatékonyság érdekében terveztek. A nvidia hivatalos bejelentése szerint , a rendszer, a prototest, a prototest, a prototest, a rendszer, a rendszer, a rendszer, a rendszer, a rendszer, a rendszer, a rendszer, a rendszer, a rendszer, a rendszer hivatalos bejelentése, az NVIDIA hivatalos bejelentése. A következtetési modellek helyben. A rendszer a nvlink-c2c , egy ultra-high-bandwidth összekapcsolást, amely javítja az adatátvitelt, a feldolgozó alkatrészeket, csökkenti a palackozás és a latenciák, az AI, a latenciák, az AI Latenciák és és a latenciák, ultra-high-bandwidth összekapcsolása is. Az NVIDIA lehetővé tette a multi-egység méretezhetőségét, lehetővé téve a két DGX Spark rendszer összekapcsolását. Ez a konfiguráció 405 milliárd paraméterrel támogatja az AI modelleket, így költséghatékony alternatívává válik azoknak a kutatóknak és csapatoknak, akik korábban nagy felhőalapú klaszterekre támaszkodtak. Az NVIDIA DGX állomása adatközpontú AI számítástechnikát nyújt munkaállomás-forma tényezőben. A DGX Spark-tól eltérően, ezt a rendszert a GB300 Grace Blackwell Ultra Superchip, az NVIDIA Blackwell AI architektúrájának fejlett iterációja, amelyet nagyszabású gépi tanulási modellek edzésére és telepítésére terveztek. Nagyszabású transzformátor modell edzés. A rendszer integrálja a nvidia cuda-x ai könyvtárakat , Pytorch és nvidia és nvidia, és nvidia, és nvidia, és nvidia, és nvidia, és nvidia dgx os , biztosítva a modern AI munkafolyamatok kompatibilitását. src=”adatok: image/svg+xml; nitro-üres-id=mty5odoxmjq0-1; base64, phn2zyb2awv3qm94psiwidagmtaynca1nzyiii Hdpzhropsixmdi0iibozwlnahq9iju3niig1sbnm9Imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2z4=nvidia> nvidia> nvidia. A DGX Spark és a DGX állomás (kép: NVIDIA)
A DGX állomás 72 core Grace CPU-t (Neoverse V2 architektúra), akár 288 GB HBM3E GPU memóriával és 496 GB LPDDR5X CPU memóriával rendelkezik, így ez az egyik legerősebb AI-állomány. Az NVIDIA nagysebességű hálózati megoldásai tovább lehetővé teszik a hatékony multi-GPU-feldolgozást, így ez a rendszer gyakorlati választás azoknak a kutatóknak, akik közvetlen hozzáférést igényelnek a nagy teljesítményű AI hardverhez. A DGX Spark és a DGX állomás konfigurációi. A DGX Spark előzetes megrendelései 2025. március 18-án kezdődtek, és a szállítmányok várhatóan 2025 nyarán kezdődnek. Alkalmazások.”
A DGX Spark és a DGX állomás bevezetése tükrözi a helyszíni AI számítástechnika iránti növekvő igényt. Az AI munkaterhelések felhőből a helyi munkaállomásokra történő áthelyezésével az NVIDIA legújabb hardvere csökkenti a késleltetést, az adatvédelmi aggályokat és a folyamatban lévő felhőszolgáltatási költségeket. Az ilyen rendszerek energiafogyasztása azonban nyitott kérdés. Noha az NVIDIA-nak még nem bocsátotta ki a részletes energiafogyasztási referenciaértékeket, a rendszerek magas memória sávszélessége és feldolgozási igényei azt sugallják, hogy fejlett hűtési megoldásokra és jelentős energiaforrásokra lesz szükségük.