nvidia omdefinierar AI-datoranvändning med introduktionen av DGX Spark och DGX-station, två skrivbords-AI-superdatorer byggda på Grace Platform

När AI-arbetsbelastningar blir allt mer komplexa har industrin starkt förlitat sig på molnbaserade lösningar. NVIDIA syftar till att ändra det genom att erbjuda personliga AI-superdatorer som levererar högpresterande AI-utbildning och slutsats lokalt. Genom att kombinera Höghastighetsinconnect , omfattande minne och optimerad hårdvara, dessa system tillåter proffs att utveckla, träna och distribuera AI-modeller från sina arbeten. Tidigare ansträngningar med projektsiffror, en AI-arbetsstation på startnivå som tillkännagavs vid CES 2025. Det systemet, prissatt till $ 3 000, var utformat för utvecklare och studenter, med GB10 Grace Blackwell Superchip och en Petaflop av AI-prestanda. DGX Spark utvidgar detta koncept med betydligt högre minnesbandbredd och skalbarhet med flera enheter och markerar NVIDIAs strategiska förändring mot lokal AI-dator.

>

DGX Spark: Ett litet AI-kraftverk för utvecklare

DGX-gnistan är en kompakt AI-arbetsstation byggd runt GB10 Grace Blackwell Superchip, en hybrid CPU-GPU-design konstruerad för maskininlärningseffektivitet. According to NVIDIA’s official announcement, the system is capable of delivering 1,000 trillion operations per second (TOPS) at FP4 precision, making it ideal for prototyping, fine-tuning, and Löpande inferensmodeller lokalt.

Trots sin Mini PC-formfaktor innehåller DGX Spark 128 GB LPDDR5X-minne och upp till 4TB NVME SSD-lagring, vilket gör att den kan bearbeta stora AI-arbetsbelastningar oberoende. Systemet har också nvlink-c2c , en ultralättande in-bandwid-interconnect som förbättrar dataöverföring mellan processkomponenter, reducering av flaskor och latens och latens. NVIDIA har möjliggjort skalbarhet med flera enheter, vilket gör att två DGX-gnistsystem kan kopplas ihop. Denna konfiguration stöder AI-modeller med upp till 405 miljarder parametrar, vilket gör det till ett kostnadseffektivt alternativ för forskare och team som tidigare förlitade sig på stora molnbaserade kluster.

nvidia dgx gnista (bild: nvidia)

dgx station: arbetsstation-klass AI för högminnet arbete med

p> för att göra det högre. Bandbredd, NVIDIA: s DGX-station levererar datacenter-klass AI-dator i en arbetsstationformfaktor. Till skillnad från DGX Spark, drivs detta system av GB300 Grace Blackwell Ultra Superchip, en avancerad iteration av NVIDIAs Blackwell AI-arkitektur designad för utbildning och distribuering av storskaliga maskininlärningsmodeller. Storskalig transformatormodellutbildning. The system integrates NVIDIA’s CUDA-X AI libraries, PyTorch frameworks, and NVIDIA’s dgx OS , vilket säkerställer kompatibilitet med moderna AI-arbetsflöden.

nVidia DGX Spark och DGX-station (bild: NVIDIA)

DGX-stationen har också ett 72-kärnigt GRACE-CPU (Neoverse V2-arkitektur), upp till 288 GB HBM3E GPU-minne och 496 GB av LPDDR5X CPU-minne, vilket gör det till en av de mest kraftfulla AI-arbetsstationer. NVIDIA’s high-speed networking solutions further enable efficient multi-GPU processing, making this system a practical choice for researchers who require direct access to high-performance AI hardware.

Availability and Industry Adoption

NVIDIA has partnered with OEM manufacturers including ASUS, Dell, HP, Boxx, Lambda, and Supermicro to produce Olika konfigurationer av DGX-gnist-och DGX-stationen. Preorders for the DGX Spark began on March 18, 2025, with shipments expected to commence in the summer of 2025.

NVIDIA CEO Jensen Huang emphasized the company’s vision for localized AI computing, stating: “AI has transformed every layer of the computing stack. It stands to reason a new class of computers would emerge — designed for AI-native developers and to run AI-native Ansökningar.”

Införandet av DGX Spark och DGX Station återspeglar en växande efterfrågan på lokaliserad AI-datoranvändning. Genom att flytta AI-arbetsbelastningar från molnet till lokala arbetsstationer minskar Nvidias senaste hårdvara latens, integritetsproblem och pågående molntjänstkostnader. Energikonsumtionen för sådana system är emellertid fortfarande en öppen fråga.

Med AI-modeller som kräver allt hög prestanda hårdvara, kommer oro över värmeavledning och krafteffektivitet troligen att forma verklig antagande. Medan NVIDIA ännu inte har släppt detaljerade riktningsförbrukning i strömförbrukningen, tyder på bandbredd och bearbetningskrav för dessa system att de kommer att kräva avancerade kyllösningar och betydande energiresurser.

Categories: IT Info