A
nvidia belépett a versenyképes kicsi AI modell arénába, a Nemotron-nano-9B-V2, egy erős és hatékony 9 milliárd paraméteres nyílt forráskódú modell kiadásával. Most már elérhető, a modell új hibrid Mamba-transzformátor architektúrát tartalmaz, amelyet egy GPU-n nagy teljesítményre terveztek. A kiadás az NVIDIA-t a kisebb, kereskedelemben barátságos AI növekvő piacának kulcsszereplőjeként helyezi el, közvetlenül kihívást jelent a legújabb innovációkkal. Ahogy az iparág küzd a határok magas költségeivel, a hatékony, mégis képes alternatívák iránti kereslet növekedett. Az NVIDIA bejegyzése közvetlenül kihívást jelent a legutóbbi olyan versenytársaktól, mint az Alibaba és a DeepSeek. egy finoman hangolt rendszer, amelyet az akadálymentességre és az energiára terveztek. A Nemotron-nano-9B-V2 egy 9 billió-paraméteres modell, amelyet szándékosan tömörítenek egy nagyobb 12-milliárd paraméter alapmodell . Ez a metszés stratégiai döntés volt annak biztosítása érdekében, hogy hatékonyan működjön az egyetlen NVIDIA A10 GPU-n, amely egy népszerű és széles körben alkalmazott hardver darab a vállalati ágazatban. A modellt úgy metszi, hogy kifejezetten illeszkedjen az A10 chiphez. href=”https://twitter.com/artificialanlysshrf_src=twsrc%5etfw”Target=”_ üres”>@Articialanlys Intelligence Index ranglistán a nyitott modellek között… pic.twitter.com/ZS5GTDZJSK
-nvidia ai fejlesztő (@nvidiaaidev) augusztus 18, 2025
A cég szintén kiadta a PRUMed 12b és a PRUMed 12b és a PRUMed. A fejlesztők további lehetőségei az egyedi finomhangoláshoz. Nagyon sokoldalú is, több nyelven, beleértve az angol, a német, a spanyol és a japán nyelveket is, és az NVIDIA szerint mind a komplex oktatás, mind a kódgenerációs feladatokhoz ügyes. A hivatalos műszaki jelentés , az nvidia az erős eredményeket részletezi. A bonyolult érvelésnél 72,1%-ot ér el az AIME25 és 64,0% a GPQA-n. A matematikai problémamegoldáshoz lenyűgöző 97,8%-ot eredményez a Math500-on. A modell 71,1%-os pontszámot biztosít a LivecodeBench kódolási értékelése során, és robusztus hosszú kontextusú megértést mutat, 78,9%-kal az uralkodó 128K tesztnél. A következő oktatáskor eléri a 90,3%-ot az IfEVAL-nál, megmutatva annak megbízhatóságát. A táblák egészében a referenciaértékek nagyobb pontosságot mutatnak, mint az Alibaba QWen3-8B-je, amely az SLM térben gyakori összehasonlítás. Ez létrehozza a Nemotron-Nano-t félelmetes új lehetőségként azoknak a fejlesztőknek, akik a legmagasabb szintű teljesítményt keresik egy kompakt, hatékony csomagban. href=”https://research.nvidia.com/labs/adlr/nvidia-nemotron-nano-2/”Target=”_ üres”> kifinomult hibrid mamba-transzformátor architektúra . Ez a kialakítás közvetlen válasz a hagyományos nagy nyelvi modellek korlátozásaira. A legnépszerűbb LLM-ek a tiszta „transzformátor” modellek, amelyek teljes mértékben a figyelemrétegekre támaszkodnak. Míg erőteljes, ezek a rétegek rendkívül költségessé válnak a memóriában, és kiszámítják a szöveges sorrend hosszának növekedésével, ez egy olyan probléma, amely kvadratikusan méretez. A Mamba magában foglalja a szelektív állapottérmodelleket (SSMS), amely nagyon hosszú információszekvenciákat képes feldolgozni egy folyamatos állapot fenntartásával, lehetővé téve számukra, hogy lineárisan skálázzák a szekvencia hosszát.
Ez a hibrid megközelítés jelentős teljesítménynövekedést eredményez. A költséges figyelmeztető mechanizmusok többségének helyettesítésével ezekkel a lineáris idejű állami térrétegekkel, a modell akár hatszor magasabb átviteli sebességet érhet el hosszú kontextusban, összehasonlítva a hasonló méretű transzformátor modellekkel, a pontosság jelentős csökkenése nélkül. Ez ideálissá teszi a hosszú dokumentumokkal vagy kiterjedt csevegési előzményekkel járó feladatokhoz. A modell alapértelmezés szerint indoklási nyomot generál, mielőtt a végső választ adna, de a fejlesztők olyan egyszerű vezérlési tokeneket használhatnak, mint például a „/Think”, hogy kifejezetten kérjék ezt a lépésről lépésre, vagy a „/no__think” egy gyorsabb, közvetlen válasz megkerülésére. Ez lehetővé teszi a fejlesztők számára, hogy a válasz kitöltése előtt a modellek számát a modellek számának megsemmisítsék a belső érvelésnek. Ez a mechanizmus kulcsfontosságú kart biztosít a pontosság és a késés egyensúlyának kiegyensúlyozásához, amely kulcsfontosságú aggodalomra ad okot a termelési alkalmazásokban, mint például az ügyfélszolgálat vagy az autonóm ügynökök, ahol a válaszadási sebesség kritikus. Ezt a funkciót szándékosan tervezték az edzés utáni képzés során, ahol az adatok kb. 5%-a csonka érvelési nyomokat tartalmazott, lehetővé téve ezt a finomszemcsés költségvetési ellenőrzést a következtetésben. permissive nvidia nyitott modell licencszerződés . Az engedélyt kifejezetten úgy tervezték, hogy kereskedelmi szempontból barátságos legyen, kijelentve, hogy a modellek kereskedelmileg használhatók a dobozból. Ez lehetővé teszi a szervezetek számára, hogy a modellt szabadon letöltsék, módosítsák és telepítsék a termelésbe, anélkül, hogy külön licencet vagy fizetési díjat tárgyalnának a felhasználáshoz, a bevételhez vagy a felhasználói számlákhoz. Ez a nyílt megközelítés éles ellentétben áll más szolgáltatók többrétegű nyitott engedélyével, amelyek gyakran fizetett megállapodást igényelnek, ha egy vállalat eléri egy bizonyos skálát. A fejlesztők szintén szabadon létrehozhatnak és terjeszthetnek származékos modelleket, elősegítve az együttműködő ökoszisztémát. A vállalkozásoknak nem szabad megkerülniük a beépített biztonsági védőkorlátokat anélkül, hogy összehasonlítható pótlásokat hajtana végre. A modell vagy származékos termékeinek bármilyen újraelosztása tartalmaznia kell a licenc szövegét és a megfelelő hozzárendelést. Ezenkívül a felhasználásnak meg kell felelnie a kereskedelmi szabályoknak, és igazodnia kell az NVIDIA megbízható AI irányelveivel, és a peres záradék védi az ökoszisztémát azáltal, hogy megszünteti az engedélyt azoknak a felhasználóknak, akik másokat beperelnek a modell megsértése miatt. A hatalmas Nemotron-training-DataSet-v1 összehasonlító. Az adatok, amelyek példátlan átláthatóságot kínálnak. Ez magában foglalja a matematikai központú adatkészletet, amelyet új csővezetékkel készítettek a komplex egyenletek, a GitHub-ból származó nagyszabású kurátus kód-adatkészlet megőrzéséhez, többlépcsős szűréssel, és egy szintetikusan generált adatkészletet, amely a STEM, az akadémiai és az érvelési tartományokat lefedi. Ezenkívül a Nemotron-CC Web Crawl új verzióját is tartalmazza, amelyet a szintetikus kérdés-válaszpárok továbbfejlesztettek, amelyet 15 nyelvre fordítanak, hogy támogassák a robusztus többnyelvű képességeket. href=”https://huggingface.co/collections/nvidia/nvidia-nemotron-689f6d6e6ead8e77dd641615″Target=”_ üres”> Letöltés az arcon és az nvidia modellkatalóguson keresztül. Azáltal, hogy nemcsak egy erőteljes modellt, hanem a hatalmas, kiváló minőségű adatokat is, amelyeken képzettek, az NVIDIA átfogó eszközkészletet kínál. Ennek a stratégiának a célja a fejlesztők felhatalmazása és az innováció felgyorsítása azáltal, hogy eszközöket ad nekik mind a nagy teljesítmény, mind a telepítési hatékonyság érdekében.