NVIDIA ka hyrë në arenën konkurruese të modelit AI të vogël me lëshimin e Nemotron-Nano-9b-V2, një model i fuqishëm dhe efikas me 9 miliardë parametra me burim të hapur. E disponueshme tani, modeli përmban një arkitekturë të re hibride MAMBA-Transformer e krijuar për xhiros të lartë në një GPU të vetme. Lëshimi pozicionon NVIDIA si një lojtar kryesor në tregun në rritje për AI më të vogël, miqësore me komercialisht, duke sfiduar drejtpërdrejt risitë e fundit. Ndërsa industria grumbullohet me kostot e larta të modeleve kufitare, kërkesa për alternativa efikase por të afta është rritur. Hyrja e NVIDIA sfidon drejtpërdrejt lëshimet e fundit nga konkurrentët si Alibaba dhe Deepseek. Oferta është një sistem i rregulluar mirë i krijuar për akses dhe fuqi. Nemotron-nano-9b-v2 është një model 9-miliardë-parametër i ngjeshur qëllimisht nga një më i madh 12-miliardë-parameter Model . Ky krasitje ishte një vendim strategjik për të siguruar që mund të funksiononte në mënyrë efikase në një GPU të vetme NVIDIA A10, një pjesë e pajisjeve të njohura dhe të vendosura gjerësisht në sektorin e ndërmarrjeve. Modeli u krasit për të përshtatur në mënyrë specifike çipin A10. href=”https://twitter.com/artificialanlys?ref_src=twsrc%5etfw”target=”_ bosh”>@artificialanlys Drejtori i Inteligjencës së Inteligjencës midis modeleve të hapura brenda… pic.twitter.com/zs5gtdzjsk

-NVIDIA AI Developer (@nvidiaaidev) Raporti Zyrtar Teknik , Nvidia detajon një suitë të rezultateve të forta. Në arsyetimin kompleks, ajo arrin 72.1% në AIME25 dhe 64.0% në GPQA. Për zgjidhjen e problemeve matematikore, ajo shënon një mbresëlënëse 97.8% në MATH500.

aftësitë e tij shtrihen në zhvillimin e softuerit dhe aderimin e udhëzimeve. Modeli siguron një rezultat 71.1% në vlerësimin e kodimit LiveCodeBench dhe demonstron një kuptim të fortë me kontekst të gjatë me 78.9% në testin e sundimtarit 128K. Në udhëzime në vijim, ajo arrin 90.3% në Ifeval, duke treguar besueshmërinë e tij. Në të gjithë bordin, standardet tregojnë saktësi më të lartë se QWEN3-8B të Alibaba, një pikë e zakonshme e krahasimit në hapësirën SLM. Kjo krijon nemotron-nano si një mundësi e re e frikshme për zhvilluesit që kërkojnë performancë të nivelit të lartë në një paketë kompakte, efikase. href=”https://research.nvidia.com/labs/adlr/nvidia-nemotron-nano-2/”target=”_ bosh”> arkitektura e sofistikuar hibride e sofistikuar Mamba-Transformer . Ky dizajn është një përgjigje e drejtpërdrejtë ndaj kufizimeve të modeleve tradicionale të gjuhëve të mëdha. LLM-të më të njohura janë modele të pastra”transformator”, të cilat mbështeten plotësisht në shtresat e vëmendjes. Ndërsa janë të fuqishme, këto shtresa bëhen jashtëzakonisht të kushtueshme në memorje dhe llogariten pasi gjatësia e sekuencës së tekstit rritet, një problem që peshon në mënyrë kuadratike. Mamba përfshin modele selektive të hapësirës shtetërore (SSM), të cilat mund të përpunojnë sekuenca shumë të gjata të informacionit duke ruajtur një gjendje të vazhdueshme, duke i lejuar ata të shkallëzojnë në mënyrë lineare me gjatësinë e sekuencës.

Kjo qasje hibride jep fitime të konsiderueshme të performancës. Duke zëvendësuar pjesën më të madhe të mekanizmave të kushtueshëm të vëmendjes me këto shtresa hapësinore në kohë lineare, modeli mund të arrijë deri në gjashtë herë xhiros më të lartë në kontekste të gjata në krahasim me modelet e transformatorit me madhësi të ngjashme, pa një rënie të konsiderueshme të saktësisë. Kjo e bën atë ideal për detyrat që përfshijnë dokumente të gjata ose histori të gjera të bisedës. Modeli paracakton gjenerimin e një gjurmë arsyetimi përpara se të sigurojë një përgjigje përfundimtare, por zhvilluesit mund të përdorin shenja të thjeshta kontrolli si `/mendoni` për të kërkuar në mënyrë të qartë këtë proces hap pas hapi ose”/no_think` për ta anashkaluar atë për një përgjigje më të shpejtë, të drejtpërdrejtë. Kjo lejon zhvilluesit të kapin numrin e shenjave që modeli i kushton arsyetimit të tij të brendshëm përpara se të plotësojnë një përgjigje. Ky mekanizëm siguron një levë thelbësore për balancimin e saktësisë me latencën, një shqetësim kryesor në aplikimet e prodhimit si mbështetja e klientit ose agjentët autonome ku shpejtësia e përgjigjes është kritike. Kjo veçori u krijua me qëllim gjatë trajnimit pas trajnimit, ku rreth 5% e të dhënave përmbajnë gjurmë arsyetimi të cunguara, duke bërë të mundur që ky kontroll i buxhetit të imët në kohën e përfundimit. Marrëveshja e licencës së modelit të hapur Nvidia . Liçensa është krijuar në mënyrë të qartë për të qenë miqësore komerciale, duke thënë se modelet janë të përdorshme komerciale jashtë kutisë. Kjo lejon organizatat të shkarkojnë, modifikojnë dhe vendosin lirshëm modelin menjëherë në prodhim pa negociuar një licencë të veçantë ose pagesa të paguara të lidhura me përdorimin, të ardhurat ose numërimin e përdoruesve. Kjo qasje e hapur qëndron në kontrast të ashpër me licencat e hapura të hapura nga ofruesit e tjerë, të cilat shpesh kërkojnë një marrëveshje të paguar pasi një kompani të arrijë një shkallë të caktuar. Zhvilluesit janë gjithashtu të lirë të krijojnë dhe shpërndajnë modele derivative, duke nxitur një ekosistem bashkëpunues.

licenca, megjithatë, përfshin disa kushte standarde të përqendruara në përdorimin e përgjegjshëm. Ndërmarrjet nuk duhet të anashkalojnë rojet e integruara të sigurisë pa zbatuar zëvendësime të krahasueshme. Do rishpërndarje e modelit ose derivateve të tij duhet të përfshijë tekstin e licencës dhe atribuimin e duhur. Për më tepër, përdorimi duhet të përputhet me rregulloret e tregtisë dhe të përafrohet me udhëzimet e besueshme të AI të NVIDIA, dhe një klauzolë gjyqësore mbron ekosistemin duke përfunduar licencën për përdoruesit që padisin të tjerët për shkelje nga modeli. The masiv nemotron-trena-trena-dataSet-v1 Përfundim anormus 6.6 të dhëna, duke ofruar transparencë të paparë.

Kjo të dhënë është e organizuar në katër kategori kryesore. Ai përfshin një bazë të dhënash të përqendruar në matematikë të krijuar me një tubacion të ri për të ruajtur ekuacionet komplekse, një bazë të dhënash të kuruar në shkallë të gjerë nga GitHub me filtrim shumë-fazor, dhe një të dhënë të gjeneruar sintetikisht që mbulon fushat STEM, Akademike dhe Arsyetimi. Ai gjithashtu përmban një version të ri të zvarritjes në internet Nemotron-CC, të përmirësuar me çifte sintetike të pyetjeve dhe përgjigjeve të përkthyera në 15 gjuhë për të mbështetur aftësi të fuqishme shumëgjuhëshe. href=”https://huggingface.co/collections/nvidia/nvidia-nemotron-689f6d6e6ead8e77dd641615″target=”_ bosh”> Shkarkoni në përqafimin e fytyrës dhe përmes katalogut të modelit të Nvidia. Duke siguruar jo vetëm një model të fuqishëm, por edhe të dhënat e gjera, me cilësi të lartë për të cilat u trajnua, NVIDIA po ofron një mjet gjithëpërfshirës të mjeteve. Kjo strategji synon të fuqizojë zhvilluesit dhe të përshpejtojë inovacionin duke u dhënë atyre mjete si për performancën e lartë ashtu edhe për efikasitetin e vendosjes.

Categories: IT Info