Η NVIDIA εισήλθε στην ανταγωνιστική μικρή αρένα μοντέλου AI με την απελευθέρωση του Nemotron-Nano-9b-V2, ενός ισχυρού και αποτελεσματικού μοντέλου ανοιχτού κώδικα 9 δισεκατομμυρίων παραμέτρων. Διατίθεται τώρα, το μοντέλο διαθέτει μια νέα υβριδική αρχιτεκτονική μετασχηματιστή Mamba που έχει σχεδιαστεί για υψηλή απόδοση σε μία μόνο GPU. Οι θέσεις απελευθέρωσης NVIDIA ως βασικός παίκτης στην αναπτυσσόμενη αγορά για μικρότερο, εμπορικά φιλικό AI, που προκαλούν άμεσα τις πρόσφατες καινοτομίες. Καθώς η βιομηχανία αντιμετωπίζει το υψηλό κόστος των μοντέλων συνόρων, έχει αυξηθεί η ζήτηση για αποτελεσματικές αλλά ικανές εναλλακτικές λύσεις. Η είσοδος της Nvidia προκλήσεις άμεσα τις πρόσφατες κυκλοφορίες από ανταγωνιστές όπως το Alibaba και το Deepseek. Η προσφορά είναι ένα λεπτό συντονισμένο σύστημα σχεδιασμένο για προσβασιμότητα και ισχύ. Το Nemotron-Nano-9B-V2 είναι ένα μοντέλο 9 δισεκατομμυρίων παραμέτρων που συμπιέθηκε σκόπιμα από ένα μεγαλύτερο 12-billion-parameter μοντέλο βάσης . Αυτό το κλάδεμα ήταν μια στρατηγική απόφαση για να εξασφαλιστεί ότι θα μπορούσε να λειτουργήσει αποτελεσματικά σε ένα μόνο NVIDIA A10 GPU, ένα δημοφιλές και ευρέως αναπτυγμένο κομμάτι υλικού στον τομέα των επιχειρήσεων. Το μοντέλο ήταν κλαδευμένο για να ταιριάζει ειδικά στο τσιπ A10. href=”https://twitter.com/artificialanlys?ref_src=twsrc%5etfw”target=”_ blank”>@ArtificAnlys Leader Indellence Index Index μεταξύ ανοιχτών μοντέλων μέσα… Target=”_ blank”> pic.twitter.com/zs5gtdzjsk href=”https://twitter.com/nvidiaaidev/status/1957573364849004545?ref_src=twsrc%5etfw”target=”_ blank”> 18 Αυγούστου, 2025 Προγραμματιστές περισσότερες επιλογές για προσαρμοσμένη τελειοποίηση. Είναι επίσης εξαιρετικά ευπροσάρμοστο, που χειρίζεται πολλαπλές γλώσσες, όπως αγγλικά, γερμανικά, ισπανικά και ιαπωνικά, και είναι έμπειρος τόσο σε πολύπλοκες διδασκαλίες όσο και στις εργασίες δημιουργίας κώδικα, σύμφωνα με την NVIDIA. Στο Σχετικά με τη σύνθετη συλλογιστική, επιτυγχάνει 72,1% σε AIME25 και 64,0% σε GPQA. Για τη μαθηματική επίλυση προβλημάτων, βαθμολογεί ένα εντυπωσιακό 97,8% στο Math500. Το μοντέλο εξασφαλίζει βαθμολογία 71,1% στην αξιολόγηση κωδικοποίησης LiveCodebench και αποδεικνύει ισχυρή κατανόηση μακράς περιεχομένου με 78,9% στη δοκιμή χάρακα 128K. Κατά την παρακολούθηση της διδασκαλίας, φθάνει το 90,3% στο IFEVAL, παρουσιάζοντας την αξιοπιστία του. Τα αποτελέσματα αυτά είναι σημαντικά επειδή τοποθετούν το Nemotron-Nano-9b-V2 μπροστά από τους άμεσους αντιπάλους του. Σε όλο το σκάφος, τα σημεία αναφοράς παρουσιάζουν υψηλότερη ακρίβεια από το QWEN3-8B της Alibaba, ένα κοινό σημείο σύγκρισης στον χώρο SLM. Αυτό καθιερώνει το Nemotron-Nano ως μια τρομερή νέα επιλογή για τους προγραμματιστές που αναζητούν την κορυφαία απόδοση σε ένα συμπαγές, αποτελεσματικό πακέτο. href=”https://research.nvidia.com/labs/adlr/nvidia-nemotron-nano-2/”target=”_ blank”> εκλεπτυσμένη υβριδική αρχιτεκτονική mamba-transformer . Αυτός ο σχεδιασμός είναι μια άμεση απάντηση στους περιορισμούς των παραδοσιακών μεγάλων γλωσσικών μοντέλων. Τα πιο δημοφιλή LLMs είναι καθαρά μοντέλα”μετασχηματιστών”, τα οποία βασίζονται εξ ολοκλήρου σε στρώματα προσοχής. Ενώ είναι ισχυρά, αυτά τα στρώματα γίνονται εξαιρετικά δαπανηρά στη μνήμη και υπολογίζονται καθώς το μήκος της ακολουθίας κειμένου μεγαλώνει, ένα πρόβλημα που κλιμακώνεται τετραγωνικά. Το MAMBA ενσωματώνει μοντέλα επιλεκτικού χώρου κατάστασης (SSMS), τα οποία μπορούν να επεξεργαστούν πολύ μεγάλες αλληλουχίες πληροφοριών διατηρώντας μια συνεχή κατάσταση, επιτρέποντάς τους να κλιμακωθούν γραμμικά με το μήκος αλληλουχίας. Αντικαθιστώντας τους περισσότερους από τους δαπανηρούς μηχανισμούς προσοχής με αυτά τα στρώματα διαστημικού χώρου γραμμικού χρόνου, το μοντέλο μπορεί να επιτύχει έως και έξι φορές υψηλότερη απόδοση σε μακρά πλαίσια σε σύγκριση με μοντέλα μετασχηματιστών παρόμοιου μεγέθους, χωρίς σημαντική πτώση στην ακρίβεια. Αυτό το καθιστά ιδανικό για εργασίες που περιλαμβάνουν μακρά έγγραφα ή εκτεταμένες ιστορίες συνομιλίας. Το μοντέλο προεπιλογή για τη δημιουργία ενός ιχνοστοιχείου συλλογιστικής πριν από μια τελική απάντηση, αλλά οι προγραμματιστές μπορούν να χρησιμοποιήσουν απλά μάρκες ελέγχου όπως το `/σκέφτονται να ζητούν ρητά αυτή τη διαδικασία βήμα προς βήμα ή`/no_think` για να το παρακάμψουν για μια ταχύτερη και άμεση απάντηση. Αυτό επιτρέπει στους προγραμματιστές να καλύψουν τον αριθμό των μαρκών που το μοντέλο αφιερώνει στην εσωτερική του συλλογιστική πριν ολοκληρώσει μια απάντηση. Αυτός ο μηχανισμός παρέχει ένα κρίσιμο μοχλό για την εξισορρόπηση της ακρίβειας με καθυστέρηση, μια βασική ανησυχία στις εφαρμογές παραγωγής όπως η υποστήριξη πελατών ή οι αυτόνομοι παράγοντες όπου η ταχύτητα απόκρισης είναι κρίσιμη. Αυτό το χαρακτηριστικό ήταν σκόπιμα κατασκευασμένο κατά τη διάρκεια της μετά την κατάρτιση, όπου περίπου το 5% των δεδομένων περιείχαν ιχνοστοιχεία συλλογιστικής, επιτρέποντας σε αυτόν τον λεπτό έλεγχο του προϋπολογισμού στο χρόνο συμπερασμάτων. Το δικό του Η άδεια έχει σχεδιαστεί ρητά για να είναι εμπορικά φιλική, δηλώνοντας ότι τα μοντέλα είναι εμπορικά χρησιμοποιημένα από το κουτί. Αυτό επιτρέπει στους οργανισμούς να κατεβάζουν ελεύθερα, να τροποποιούν και να αναπτύσσουν το μοντέλο στην παραγωγή αμέσως χωρίς να διαπραγματευτούν ξεχωριστή άδεια ή να πληρώνουν αμοιβές που συνδέονται με τη χρήση, τα έσοδα ή τον αριθμό των χρηστών.
Αυτή η ανοικτή προσέγγιση βρίσκεται σε έντονη αντίθεση με τις κλιμακωτές ανοιχτές άδειες από άλλους παρόχους, οι οποίες συχνά απαιτούν πληρωμένη συμφωνία όταν μια εταιρεία φτάσει σε ορισμένη κλίμακα. Οι προγραμματιστές είναι επίσης ελεύθεροι να δημιουργούν και να διανέμουν μοντέλα παραγώγων, προωθώντας ένα συνεργατικό οικοσύστημα. Οι επιχειρήσεις δεν πρέπει να παρακάμπτουν ενσωματωμένα προστατευτικά μηνύματα ασφαλείας χωρίς να εφαρμόζουν συγκρίσιμες αντικαταστάσεις. Οποιαδήποτε ανακατανομή του μοντέλου ή των παραγώγων του πρέπει να περιλαμβάνει το κείμενο της άδειας και την κατάλληλη απόδοση. Επιπλέον, η χρήση πρέπει να συμμορφώνεται με τους εμπορικούς κανονισμούς και να ευθυγραμμιστεί με τις αξιόπιστες κατευθυντήριες γραμμές της AI της NVIDIA και μια ρήτρα διαφορών προστατεύει το οικοσύστημα, τερματίζοντας την άδεια χρήσης που χρησιμοποιούνται για τους άλλους για την παράβαση από το μοντέλο. Το μαζικό nemotron-trining-dataset-v1 Δεδομένα υψηλής ποιότητας, προσφέροντας πρωτοφανή διαφάνεια.
Αυτό το σύνολο δεδομένων οργανώνεται σε τέσσερις βασικές κατηγορίες. Περιλαμβάνει ένα σύνολο δεδομένων που επικεντρώνεται στα μαθηματικά που δημιουργήθηκε με έναν νέο αγωγό για τη διατήρηση σύνθετων εξισώσεων, ένα σύνολο δεδομένων κώδικα μεγάλης κλίμακας από το GitHub με φιλτράρισμα πολλαπλών σταδίων και ένα συνθετικά παραγόμενο σύνολο δεδομένων που καλύπτει το στέλεχος, τους ακαδημαϊκούς και τους τομείς συλλογισμού. Διαθέτει επίσης μια νέα έκδοση της ανίχνευσης ιστού Nemotron-CC, ενισχυμένη με συνθετικά ζεύγη ερωτήσεων και απαντήσεων που μεταφράζονται σε 15 γλώσσες για να υποστηρίξουν τις ισχυρές πολύγλωστες δυνατότητες. href=”https://huggingface.co/collections/nvidia/nvidia-nemotron-689f6d6ead8e77dd641615″target=”_ blank”> Λήψη στο Hugging Face και μέσω του Nvidia Model Datalog. Παρέχοντας όχι μόνο ένα ισχυρό μοντέλο αλλά και τα τεράστια, υψηλής ποιότητας δεδομένα που εκπαιδεύτηκε, η Nvidia προσφέρει ένα ολοκληρωμένο εργαλείο. Αυτή η στρατηγική στοχεύει να ενδυναμώσει τους προγραμματιστές και να επιταχύνει την καινοτομία δίνοντάς τους τα εργαλεία τόσο για την υψηλή απόδοση όσο και για την αποτελεσματικότητα ανάπτυξης.