Ένας ερευνητής της Samsung AI στο Μόντρεαλ δημιούργησε ένα μικροσκοπικό μοντέλο AI που χτυπά πολύ πάνω από το βάρος του, αμφισβητώντας την εστίαση της βιομηχανίας σε μαζική κλίμακα. Κυκλοφόρησε αυτή την εβδομάδα, το μοντέλο αναδρομικού μοντέλου 7 εκατομμυρίων παραμέτρων (TRM) ξεπερνά τα γιγαντιαία μοντέλα όπως το Google Gemini 2.5 Pro σε σκληρά συλλογιστικά παζλ. Δημοσιεύθηκε στο Arxiv , αποσκοπεί να αποδείξει ότι ο έξυπνος σχεδιασμός μπορεί να είναι πιο σημαντικός από το μέγεθος. Χρησιμοποιεί μια απλή”αναδρομική”διαδικασία για να σκεφτεί σε βρόχους και να βελτιώσει τις δικές της απαντήσεις, προσφέροντας μια πιο αποτελεσματική πορεία για την καινοτομία.
Αυτή η προσέγγιση αμφισβητεί την ανάγκη για τεράστια, δαπανηρά μοντέλα για την επίλυση σκληρών προβλημάτων AI. Όπως δήλωσε ο Jolicoeur-Martineau,”Η ιδέα ότι κάποιος πρέπει να βασίζεται σε μαζικά θεμελιώδη μοντέλα που εκπαιδεύονται για εκατομμύρια δολάρια από κάποια μεγάλη εταιρεία για να λύσουν σκληρά καθήκοντα είναι μια παγίδα”. Η απελευθέρωση σηματοδοτεί μια αυξανόμενη κίνηση προς τα μικρότερα, εξειδικευμένα μοντέλα. Src=”Δεδομένα: εικόνα/svg+xml; nitro-empty-id=mty1mtoxmtg2-1, base64, phn2zyb2awv3qm94psiwidagmti4mca3od Aiihdpzhropsixmjgwiibozwlnahq9ijc4mcigeg1sbnmm9imh0dha6ly93d3cudzmub3jnlziwmdavc3znij48l3n2zz4=”>>
Από την σύνθετη ιεραρχία έως την επαναλαμβανόμενη απλότητα
Το TRM εξελίσσεται από το μοντέλο ιεραρχικής λογικής (HRM) Εισήχθη νωρίτερα αυτό το έτος, η HRM χρησιμοποίησε δύο ξεχωριστά δίκτυα που λειτουργούσαν σε διαφορετικές συχνότητες, μια έννοια που οι δημιουργοί του δικαιολογούνται με σύνθετα βιολογικά επιχειρήματα για τον ανθρώπινο εγκέφαλο. Η προσέγγιση αυτή βασίστηκε επίσης σε προηγμένες μαθηματικές αρχές όπως το θεώρημα της σιωπηρής λειτουργίας για τη διαχείριση της μαθησιακής της διαδικασίας, καθιστώντας δύσκολη την ανάλυση. Το έργο του Jolicoeur-Martineau scrips αυτά τα στρώματα αφαίρεσης μακριά.
Η TRM χρησιμοποιεί μόνο ένα μόνο, μικροσκοπικό δίκτυο δύο στρώσεων. Διανέμει τις βιολογικές αναλογίες και τις εξαρτήσεις σταθερού σημείου, καθιστώντας την αρχιτεκτονική πιο διαφανή. Ο στόχος ήταν να απομονωθεί ο βασικός μηχανισμός: η επαναλαμβανόμενη βελτίωση.
Η βασική καινοτομία είναι η διαδικασία συλλογιστικής της. Το μοντέλο ξεκινά με μια τραχιά απάντηση και το βελτιώνει επαναληπτικά. Σε κάθε βρόχο, ενημερώνει πρώτα την εσωτερική”διαδικασία σκέψης”πριν από την ενημέρωση της τελικής του απάντησης, προσομοιώνοντας αποτελεσματικά ένα πολύ βαθύτερο δίκτυο χωρίς το υψηλό κόστος. Αυτό του επιτρέπει να μαθαίνει πολύπλοκες, πολυεπίπεδες αλυσίδες συλλογιστικής που κανονικά θα απαιτούσε ένα πολύ μεγαλύτερο μοντέλο. Αυτή η μέθοδος ενισχύει την απόδοση και αποφεύγει τα θέματα που αντιμετωπίζουν μεγαλύτερα μοντέλα σε μικρά σύνολα δεδομένων. Το ξεχωριστό επίτευγμά του έρχεται στο αφηρημένο και συλλογισμό Corpus (ARC-AGI), μια προκλητική σουίτα οπτικών παζλ που είναι απλή για τους ανθρώπους, αλλά διαβόητα δύσκολα για την AI. Αυτή η βαθμολογία ξεπερνά πολλά από τα βαρέων βαρών της βιομηχανίας, συμπεριλαμβανομένων των Gemini 2,5 Pro (37,0%), του OpenAi-High (34,5%) και του Deepseek R1 (15,8%), παρά το TRM που έχει λιγότερο από 0,01%των παραμέτρων τους. Εδώ, η TRM σημείωσε 7,8%, κερδίζοντας και πάλι το 4,9%του Gemini 2,5 Pro και το 3,0%του O3-Mini-High. Ενώ αυτές οι απόλυτες βαθμολογίες μπορεί να φαίνονται χαμηλές, αντιπροσωπεύουν ένα σημαντικό άλμα προς τα εμπρός σε ένα σημείο αναφοράς όπου η πρόοδος ήταν γνωστή αργή. επισημαίνοντας την αποτελεσματικότητα της αρχιτεκτονικής του. Στο Sudoku-Extreme, ένα σύνολο δεδομένων δύσκολων παζλ με μόνο 1.000 παραδείγματα κατάρτισης, η TRM έθεσε ένα νέο state-of-the-art ρεκόρ επιτυγχάνοντας 87,4% ακρίβεια. Αυτό αντιπροσωπεύει μια τεράστια βελτίωση σε σχέση με το 55% που σημειώθηκε από τον προκάτοχό του, HRM. Αυτά τα αποτελέσματα σε πολλαπλούς, ξεχωριστούς λογικούς τομείς Αξιοσημείωτο είναι η αποτελεσματικότητα του μοντέλου. Το σύνολο του μοντέλου εκπαιδεύτηκε σε μόλις δύο ημέρες σε τέσσερις GPU NVIDIA H-100 για κάτω από $ 500, όπως επιβεβαιώθηκε από τον ερευνητή. Αυτό έρχεται σε αντίθεση με τις εκδρομές πολλών εκατομμυρίων δολαρίων που απαιτούνται για τα σημερινά σύνορα LLMS. href=”https://twitter.com/jm_alexia/status/1975586932391313464?ref_src=twsrc%5etfw”target=”_ blank”> 7 Οκτωβρίου 2025 Αναδρομική συλλογιστική, αποδεικνύεται ότι «λιγότερο είναι περισσότερο». Αυτή η σχέση κόστους-αποτελεσματικότητας εκδημοκρατίζει την έρευνα αιχμής AI.
Το εύρημα ότι ένα μικρότερο δίκτυο δύο επιπέδων υπερέβη τις μεγαλύτερες εκδόσεις αμφισβητεί επίσης τους συμβατικούς νόμους κλιμάκωσης. Το χαρτί υποδηλώνει ότι αυτό οφείλεται στο γεγονός ότι το επαναληπτικό βάθος βοηθά στην πρόληψη της υπερφόρτωσης, ενός κοινού προβλήματος όταν εκπαιδεύουν μεγάλα μοντέλα σε περιορισμένα δεδομένα. (TRM)
Πριν από μερικούς μήνες, το HRM έκανε μεγάλα κύματα στην ερευνητική κοινότητα AI, καθώς έδειξε πραγματικά καλή απόδοση στην πρόκληση ARC παρά το μικρό μέγεθος 27 μέτρων. (Αυτό είναι περίπου 22x μικρότερο από το… pic.twitter.com/yhmpn4hlxi HREF=”https://twitter.com/rasbt/status/19759226143894080222?ref_src=twsrc%5etfw”target=”_ blank”> 8 Οκτωβρίου 2025 href=”https://github.com/samsungsailmontreal/tinyrecursivemodels”target=”_ blank”> on github κάτω από μια επιτρεπτή άδεια MIT , επιτρέποντας την εμπορική χρήση και την ενθαρρυντική υιοθεσία. Το μοντέλο είναι ένας εξειδικευμένος επίλυση, όχι ένα chatbot γενικής χρήσης όπως αυτά που βασίζονται σε μοντέλα από το OpenAI ή το Google. να είναι φθηνότερο, αλλά πολύ υψηλότερη ποιότητα!
[Εκπαίδευση και λεπτομέρειες δοκιμής]… pic.twitter.com/9c31hdxily
-deedy (@deedydas) Οκτώβριος 9, 2025
Απόδειξη για τις επιχειρήσεις. έρευνα.