Un cercetător Samsung AI din Montreal a creat un model AI minuscul care lovește mult peste greutatea sa, provocând accentul industriei pe o scară masivă. Lansat săptămâna aceasta, modelul recursiv de 7 milioane de parametri (TRM) depășește modele gigantice precum Google Gemini 2.5 Pro pe puzzle-uri de raționament dur.

Modelul, dezvoltat de Alexia Jolicoeur-hartineau și Modelul de raționament ierarhic (hrm) , dar simplifică radical. Introdus la începutul acestui an, HRM a folosit două rețele separate care operează la frecvențe diferite, un concept creatorii săi justificați cu argumente biologice complexe despre creierul uman.

Această abordare s-a bazat și pe principii matematice avansate, cum ar fi teorema funcției implicite pentru a-și gestiona procesul de învățare, ceea ce face dificil de analizat. Lucrarea lui Jolicoeur-Martineau dezvăluie aceste straturi de abstractizare.

TRM folosește doar o singură rețea minusculă cu două straturi. Acesta dispune de analogiile biologice și dependențele cu punct fix, ceea ce face arhitectura mai transparentă. Scopul a fost izolarea mecanismului de bază: îmbunătățirea recursivă.

Inovația de bază este procesul său de raționament. Modelul începe cu un răspuns dur și îl perfecționează iterativ. În fiecare buclă, își actualizează mai întâi „procesul de gândire” intern înainte de a-și actualiza răspunsul final, simulând efectiv o rețea mult mai profundă, fără costuri ridicate.

Această buclă de auto-îmbunătățire este o formă de „supraveghere profundă”, unde modelul este instruit la fiecare pas pentru a se apropia de soluția corectă. Acest lucru îi permite să învețe lanțuri de raționament complexe, în mai multe etape, care, în mod normal, ar necesita un model mult mai mare.

După cum explică documentul de cercetare, „Acest proces recursiv permite modelului să-și îmbunătățească progresiv răspunsul… într-o manieră extrem de eficientă pentru parametri, reducând în același timp supra-distribuirea.”Această metodă sporește performanța și evită problemele cu care se confruntă modelele mai mari pe seturi de date mici.

perforarea peste greutatea sa pe raționamentele de referință

puterea TRM este cea mai evidentă pe reperele concepute pentru a testa raționamentul AI abstract, un domeniu în care chiar și cele mai mari modele se luptă adesea. Realizarea sa deosebită vine pe Corpusul abstract și de raționament (ARC-AGI), o suită provocatoare de puzzle-uri vizuale care sunt simple pentru oameni, dar notoriu dificil pentru AI.

la prima versiune a testului, Arc-AGI-1, TRM a obținut o precizie de 45%. Acest scor depășește multe dintre greutățile grele ale industriei, inclusiv Google Gemini 2.5 Pro (37,0%), OpenAI O3-MINI-HIGH-HIGH (34,5%) și Deepseek R1 (15,8%), în ciuda TRM care are mai puțin de 0,01%din parametrii lor. Aici, TRM a marcat 7,8%, învingând din nou de 4,9%din Gemeni 2.5 Pro și O3-Mini-HIGH de 3,0%. While these absolute scores may seem low, they represent a significant leap forward on a benchmark where progress has been notoriously slow.

For context, the current leaderboard is topped by massive frontier models like xAI’s Grok 4, but TRM’s performance with only 7 million parameters makes it a dramatic mai vechi, evidențiind eficiența arhitecturii sale.

Dominanța modelului se extinde la alte domenii logice, unde modelele mari se prăbușesc adesea. Pe Sudoku-Extreme, un set de date de puzzle-uri dificile cu doar 1.000 de exemple de formare, TRM a stabilit un nou record de ultimă generație prin obținerea unei precizii de 87,4%. Aceasta reprezintă o îmbunătățire masivă față de cei 55% notați de predecesorul său, Hrm.

În mod similar, pe referința labirintului-hard, care implică găsirea căilor lungi prin complexul 30 × 30 grile, TRM a obținut 85,3%. Aceste rezultate pe mai multe domenii logice distincte Demonstrează puterea abordării sale recursive Pentru rezolvarea problemelor structurate.

„mai puțin este mai mult”: o nouă filozofie pentru a fi eficientă AI

<500 $, 4 H-100 pentru aproximativ 2 zile

-Alexia Jolicoeur-Martineau (@jm_alexia) 7 octombrie 2025

jolicoeur-martineau accentul, în acest sens Raționament recursiv, se dovedește că „mai puțin este mai mult”. Această rentabilitate democratizează cercetarea AI de ultimă oră.

Constatarea faptului că o rețea mai mică, cu două straturi, a depășit versiunile mai mari contestă, de asemenea, legile de scalare convențională. Lucrarea sugerează că acest lucru se datorează faptului că profunzimea recursivă ajută la prevenirea suprasolicitării, o problemă comună atunci când instruiți modele mari pe date limitate.

inginerul de cercetare AI, Sebastian Raschka, a comentat eficiența, remarcând: „Da, este încă posibil să se facă chestii mișto fără un centru de date.”

de la modelul de motivare ierarhic (HRM) la un nou model de recureri minuscule, de la modelul de motive ierarhic (hrm) (TRM).

În urmă cu câteva luni, HRM a făcut valuri mari în comunitatea de cercetare AI, deoarece a arătat performanțe foarte bune pe ARC Challenge, în ciuda dimensiunii sale mici de 27m. (Este cu aproximativ 22x mai mic decât… pic.twitter.com/yhmpn4hlxi

-Sebastian Raschka (@RASBT) 8 octombrie 2025

proiectul este pe github sub o licență MIT permisivă , permițând utilizarea comercială și încurajând adopția mai largă. Context. Este posibil ca modelele mai mici să nu fie doar mai ieftine, dar o calitate mult mai înaltă!”

Hârtia TRM se simte ca o descoperire semnificativă a AI.

Distruge frontiera Pareto pe arc AGI 1 și 2 de referință (și Sudoku și labirintul rezolvării) cu un model ESTD <0,01 $ pe sarcină și cost <500 $ pentru a antrena modelul de 7m <0,01 $ pentru sarcina și costul <500 USD pentru a antrena modelul de 7m <0,01 $ pe sarcină și costă <500 $ pentru a antrena modelul de 7m <0,01 $ pentru sarcină și costă <500 $ pentru a antrena modelul de 7m <0,01 $ pe sarcină și costă <500 $ pentru a antrena modelul de 7m pe 2,01 $ pentru sarcina și costul 500 $ 500 pentru a antrena modelul de 7m pe 2 H100 Zile.

[specific de instruire și testare]… pic.twitter.com/9c31hdxily

-Deedy (@edEedydas) 9 octombrie, 2025

Dovada conceptului pentru întreprinderi. Cercetare.

Categories: IT Info