En Samsung AI-forsker i Montreal har skapt en bitteliten AI-modell som slår langt over vekten, og utfordrer bransjens fokus på massiv skala. Utgitt denne uken, overgår 7-million-parameter Tiny Recursive Model (TRM) gigantiske modeller som Googles Gemini 2.5 Pro på tøffe resonneringspuzzles.

Modellen, utviklet av Alexia Jolicoeur-Martineau og Detaljert i en artikkel publisert på Arxiv , har som mål å bevise at smart design kan være viktigere enn ren størrelse. Den bruker en enkel”rekursiv”prosess for å tenke i løkker og forbedre sine egne svar, og tilbyr en mer effektiv vei for innovasjon.

Denne tilnærmingen stiller spørsmål ved behovet for enorme, kostbare modeller for å løse harde AI-problemer. Som Jolicoeur-Martineau uttalte:”Ideen om at man må stole på massive grunnleggende modeller som er trent for millioner av dollar av et stort selskap for å løse harde oppgaver, er en felle.”Utgivelsen signaliserer en voksende bevegelse mot mindre, spesialiserte modeller.

fra komplekst hierarki til rekursiv enkelhet

trm utvikler seg fra hierarchical resonnement. HRM ble introdusert tidligere i år, og brukte to separate nettverk som opererte ved forskjellige frekvenser, et konsept som skaperne rettferdiggjorde med komplekse biologiske argumenter om den menneskelige hjernen.

Denne tilnærmingen var også avhengig av avanserte matematiske prinsipper som den implisitte funksjonsteoremet for å administrere sin læringsprosess, og gjorde det vanskelig å analysere. Jolicoeur-Martineaus arbeid striper disse abstraksjons lagene.

TRM bruker bare et enkelt, bittesmå to-lags nettverk. Det avgir de biologiske analogiene og fastpunktavhengighetene, noe som gjør arkitekturen mer gjennomsiktig. Målet var å isolere kjernemekanismen: rekursiv forbedring.

Kjerneinnovasjonen er dens resonnementsprosess. Modellen starter med et grovt svar og foredler den. I hver sløyfe oppdaterer den først sin interne”tankeprosess”før du oppdaterer det endelige svaret, og simulerer effektivt et mye dypere nettverk uten høye kostnader.

Denne selvforsterkende sløyfen er en form for”dyp tilsyn”, der modellen er trent på hvert trinn for å komme nærmere den riktige løsningen. Dette gjør at den kan lære komplekse, flertrinns resonnementkjeder som normalt vil kreve en mye større modell.

Som forskningsoppgaven forklarer:”Denne rekursive prosessen lar modellen gradvis forbedre svaret… på en ekstremt parameter-effektiv måte mens den minimerer overmontering.”Denne metoden øker ytelsen og unngår problemer større modeller står overfor små datasett.

stansing over vekten på resonnementet benchmarks

TRMs kraft der selv de største modeller ofte er designet for å teste abstrakte AI-resonnement, et domene der til og med de største modellene ofte er designet. Dens fremtredende prestasjoner kommer på det abstrakte og resonnementskorpus (Arc-Agi), en utfordrende pakke med visuelle gåter som er enkle for mennesker, men notorisk vanskelig for AI.

På den første versjonen av testen oppnådde TRM 45% nøyaktighet. Denne poengsummen overgår mange av bransjens tungvektere, inkludert Googles Gemini 2,5 Pro (37,0%), Openais O3-mini-høy (34,5%), og DeepSeek R1 (15,00%), til tross for at TRM har mindre enn 0,01%av sine parametere. Modellens fordel holder på de enda mer p-p-p-p-p-en-merket. Her scoret TRM 7,8%, og slo igjen Gemini 2,5 Pros 4,9%og O3-mini-Highs 3,0%. Selv om disse absolutte poengsumene kan virke lav, representerer de et betydelig sprang fremover på et mål hvor fremgangen har gått notorisk treg.

For kontekst, er toppet med massivt front-modeller som XAIs GROK 4, MOGS GUS GUL 4, MOGS MOGS MODS MODS MODS MODS MODS MOGS GROG. Dramatisk outlier, som fremhever effektiviteten til arkitekturen.

Modellens dominans strekker seg til andre logiske domener der store modeller ofte vakler. På Sudoku-Extreme, et datasett med vanskelige gåter med bare 1000 treningseksempler, satte TRM en ny topp moderne rekord ved å oppnå 87,4% nøyaktighet. Dette representerer en massiv forbedring i forhold til 55% som er scoret av forgjengeren, HRM.

Tilsvarende, på den labyrint-harde referansen, som innebærer å finne lange stier gjennom komplekse 30 × 30 rutenett, scoret TRM 85,3%. Disse resultatene på tvers av flere, distinkte logiske domener Demonstrer kraften til dens rekursive tilnærming for å få en ny>

<500 $, 4 H-100 i rundt 2 dager

-Alexia Jolicoeur-Martineau (@jm_alexia) oktober, 2025

Funnet at et mindre, to-lags nettverk overgikk større versjoner også utfordrer konvensjonelle skaleringslover. Oppgaven antyder at dette skyldes at den rekursive dybden hjelper til med å forhindre overmasse, et vanlig problem når du trener store modeller på begrensede data.

AI Research Engineer Sebastian Raschka kommenterte effektiviteten, og bemerker,”Ja, det er fortsatt mulig å gjøre kule ting uten et datasenter. (TRM).

For noen måneder siden gjorde HRM store bølger i AI-forskningssamfunnet, da det viste veldig god ytelse på ARC-utfordringen til tross for sin lille 27m-størrelse. (Det er omtrent 22x mindre enn… pic.twitter.com/yhmpn4hlxi

-sebastian Raschka (@rasbt) href=”https://twitter.com/rasbt/status/1975922614389408022?ref_src=twsrc%5etfw”Target=”_ blank”> 8. oktober 2025 på github under en tillatt mit lisens , tillater kommersiell bruk og oppmuntrer ikke en adopsjon.

en spesialsolver. TRMs kontekst. Oppgaver. For spesifikke oppgaver er det kanskje ikke bare billigere modeller på 2 H100S i 2 dager.

[trening og test spesifikasjoner]… pic.twitter.com/9c31hdxily

-deedy (@DeedyDeedyDasy href=”https://twitter.com/deedydas/status/1976105366003044488?ref_src=twsrc%5etfw”Target=”_ blank”Kraftig bevis-av-konsept for bedrifter. Forskning.

Categories: IT Info