Meta schimbă obiectivele în cursa de codificare AI. Compania și-a lansat Code World Model (CWM), a puternic 32-miliarde-parameter. Funcționează.

Lansat pentru cercetări non-comerciale, CWM acționează ca un „debugger neuronal”, simulând logica unui program înainte de a rula vreodată.

Această abordare marchează un pivot strategic de la concurenți precum Google și Openai, care s-au concentrat recent pe câștigarea competițiilor de codificare.

Obiectivul meta, potrivit cercetătorilor săi, este de a elimina decalajul dintre ceea ce arată codul și ceea ce face de fapt atunci când este executat. După cum a explicat un cercetător, „Pentru a stăpâni codificarea, trebuie să înțelegem nu doar cum arată codul, ci și ceea ce face atunci când este executat. În loc să analizeze doar codul static, modelul a aflat de la peste 120 de milioane de „urme de execuție” ale programelor Python.

Aceste date i-au permis să observe schimbările pas cu pas în variabilele unui program, oferindu-i un model profund, cauză și efect de logică software. Înțelegând consecințele fiecărei linii de cod, CWM poate efectua sarcini dincolo de generarea simplă.

poate prezice rezultatele programului, poate identifica bucle infinite și chiar poate analiza complexitatea algoritmică. Acest raționament mai profund este ceea ce îl diferențiază într-un câmp aglomerat.

performanță competitivă în arena de codificare AI

În ciuda concentrării sale diferite, CWM își păstrează propriul pe referințe cheie ale industriei. La verificarea SWE-Bench, un test solicitant al ingineriei software din lumea reală, modelul a obținut un scor de bază de 53,9%, ridicându-se la un impresionant de 65,8%, cu scalarea în timp de testare.

Această performanță o plasează înaintea multor rivali open-source, cu un număr similar de parametri și îl face competitiv cu sisteme de proprii mult mai mari, precum GPT-5 și CLAUDE SONNET-4. dincolo de un singur test. Conform documentului de cercetare Meta, CWM demonstrează, de asemenea, o competență largă, marcând 68,6% pe LiveCodebench, 96,6% la Math-500 și 76% la Olimpiada Matematică AIME 2024. CWM excelează în special în sarcinile care necesită o înțelegere profundă a comportamentului programului.

pe meta’s Own Bigobench Benchmark , a depășit sistematic concurenții sale în prezicerea complexității de timp al algorithms, un director care a validat concurenții.

Mai mult, pe un nou punct de referință numit Halteval, CWM a obținut o precizie remarcabilă de 94% pentru a prezice dacă un program se va încheia sau se va bloca într-o buclă infinită.

Capacitatea de a raționa cu privire la fluxul de execuție al unui program, mai degrabă decât doar sintaxa acestuia, este un obiectiv de proiectare de bază. Scorul ridicat al modelului de 94,3% pe referința crudevală pentru înțelegerea codului subliniază în continuare succesul abordării meta-ului.

Performanța puternică în acest set divers de valori de referință orientate către calcul validează accentul pe urmărirea și cimenturile de cimenturi CWM ca un nou instrument puternic pentru cercetarea AI. (15)

Navigând mai larg „Războaiele de referință”

Intrarea meta vine pe măsură ce industria se confruntă cu limitările scorurilor de referință. Vara 2025 a înregistrat o luptă frenetică pentru primul loc de pe Swe-Bench, Claude Opus 4.1 a lui Antropic fiind eclipsată de GPT-5 de la Openai, doar două zile mai târziu.

Între timp, „Grok-Code-Fast-1″ al lui Xai, pivotat pentru a prioritiza viteza și costurile, o mișcare a pieței de pe piața care a crescut pe piața în creștere a liderilor Benchmark. Mario Rodriguez de la Github a menționat că „la testarea timpurie, Grok Code Fast și-a arătat atât viteza, cât și calitatea în sarcinile de codificare agentică. În cele din urmă, contează mai mult decât o poziție de clasament.

deschis pentru cercetare, dar nu și producția

fundalul pentru lansarea CWM este un peisaj al instrumentelor din ce în ce mai specializate și puternice. OpenAI a lansat recent GPT-5-Codex, o versiune de codificare a GPT-5 care poate funcționa autonom timp de ore.

liderul produsului său, Alexander Embiricos, a evidențiat inteligența sa adaptativă, afirmând: „GPT-5-Codex poate decide cinci minute într-o problemă pe care trebuie să o petreacă încă o oră. Gemeni a demonstrat rezolvarea problemelor supraumane.

DR. Bill Poucher, directorul ICPC, a încadrat aceste rezultate ca un moment esențial, spunând: „Gemenii care se alătură cu succes acestei arene și obținerea rezultatelor la nivel de aur, marchează un moment cheie în definirea instrumentelor AI și a standardelor academice necesare pentru următoarea generație. href=”https://huggingface.co/facebook/cwm”Target=”_ Blank”> Disponibil pentru comunitatea de cercetare pentru îmbrățișarea Face . Modelul, care poate rula pe un singur GPU NVIDIA H100, nu este reglat pentru chat-ul general, subliniind scopul său ca instrument pentru a avansa știința AI în sine.

Categories: IT Info