Echipa QWEN a Alibaba a lansat marți QWEN3-CODER, o nouă serie puternică de modele de codificare AI open-source, destinate direct rivalilor precum antropic. Subliniat de o versiune masivă de 480 de miliarde de parametri, modelele sunt proiectate pentru lucrări „agentice”, permițându-le să se ocupe autonom de sarcini complexe de dezvoltare a software-ului.

Lansarea globală pe 22 iulie 2025, pe

Under the Hood: A 480B Agentic Coding Powerhouse

The centerpiece of the launch is the qwen3-coder-480b-a35b-instruct , un model de amestec masiv-of-experts (MOE). Conține 480 miliarde de parametri totali, dar activează doar un subset de 35 de miliarde de parametri pentru orice sarcină dată. Această arhitectură oferă o putere imensă, menținând în același timp eficiența de calcul.

Fundația modelului a fost construită pe un colosal de 7,5 trilioane de jetoane de date pre-instruire, cu un raport de 70% dedicat în mod specific codului. Potrivit echipei QWEN, calitatea datelor a fost primordială; Aceștia au susținut un model anterior, QWEN2.5-Coder, pentru a curăța sintetic și a rescrie date zgomotoase pentru această nouă generație.

Specificațiile sale tehnice sunt formidabile. Modelul se mândrește cu o lungime de context nativ de 256.000 de tocuri, care poate fi extinsă la un milion de jetoane folosind metode de extrapolare precum fire. Această capacitate vastă este adaptată pentru înțelegerea la scară de depozit, permițând AI să înțeleagă contextul complet al proiectelor software mari.

Această conștientizare contextuală este asociată cu o lățime incredibilă. Modelul acceptă o gamă vastă de limbaje de programare, de la alegeri mainstream precum C ++, Python și Java până la limbi specializate precum ABAP, Rust și Swift, așa cum este detaliat pe Github Page . Acest lucru îi permite să se ocupe de diverse medii de dezvoltare și sarcini specializate, cum ar fi inserția de cod „completare în mijloc”.

Dincolo de pregătire pre-instruire, Alibaba s-a concentrat pe tehnici avansate de post-instruire. Echipa a extins ceea ce numește învățare de consolidare a codului (Code RL) pe o gamă largă de sarcini de codificare din lumea reală. Această abordare se bazează pe principiul abordării problemelor care sunt „greu de rezolvat, dar ușor de verificat”, folosind feedback-ul bazat pe execuție pentru a spori semnificativ ratele de succes.

pentru a cultiva adevăratul comportament agentic, echipa a implementat ceea ce numește „RL-Horizon RL”. Aceasta a necesitat construirea unui sistem scalabil pe cloud Alibaba, capabil să ruleze 20.000 de medii independente în paralel. Această infrastructură oferă bucla crucială de feedback pentru predarea modelului pentru a planifica, a utiliza instrumente și a lua decizii între interacțiuni complexe, cu mai multe rânduri,.

în funcție de datele de performanță lansate de echipa QWEN, noul model QWEN3-coder se stabilește ca un model de codificare agent de top, obținând rezultate de ultimă generație, printre piepții săi. Pe referința SWE-Bench verificată, un test cheie al capacităților de inginerie software din lumea reală, modelul QWEN3-coder marchează un impresionant de 69,6% cu 500 de rotiri de interacțiune.

Acest lucru îl plasează în concurență directă cu și aproape la egal cu modelul de proprietar de frunte, Claude-Sonnet-4, care a obținut 70,4% în condiții de proprietate similare. Mai mult, QWEN3-Coder depășește în mod semnificativ alte modele majore în domeniu, inclusiv KIMI-K2 (65,4%), GPT-4.1 (54,6%) și Gemini-2.5-PRO (49,0%), cimentând poziția sa ca un nou concurent puternic în cursa pentru supremația AI ane. Supremacy

Această versiune semnalează apăsarea agresivă a Alibaba în următoarea frontieră a AI: Intelligence agentic. Industria se deplasează rapid dincolo de asistenții de cod simpli către agenții autonomi care pot planifica, executa și se adapta la sarcini complexe de dezvoltare în mai multe etape. QWEN3-CODER nu este doar un model nou; Este o intrare strategică în această „cursă de arme”.

Tendința este deja validată în întreprindere. Banca de investiții Goldman Sachs, de exemplu, a început recent să piloteze agentul AI Devin pentru a construi o „forță de muncă hibridă”. Șeful său de tehnologie, Marco Argenti, a descris un viitor în care „este vorba despre oameni și AIS care lucrează cot la cot. Inginerii vor fi de așteptat să aibă capacitatea de a descrie cu adevărat problemele într-un mod coerent…”Schimbarea concentrării umane de la codificarea obositoare la soluționarea problemelor la nivel înalt. În SUA, Amazon și-a dezvăluit recent agentul Kiro pentru a impune structură pe „codificarea vibe” haotică, în timp ce Google urmărește un atac cu două papni cu studioul său complet Firebase și un CLI Gemini gratuit. OpenAI continuă să-și actualizeze agentul Codex, oferindu-i recent acces la internet pentru a găsi și utiliza în mod autonom date.

Concurența este la fel de intensă în „Războiul de o sută de modele” din China. QWEN3-CODER este poziționat împotriva unor puteri open-source precum Moonshot AI, care a lansat recent modelul său Kimi K2 de 1 trilion-parametrul. Această rivalitate internă este alimentată de presiunile geopolitice care obligă firmele chineze să construiască ecosisteme de sine stătătoare.

Miza mare a acestei curse sunt evidente în competiția nemiloasă pentru talent și tehnologie. Startup-ul de codificare Windsurf a văzut recent Google Poach CEO-ul său și talentul de top, scuturând o achiziție OpenAI și care permite cogniției rivale să dobândească compania rămasă.

Bătălia se extinde la percepția publică, adesea luptată pe clasamente. Într-un exemplu clar al acestui „război de referință”, Xai de la Elon Musk a angajat recent contractanți în special pentru a-și antrena modelul Grok 4 pentru a-l învinge pe Claude Anthropic. Costurile operaționale imense sunt, de asemenea, un factor, așa cum s-a văzut atunci când limitele de utilizare antropice întărite pentru abonații săi premium, subliniind tulpina financiară de a furniza aceste servicii puternice.

O lansare înnorată de scepticismul de referință

în ciuda creanțelor sale tehnice impresionante, lansarea QWEN3-CODER. Momentul este incomod pentru Alibaba. Cu doar câteva zile mai devreme, pe 18 iulie, Un studiu de la Universitatea Fudan a susținut că modelul său QWEN2.5 a avut „înșelat” pe matematica de referință de 500 de valori de referință .

Reclamă de hârtie. Această controversă evidențiază problema sistemică a contaminării datelor, în care întrebările de testare se scurg în seturi de instruire, umflând performanța și creând o impresie falsă a adevăratei capacități ale unui model.

Comunitatea AI rămâne profund împărțită pe practica „predării la test”. Unii, cum ar fi CEO-ul LMarena, Anastasios Angelopoulos, consideră că este o parte normală a dezvoltării, afirmând: „Aceasta face parte din fluxul de lucru standard al antrenamentului modelului. Trebuie să colectați date pentru a vă îmbunătăți modelul. După cum a menționat strategul AI, Nate Jones, „în momentul în care am stabilit dominanța clasamentului ca obiectiv, riscăm să creăm modele care să exceleze în exerciții banale și să se confrunte atunci când ne confruntăm cu realitatea”. Acest sentiment este răsună de experți precum Sara Hooker, șeful Cohere Labs, care a susținut că „atunci când un clasament este important pentru un întreg ecosistem, stimulentele sunt aliniate pentru ca acesta să fie jucat,„ Crearea unui risc de modele care sunt bune la examene, dar sărac la sarcini practice. Adopție, Alibaba lansează o suită de instrumente alături de modele. Compania a lansat „QWEN Code”, o interfață de linie de comandă preluată de la Gemini CLI Google și personalizată pentru noile modele. Acest lucru oferă dezvoltatorilor un mediu gata pregătit pentru codificarea agentică.

Într-o mișcare pricepută pentru a-și lărgi apelul, echipa QWEN a asigurat, de asemenea, o compatibilitate cu instrumentele de dezvoltator populare existente. În special, QWEN3-Coder poate fi utilizat cu propriul CLI al lui Antropic, permițând dezvoltatorilor să schimbe backend-urile fără a-și perturba fluxurile de lucru . Câștigarea loialității dezvoltatorilor. Făcând modelele sale puternice accesibile prin intermediul mai multor platforme, inclusiv propriul model de studio de model , Alibaba pariază că utilitatea și ușurința de utilizare vor conduce la adoptarea unei piețe de blocare a pieței, de asemenea, de blocare a vendorilor,

a lansării, incluse un model de non-rulare. QWEN3-235B-A22B-INSTRUCT-2507, care arată îmbunătățiri semnificative de referință . Această versiune dublă subliniază strategia cuprinzătoare a Alibaba de a concura pe toate fronturile cursei AI Global AI.

Categories: IT Info