Alibabas Qwen-team släppte på tisdag QWEN3-kodare, en kraftfull ny serie av AI-kodningsmodeller med öppen källkod riktad direkt mot rivaler som Anthropic. Modellerna är med en massiv 480 miljarder-parameterversion utformad för”agentiskt”arbete, vilket gör att de kan hantera komplexa mjukvaruutvecklingsuppgifter autonomt.
den globala utgåvan den 22 juli 2025, på qwen3-coder-480b-a35b-instruktion , en massiv blandning-of-experts (moe) modell. Den innehåller 480 miljarder totala parametrar, men aktiverar endast en delmängd på 35 miljarder parameter för en given uppgift. Denna arkitektur ger en enorm kraft samtidigt som beräkningseffektiviteten bibehålls.
>
Modellens grund byggdes på en kolossal 7,5 biljoner tokens av för-utbildningsdata, med ett 70%-förhållande som ägnas specifikt till kod. Enligt Qwen-teamet var datakvaliteten viktigaste; De utnyttjade en tidigare modell, Qwen2.5-kodare, för att syntetiskt rengöra och skriva om bullriga data för denna nya generation.
dess tekniska specifikationer är formidabla. Modellen har en infödd 256 000-Token-kontextlängd, som kan utvidgas till en miljon tokens med hjälp av extrapoleringsmetoder som garn. Denna enorma kapacitet är skräddarsydd för förvarskalans förståelse, vilket gör att AI kan förstå hela sammanhanget för stora programvaruprojekt.
Denna kontextuella medvetenhet är i par med otrolig bredd. Modellen stöder en stor mängd programmeringsspråk, från mainstream-val som C ++, Python och Java till specialiserade språk som ABAP, Rust och Swift, som beskrivs på dess
Utöver förutbildning fokuserade Alibaba på avancerade tekniker efter utbildningen. Teamet skalade upp vad det kallar kodförstärkningslärande (kod RL) på ett brett utbud av kodningsuppgifter i verkligheten. Detta tillvägagångssätt är byggt på principen om att hantera problem som är”svåra att lösa, men lätt att verifiera,”med hjälp av exekveringsdriven feedback för att avsevärt öka framgångsgraden. för att odla verkligt agentiskt beteende implementerade teamet vad det kallar”Long-Horizon Rl.”Detta krävde att bygga ett skalbart system på Alibaba-molnet som kan köra 20 000 oberoende miljöer parallellt. Denna infrastruktur tillhandahåller den avgörande återkopplingsslingan för att lära modellen att planera, använda verktyg och fatta beslut över komplexa, multi-turn-interaktioner. Enligt prestandadata som släpps av Qwen-teamet, etablerar den nya Qwen3-kodare-modellen sig som en topp-tier agentisk kodningsmodell, resultat av toppmoderna resultat bland dess öppna-Source. På Swe-Bench Verified Benchmark, ett nyckeltest av verkliga programvarutekniska kapaciteter, får QWEN3-Coder-modellen en imponerande 69,6% med 500 varv-interaktion. Detta placerar den i direkt konkurrens med, och nästan på par med, den ledande proprietära modellen, Claude-Net-4, som betonade 70.4% under liknande förhållanden. Dessutom överträffar QWEN3-kodaren avsevärt andra stora modeller på fältet, inklusive Kimi-K2 (65,4%), GPT-4,1 (54,6%) och Gemini-2,5-Pro (49,0%), cemement sin position som en kraftfull ny kontonder i loppet för agentisk ai supremacy. Supremacy
Denna utgåva signalerar Alibabas aggressiva tryck in i nästa gräns av AI: Agentic Intelligence. Branschen går snabbt utöver enkla kodassistenter till autonoma agenter som kan planera, utföra och anpassa sig till komplexa utvecklingsuppgifter med flera steg. QWEN3-CODER är inte bara en ny modell; Det är ett strategiskt inträde i detta eskalerande”vapenkapp.” Trenden valideras redan i företaget. Investeringsbanken Goldman Sachs, till exempel, började nyligen pilotera AI-agenten Devin för att bygga en”hybrid arbetskraft”. Dess tekniska chef, Marco Argenti, beskrev en framtid där”det verkligen handlar om människor och AIS som arbetar sida vid sida. Ingenjörer kommer att förväntas ha förmågan att verkligen beskriva problem på ett sammanhängande sätt…”som skiftar mänskligt fokus från tråkig kodning till hög nivå problemlösning. qwen3-kodare entréer med en tråkig kompetens. I USA avslöjade Amazon nyligen sin Kiro-agent för att införa struktur på kaotisk”vibe-kodning”, medan Google förföljer en tvåpolt attack med sin omfattande brandbasstudio och en gratis Gemini CLI. OpenAI fortsätter att uppgradera sin Codex-agent och ger nyligen den internet tillgång till autonomt hitta och använda data. Tävlingen är lika intensiv inom Kinas”krig av hundra modeller.”QWEN3-CODER är placerad mot öppna källkodshus som Moonshot AI, som nyligen släppte sin 1-biljon-parameter Kimi K2-modell. Denna inhemska rivalitet drivs av geopolitiska påtryckningar som tvingar kinesiska företag att bygga självberoende ekosystem. De höga insatserna i detta lopp är tydliga i den hänsynslösa konkurrensen om talang och teknik. Kodning Startup Windsurf såg nyligen Google och tappa sin VD och topptalang och skrapade ett lerat OpenAI-förvärv och tillåter rivaliserande kognition att förvärva det återstående företaget. Striden sträcker sig till allmänhetens uppfattning, ofta kämpade på topplistor. I ett tydligt exempel på detta”Benchmark War”anställde Elon Musks XAI nyligen entreprenörer specifikt för att utbilda sin Grok 4-modell för att slå Anthropic’s Claude. De enorma driftskostnaderna är också en faktor, sett när antropisk skärpning av användningsgränserna för sina premiumprenumeranter, som belyser den ekonomiska belastningen att tillhandahålla dessa kraftfulla tjänster. trots dess imponerande tekniska anspråk, QWen3-kedjan lanserar av en nybörjare av en lärande av en växande crisis av en förtroende. Tidpunkten är besvärlig för Alibaba. Bara några dagar tidigare, den 18 juli, En studie från Fudan University påstod dess qwen2.5 hade”fuskat”på Math-500 Benchmark . resonemang. Denna kontrovers belyser den systemiska frågan om datakontaminering, där testfrågor läcker till träningsuppsättningar, blåser upp prestanda och skapar ett falskt intryck av en modells verkliga kapacitet. AI-samhället förblir djupt uppdelat på utövandet av”undervisning till testet.”Vissa, som LMARENA: s VD Anastasios Angelopoulos, ser det som en normal del av utvecklingen och säger:”Detta är en del av standardarbetsflödet för modellträning. Du måste samla in data för att förbättra din modell.” Andra varnar för en farlig koppling mellan testresultat och verklighet. Som AI-strategen Nate Jones noterade:”Det ögonblick som vi sätter upp toppdominans som målet riskerar vi att skapa modeller som utmärker sig i triviala övningar och flundra när vi möter verkligheten.”Detta känsla upprepas av experter som Sara Hooker, chef för Cohere Labs, som hävdade att “när en topplista är viktig för ett helt ekosystem, är incitamenten anpassade för att det ska spelas,” skapar en risk för modeller som är bra på tentor men dåliga på praktiska uppgifter. En lansering molnig av benchmark-skepsis
adoption genom en öppen ECOSYSYMA PRESPERATION PÅ PRAKT PRAKTISKA PRAKTISKA PRAKTISKA>