Alibabas Qwen-team ga tirsdag ut Qwen3-Coder, en kraftig ny serie med open source AI-kodingsmodeller rettet direkte mot rivaler som Anthropic. Overskriften av en massiv 480 milliarder-parameterversjon er modellene designet for”agent”arbeid, slik at de kan håndtere komplekse programvareutviklingsoppgaver autonomt.

Den globale utgivelsen 22. juli 2025, på

under hetten: en 480b-agentkodende kraftverk

midtpunktet av lansering er The Sacture

en midtpunkt på lansering av en koding av koding av koding. href=”https://huggingface.co/qwen/qwen3-coder-480b-a35b-instruct”Target=”_ blank”> Qwen3-coder-480b-a35b-instruct , en massiv blanding-av-experter (moe). Den inneholder 480 milliarder totale parametere, men aktiverer bare en undergruppe på 35 milliarder parameter for en gitt oppgave. Denne arkitekturen gir enorm kraft mens den opprettholder beregningseffektiviteten.

Modellens fundament ble bygget på et kolossale 7,5 billioner symboler med pre-treningsdata, med et 70%-forhold dedikert spesielt til kode. I følge Qwen-teamet var datakvaliteten avgjørende; De utnyttet en tidligere modell, Qwen2.5-koder, for å syntetisk rengjøre og omskrive støyende data for denne nye generasjonen.

Dens tekniske spesifikasjoner er formidable. Modellen kan skilte med en innfødt 256 000-token kontekstlengde, som kan utvides til en million symboler ved bruk av ekstrapolasjonsmetoder som garn. Denne enorme kapasiteten er skreddersydd for forståelse av depotskala, slik at AI kan forstå hele konteksten av store programvareprosjekter.

Denne kontekstuelle bevisstheten er sammenkoblet med utrolig bredde. Modellen støtter et stort utvalg av programmeringsspråk, fra mainstream valg som C ++, Python og Java til spesialiserte språk som ABAP, Rust og Swift, som beskrevet på sin

Utover pre-trening, fokuserte Alibaba på avanserte teknikker etter trening. Teamet skalerte opp det det kaller kodeforsterkningslæring (kode RL) på et bredt spekter av kodingsoppgaver i den virkelige verden. Denne tilnærmingen er bygget på prinsippet om å takle problemer som er”vanskelig å løse, men enkle å bekrefte”, ved hjelp av utførelsesdrevet tilbakemelding for å øke suksessraten betydelig.

For å dyrke ekte agentisk oppførsel implementerte teamet det det kaller”lang-horizon RL.”Dette krevde å bygge et skalerbart system på Alibaba Cloud som var i stand til å kjøre 20 000 uavhengige miljøer parallelt. Denne infrastrukturen gir den avgjørende tilbakemeldingssløyfen for å lære modellen å planlegge, bruke verktøy og ta beslutninger på tvers av komplekse, multi-sving-interaksjoner.

I henhold til ytelsesdata som er utgitt av QWEN-teamet, etablerer den nye QWEN3-koder-modellen seg som en topp-source-kodingsmodell. På Swe-Bench-bekreftet benchmark, en nøkkelprøve av den virkelige verdensprogramvareingeniørfunksjonen, scorer QWEN3-Coder-modellen imponerende 69,6% med 500 omganger. Videre overgår Qwen3-koderen andre hovedmodeller i feltet, inkludert KIMI-K2 (65,4%), GPT-4,1 (54,6%) og Gemini-2,5-Pro (49,0%), ement. Overlegenhet

Denne utgivelsen signaliserer Alibabas aggressive skyv inn i neste grense av AI: Agentic Intelligence. Bransjen beveger seg raskt utover enkle kodeassistenter til autonome agenter som kan planlegge, utføre og tilpasse seg komplekse flertrinns utviklingsoppgaver. Qwen3-koder er ikke bare en ny modell; Det er en strategisk inntreden i dette eskalerende”våpenløpet.”

Trenden er allerede validert i bedriften. Investment Bank Goldman Sachs, for eksempel, begynte nylig å pilotere AI-agenten Devin for å bygge en”hybrid arbeidsstyrke”. Den teknologiske sjefen, Marco Argenti, beskrev en fremtid der “det handler egentlig om mennesker og AIS som jobber side om side. Det forventes at ingeniører skal ha muligheten til å virkelig beskrive problemer på en sammenhengende måte…”Skiftende menneskelig fokus fra kjedelig koding til høyt nivå som løst.

Qwen3-koder er en crowded og Fiercy. I USA avduket Amazon nylig sin Kiro-agent for å innføre struktur på kaotisk”stemningskoding”, mens Google forfølger et tosidig angrep med sitt omfattende Firebase-studio og en gratis Gemini CLI. Openai fortsetter å oppgradere Codex-agenten sin, og gir den nylig internett tilgang til autonomt å finne og bruke data.

Konkurransen er like intens i Kinas”krig på hundre modeller.”Qwen3-koder er plassert mot open source-krafthus som Moonshot AI, som nylig ga ut sin 1-billion-parameter Kimi K2-modell. Denne innenlandske rivaliseringen er drevet av geopolitiske press som tvinger kinesiske firmaer til å bygge selvhjulpne økosystemer.

De høye innsatsen i dette løpet er tydelige i den hensynsløse konkurransen om talent og teknologi. Kodende oppstart Windsurf så nylig Google Poach sin administrerende direktør og topp talent, og skurret et oppkjøp av Openai og tillater den rivaliserende kognisjonen å skaffe seg det gjenværende selskapet.

Kampen strekker seg til offentlig oppfatning, ofte kjempet på toppboards. I et klart eksempel på denne”referansekrigen”ansatte Elon Musks Xai nylig entreprenører spesielt for å trene sin GROK 4-modell for å slå Anthropic’s Claude. De enorme driftskostnadene er også en faktor, sett når antropisk strammet bruksgrenser for sine premium-abonnenter, og fremhever den økonomiske belastningen ved å tilby disse kraftige tjenestene.

en lansering av en skarphet i å være imponert i Awwen. Evaluering. Tidspunktet er vanskelig for Alibaba. Bare noen dager tidligere, 18. juli, En studie fra Fudan University påsto sin Qwwen2.5-modell gjennom”Cheated”på Match-500-benchmarket

AI-samfunnet forblir dypt splittet om utøvelsen av å”undervisning til testen.”Noen, som Lmarena-administrerende direktør Anastasios Angelopoulos, ser det på som en normal del av utviklingen, og sier:”Dette er en del av standard arbeidsflyten for modellopplæring. Du må samle inn data for å forbedre modellen din.”

andre advarer om en farlig frakobling mellom testresultater og virkelige målinger. Som AI-strateg Nate Jones bemerket,”I det øyeblikket vi setter toppliste-dominans som mål, risikerer vi å lage modeller som utmerker seg i trivielle øvelser og flunder når vi står overfor virkeligheten.”Dette følelsen gjenspeiles av eksperter som Sara Hooker, sjef for Cohere Labs, som hevdet at”når et toppliste er viktig for et helt økosystem, er insentivene tilpasset det å bli gammet,”skaper en risiko for modeller som er gode til å få eksamen, men dårlig ved å få en eller p>

kjøring av. Alibaba gir ut en serie verktøy sammen med modellene. Selskapet har lansert”Qwen Code”, et kommandolinjegrensesnitt gaffel fra Googles Gemini CLI og tilpasset de nye modellene. Dette gir utviklere et ferdig miljø for agentkoding.

I et kyndig grep for å utvide appellen, har QWEN-teamet også sikret kompatibilitet med eksisterende, populære utviklerverktøy. Spesielt qwen3-coder kan brukes med antropics egen claude-kode cli, slik at utviklerne kan bryte med å tøffe antropics ild-kode. avgjørende for å vinne lojaliteten til utviklerne. Ved å gjøre sine kraftige modeller tilgjengelige gjennom flere plattformer, inkludert sin egen modellstudio api , vil aliba satse på å satse på en bruk. Modell, QWEN3-235B-A22B-INSTRUCT-2507, som viser betydelige benchmark-forbedringer . Denne doble utgivelsen understreker Alibabas omfattende strategi om å konkurrere på alle fronter av Global AI Arms Race.

Categories: IT Info