Den kinesiske teknologigiganten Alibaba har gitt ut WAN2.2, en stor open source-oppdatering til sine AI-videoproduksjonsmodeller. Den nye serien ble avdekket 28. juli, og utfordrer direkte rivaler som Openais Sora og Googles Veo. Den introduserer en avansert blanding-av-ekspert (MOE) arkitektur for å forbedre videokvaliteten.

Utgivelsen inkluderer også en svært effektiv 5B-modell som genererer 720p-video på forbrukerklasse GPUer. Dette trekket er en del av Alibabas strategi for å lede open source AI-rommet av gir kraftige, gratis verktøy til utviklere og forskere . Det etterfølger selskapets WAN2.1-modeller, som ble utgitt tidligere i år.

Under the Hood: MOE Architecture and Consumer-Grade HD Video

WAN2.2s kjerneinnovasjon er introduksjonen av en blanding av eksperter (MOE) arkitektmodellen, en mixture-of-experts (MOE) arkitektmodellen, er introduksjonen av en blanding av eksperter (MOE) arkitektmodellen, er introduksjonen av en blanding av eksperter (moe) href=”https://arxiv.org/abs/2503.20314″Target=”_ Blank”> En første for feltet . Denne avanserte designen, som er mye validert i store språkmodeller, gir en enorm økning i modellens totale kapasitet uten en tilsvarende økning i beregningskostnadene under inferens. Arkitekturen er spesielt skreddersydd for videoproduksjonsprosessen, og skiller den komplekse denoising-oppgaven i spesialiserte funksjoner.

MOE-systemet bruker en to-ekspert design. En”høyt støy”ekspert håndterer de tidlige stadiene av generasjonen, og fokuserer på å etablere den generelle utformingen og bevegelsen til videoen. Når prosessen fortsetter, overtar en”lite støy”-ekspert for å avgrense intrikate detaljer og forbedre visuell kvalitet.

I henhold til prosjektets tekniske dokumentasjon. Et gitt trinn, opprettholder det beregningsmessige fotavtrykket til en mye mindre modell.

For å utfylle denne nye arkitekturen ble WAN2.2 trent på et betydelig utvidet og raffinert datasett, med 65,6% flere bilder og 83,2% flere videoer enn forgjengeren, WAN2.1. Teamet la stor vekt på å lage”estetikk på filmisk nivå”ved å bruke nøye kuraterte data med detaljerte etiketter for belysning, komposisjon, kontrast og fargetone.

Dette gjør det mulig Kommersielle modeller på Alibabas Proprietory Wan-Bench 2.0.

Kanskje den viktigste delen av utgivelsen for tilgjengelighet er den nye Ti2v-5b-modell, comfyui og Hugging Face Diffusers.

Alibabas beslutning om å frigjøre WAN2.2 Under en tillatt Apych 2.0-lisens er en direkte strategi. Selskaper som Openai og Google har beholdt sine mest avanserte videomodeller, Sora og Veo, bak lønnsvegger og API-er.

Ved å tilby et kraftig, gratis alternativ, eskalerer Alibaba konkurransen og satser at et åpent økosystem vil fremme raskere innovasjon og bredere adopsjon. Denne strategien speiler forstyrrelsen som er sett i AI-bildegenerering, der open source-modeller har blitt formidable konkurrenter til lukkede systemer.

Del av et bredere AI-økosystem-offensiv

WAN2.2-lanseringen er ikke en isolert hendelse. Det er det siste trekket i en hurtig-brann-serie med store AI-utgivelser fra Alibaba, og signaliserer en omfattende offensiv for å etablere seg som leder på flere AI-domener. Denne aktiviteten viser en klar strategi for å bygge en full serie med åpne verktøy for utviklere.

I uken før avduket selskapet sin nye flaggskip-resonnementsmodell, QWEN3-Thinking-2507, som toppet nøkkelindustriens benchmarks. Den lanserte også en kraftig agentkodingsmodell, Qwen3-Coder, for automatisering av programvareutviklingsoppgaver.

Denne strategiske pivoten ble understreket av en uttalelse fra Alibaba Cloud, som forklarte beslutningen om å forlate”hybrid-tenking”-modus for tidligere modeller. En talsperson sa:”Etter å ha diskutert med samfunnet og reflektert over saken, har vi bestemt oss for å forlate hybrid tenkemodus. Vi vil nå trene instrumen og tenke-modellene hver for seg for å oppnå en best mulig kvalitet.”

for å vise frem den virkelige verden-applikasjonen av sin AI, Alibaba forhåndsvisning også sin nye”Quark AI”smarte glass. Wearables drives av QWEN3-serien, et trekk designet for å bygge markedstillit ved Midt i benchmark-skepsis

Dette aggressive skyvet kommer imidlertid i en tid med voksende industri-skepsis til påliteligheten til AI-benchmarks. Bare noen dager før de nylige Qwen-utgivelsene, påsto en studie at Alibabas eldre QWEN2.5-modell hadde”lurt”på en nøkkel matematikkprøve ved å huske svar fra forurensede treningsdata.

Kontroversen fremhever et systemisk spørsmål om”undervisning til testen”i løpet av lederbanens dominans. Som AI-strateg Nate Jones bemerket,”I det øyeblikket vi setter toppliste-dominans som mål, risikerer vi å lage modeller som utmerker seg i trivielle øvelser og flunder når vi står overfor virkeligheten.”Dette følelsen gjentas av eksperter som Sara Hooker, sjef for Cohere Labs, som hevdet at”når en toppliste er viktig for et helt økosystem, er insentivene på linje for at den skal gammet.”

Mens Alibaba har flyttet til nyere modeller som Qwen3, har påstandene. Wan2.2-utgivelsen, med sitt fokus på konkrete evner og tilgjengelighet, kan være et forsøk på å skifte fortellingen fra toppliste-score til virkelige verktøy og åpen innovasjon.

Categories: IT Info