Qualcomm gick in på marknaden för AI-datacenter i måndags och lanserade nya chips för att utmana ledarna Nvidia och AMD. Qualcomm avslöjade sina AI200-och AI250-acceleratorer, som är byggda för den växande AI-inferensmarknaden.

Qualcomm satsar på en design med enorm minneskapacitet för att erbjuda kunderna lägre kostnader och hög effektivitet. Dess flytt är ett stort strategiskt skifte för den mobila teknikjätten. Investerare jublade på nyheterna och skickade företagets aktie upp 15%. Dess nya hårdvara kommer att anlända 2026, vilket lägger till en kraftfull ny spelare till AI-kapprustningen.

En strategisk satsning på AI-inferensmarknaden

Qualcomm använder decennier av expertis inom mobila processorer med låg effekt och är gör en beräknad spelning för datacentret. Företaget kringgår en direkt konfrontation med Nvidia inom AI-utbildningsområdet, en marknad som GPU-jätten dominerar.

Istället är det inriktat på marknaden som snabbt expanderar kör redan utbildade modeller för realtidsapplikationer. Dess strategiska pivot från dess mobil-först-fokus har varit en avsiktlig resa.

“Vi ville först bevisa oss själva inom andra domäner, och när vi väl byggde upp vår styrka där borta, var det ganska lätt för oss att gå upp ett snäpp in i datacenternivån”, säger Durga Malladi, SVP & GM på Qualcomm.

Denna strategi är delad i Nvidia. Intel presenterade nyligen sin egen”Crescent Island”GPU med ett liknande mål. Som Intels CTO Sachin Katti förklarade,”AI växlar från statisk träning till realtid, överallt slutledning-driven av agent AI.”

Denna branschomfattande förändring skapar en öppning för nya arkitekturer som prioriterar prestanda per watt och lägre driftskostnader framför den råa datorkraft som behövs för utbildning.

support är QualTo. href=”https://www.qualcomm.com/news/releases/2025/10/qualcomm-unveils-ai200-and-ai250-redefining-rack-scale-data-cent”target=”_blank”>rullar ut en öppen mjukvarustapel som är utformad för enkel användning.

Genom att betona en sömlös AI-kompatibilitet implementering för modeller från utvecklarhubbar som Hugging Face, företaget syftar till att tillhandahålla ett gångbart alternativ till Nvidias egenutvecklade CUDA-ekosystem, vilket minskar friktionen för företag och molnleverantörer.

Memory Over Muscle: A Different Approach to Chip Design

In a new challenge to GPU, Ququor. acceleratorer prioriterar minneskapacitet och effektivitet. AI200-kortet kommer att innehålla enorma 768 GB LPDDR-minne.

Det representerar en strategisk avvikelse från den dyra HBM-standarden (High Bandwidth Memory) i avancerade chips från Nvidia och AMD.

Medan HBM erbjuder överlägsen bandbredd, är det kostsamt och kan vara en flaskhals i leveranskedjan. Genom att använda LPDDR strävar Qualcomm efter att ladda massiva AI-modeller på ett enda kort, vilket minskar behovet av dyra och kraftkrävande dataöverföringar mellan flera chips.

Dess designfilosofi är inriktad på att sänka den totala ägandekostnaden (TCO) för datacenteroperatörer. Den mer avancerade AI250, som är planerad till 2027, driver detta koncept ytterligare med en beräkningslayout med nära minne.

Qualcomm hävdar att den här arkitekturen kan leverera över 10 gånger högre effektiv minnesbandbredd och tackla de flaskhalsar som ofta saktar ner slutledningsuppgifter. Enligt Durga Malladi, SVP & GM på Qualcomm,”Med Qualcomm AI200 och AI250 omdefinierar vi vad som är möjligt för AI-inferens i rackskala.”

Qualcomm kommer att erbjuda tekniken som individuella acceleratorkort eller som kompletta, vätskekylda serverrack.

a kiloF rack.

a kiloF. strömförbrukning jämförbar med befintlig GPU-rack från konkurrenter, men med löftet om större effektivitet för slutledningsarbetsbelastningar, som direkt påverkar ett datacenters driftsbudget.

Entering a Crowded Field: Qualcomm vs. the Titans

För molnleverantörer och stora företag kan ankomsten av en annan stor leverantör medföra en välkommen priskonkurrens och leveranskedjan för många år. hårdvarumarknaden har dominerats överväldigande av Nvidia, vars kraftfulla GPU:er och CUDA-programvara har blivit industristandard. Den dominansen har skapat utbudsbegränsningar och höga kostnader, vilket har fått stora aktörer som Oracle och OpenAI att aktivt söka efter alternativ från AMD och till och med utveckla anpassat kisel.

Qualcomms inträde intensifierar denna konkurrens. En entusiastisk marknadsrespons, som inkluderade en uppgång på 15 % i Qualcomms aktie, signalerar stark investerartro på företagets potential att ta en meningsfull andel.

Qualcomm har redan säkrat en betydande tidig kund i Saudiarabiens Humain, som har förbundit sig att distribuera system som använder upp till 200 megawatt av 200 megawatt AI. lanseras 2026 och AI250 in 2027 förbinder sig Qualcomm till en årlig releasekadens för att hålla jämna steg med sina rivaler.

Företaget betonar också flexibilitet, vilket gör det möjligt för kunder att integrera sina komponenter i sina egna anpassade serverdesigner.

“Vad vi har försökt göra är att se till att våra kunder är i stånd att antingen blanda,”ta”och”matcha allt”, sade. När kapprustningen med AI fortsätter att eskalera gör Qualcomms differentierade strategi det till en formidabel ny utmanare i kampen om datacentrets framtid.

Categories: IT Info