Qualcomm gikk inn på AI-datasentermarkedet på mandag, og lanserte nye brikker for å utfordre lederne Nvidia og AMD. Qualcomm avslørte sine AI200-og AI250-akseleratorer, som er bygget for det voksende AI-slutningsmarkedet.

Qualcomm satser på et design med massiv minnekapasitet for å tilby kundene lavere kostnader og høy effektivitet. Flyttingen er et stort strategisk skifte for mobilteknologigiganten. Investorer jublet over nyhetene og sendte selskapets aksje opp 15%. Den nye maskinvaren skal ankomme i 2026, og legge til en kraftig ny aktør til AI-våpenkappløpet.

Et strategisk veddemål på AI-inferensmarkedet

Qualcomm utnytter tiår med ekspertise innen mobilprosessorer med lav effekt, og er lage et beregnet spill for datasenteret. Selskapet omgår en direkte konfrontasjon med Nvidia i AI-treningsområdet, et marked som GPU-giganten dominerer.

I stedet er det rettet mot å kjøre markedet raskt. allerede opplærte modeller for sanntidsapplikasjoner. Dens strategiske pivot fra mobilfokuset har vært en bevisst reise.

“Vi ønsket først å bevise oss selv på andre domener, og når vi først bygget vår styrke der borte, var det ganske enkelt for oss å gå opp et hakk inn i datasenternivået,”sa Durga Malladi, SVP & GM hos Qualcomm.

Denne strategien er delt i Nvidia. Intel avduket nylig sin egen”Crescent Island”GPU med et lignende mål. Som Intels CTO Sachin Katti forklarte,”AI skifter fra statisk trening til sanntid, overalt slutninger – drevet av agent AI.”

Denne bransjeomfattende endringen skaper en åpning for nye arkitekturer som prioriterer ytelse per watt og lavere driftskostnader fremfor den rå datakraften som trengs for opplæring.

supporten er maskinvare, QualTo. href=”https://www.qualcomm.com/news/releases/2025/10/qualcomm-unveils-ai200-and-ai250-redefining-rack-scale-data-cent”target=”_blank”>ruller ut en åpen programvarestabel designet for enkel bruk.

Ved å fremheve kompatibilitet med stor sømløs kompatibilitet rammeverk og ett-klikks-distribusjon for modeller fra utviklerhuber som Hugging Face, selskapet tar sikte på å tilby et levedyktig alternativ til Nvidias proprietære CUDA-økosystem, og reduserer friksjonen for bedrifter og skyleverandører.

Memory Over Muscle: A Different Approach to Chip Design> In a PU-statusen direkte utfordrende Qualcomms nye akseleratorer prioriterer minnekapasitet og effektivitet. AI200-kortet vil ha enorme 768 GB LPDDR-minne.

Det representerer en strategisk avvik fra den dyre, høybåndbredde-minnet (HBM)-standarden i high-end-brikker fra Nvidia og AMD.

Selv om HBM tilbyr overlegen båndbredde, er det kostbart og kan være en flaskehals i forsyningskjeden. Ved å bruke LPDDR tar Qualcomm sikte på å laste massive AI-modeller på ett enkelt kort, og redusere behovet for kostbare og kraftkrevende dataoverføringer mellom flere brikker.

Designfilosofien er sentrert på å senke de totale eierkostnadene (TCO) for datasenteroperatører. Den mer avanserte AI250, som er planlagt for 2027, presser dette konseptet videre med en beregningsoppsett med nesten minne.

Qualcomm hevder at denne arkitekturen kan levere over 10 ganger høyere effektiv minnebåndbredde, og takle flaskehalsene som ofte bremser inferensoppgaver. I følge Durga Malladi, SVP & GM hos Qualcomm,”Med Qualcomm AI200 og AI250 redefinerer vi hva som er mulig for rack-skala AI-inferens.”

Qualcomm vil tilby teknologien som individuelle akseleratorkort eller som komplette, væskekjølte serverrack.

a kiloF systemer. strømtrekk sammenlignbart med eksisterende GPU-stativer fra konkurrentene, men med løftet om større effektivitet for slutningsarbeidsbelastninger, som direkte påvirker et datasenters driftsbudsjett.

Entering a Crowded Field: Qualcomm vs. the Titans

For skyleverandører og store bedrifter kan ankomsten av en annen stor leverandør medføre kjærkommen priskonkurranse og forsyningskjeden i mange år.

Maskinvaremarkedet har i overveldende grad vært dominert av Nvidia, hvis kraftige GPUer og CUDA-programvareøkosystem har blitt industristandarden. Denne dominansen har skapt forsyningsbegrensninger og høye kostnader, noe som har fått store aktører som Oracle og OpenAI til å aktivt søke etter alternativer fra AMD og til og med utvikle tilpasset silisium.

Qualcomms inntreden intensiverer denne konkurransen. En entusiastisk markedsrespons, som inkluderte en økning på 15 % i Qualcomms aksjer, signaliserer sterk investortro på selskapets potensial til å ta en meningsfull andel.

Qualcomm har allerede sikret seg en betydelig tidlig kunde i Saudi-Arabias Humain, som har forpliktet seg til å distribuere systemer som bruker opptil 200 megawatt på <20 megawatt AI. lanseres i 2026 og AI250 in I 2027 forplikter Qualcomm seg til en årlig utgivelsesfrekvens for å holde tritt med sine rivaler.

Bedriften legger også vekt på fleksibilitet, slik at kundene kan integrere komponentene sine i sine egne tilpassede serverdesign.

“Det vi har prøvd å gjøre er å sørge for at kundene våre er i posisjon til å enten mikse, ta alt av det, sa. Ettersom våpenkappløpet for kunstig intelligens fortsetter å eskalere, gjør Qualcomms differensierte strategi det til en formidabel ny utfordrer i kampen om fremtiden til datasenteret.

Categories: IT Info