Qualcomm betrad maandag de AI-datacentermarkt en lanceerde nieuwe chips om leiders Nvidia en AMD uit te dagen. Qualcomm heeft zijn AI200-en AI250-accelerators onthuld, die zijn gebouwd voor de groeiende markt voor AI-inferentie.

Qualcomm gokt op een ontwerp met enorme geheugencapaciteit om klanten lagere kosten en hoge efficiëntie te bieden. De stap is een belangrijke strategische verandering voor de mobiele technologiegigant. Beleggers juichten het nieuws toe, waardoor de aandelen van het bedrijf met 15% stegen. De nieuwe hardware zal naar verwachting in 2026 arriveren en een krachtige nieuwe speler toevoegen aan de AI-wapenwedloop.

Een strategische gok op de AI-inferentiemarkt

Qualcomm maakt gebruik van tientallen jaren aan expertise op het gebied van mobiele processors met laag vermogen en is een berekend spel maken voor het datacenter. Het bedrijf omzeilt een directe confrontatie met Nvidia op het gebied van AI-training, een markt die de GPU-gigant domineert.

In plaats daarvan richt het zich op de snelgroeiende inferentiemarkt, die gepaard gaat met het uitvoeren van reeds getrainde modellen voor real-time toepassingen. De strategische spil vanuit de mobile-first focus is een doelbewuste reis geweest.

“We wilden onszelf eerst bewijzen in andere domeinen, en toen we daar eenmaal onze kracht hadden opgebouwd, was het voor ons vrij eenvoudig om een ​​stapje hogerop te gaan naar het datacenterniveau”, zegt Durga Malladi, SVP & GM bij Qualcomm.

Deze focus op inferentie is een gedeelde strategie onder de uitdagers van Nvidia. Intel heeft onlangs zijn eigen “Crescent Island” GPU onthuld met een soortgelijk doel. Zoals Intel’s CTO Sachin Katti uitlegde:”AI verschuift van statische training naar realtime, overal gevolgtrekkingen, aangedreven door agentische AI.”

Deze sectorbrede verschuiving creëert een opening voor nieuwe architecturen die prioriteit geven aan prestaties per watt en lagere operationele kosten boven de ruwe rekenkracht die nodig is voor training.

Om zijn hardware te ondersteunen, is Qualcomm het uitrollen van een open softwarestack die is ontworpen voor gemakkelijke adoptie.

Door de nadruk te leggen op naadloze compatibiliteit met belangrijke AI frameworks en implementatie met één klik voor modellen van ontwikkelaarshubs zoals Hugging Face, wil het bedrijf een levensvatbaar alternatief bieden voor Nvidia’s eigen CUDA-ecosysteem, waardoor de wrijving voor bedrijven en cloudproviders wordt verminderd.

Memory Over Muscle: een andere benadering van chipontwerp

In een directe uitdaging voor de GPU-centrische status Qualcomm’s nieuwe versnellers geven prioriteit aan geheugencapaciteit en efficiëntie. De AI200-kaart zal beschikken over een enorme 768 GB LPDDR-geheugen.

Het vertegenwoordigt een strategische afwijking van de dure HBM-standaard (high-bandwidth memory) in high-end chips van Nvidia en AMD.

Hoewel HBM superieure bandbreedte biedt, is het kostbaar en kan het een knelpunt in de supply chain vormen. Door LPDDR te gebruiken wil Qualcomm enorme AI-modellen op één kaart laden, waardoor de behoefte aan kostbare en energieverslindende gegevensoverdrachten tussen meerdere chips wordt verminderd.

De ontwerpfilosofie is gericht op het verlagen van de totale eigendomskosten (TCO) voor datacenterexploitanten. De meer geavanceerde AI250, gepland voor 2027, gaat verder met dit concept met een computerindeling die bijna geen geheugen bevat.

Qualcomm beweert dat deze architectuur een meer dan 10 keer hogere effectieve geheugenbandbreedte kan leveren, waarmee de knelpunten worden aangepakt die inferentietaken vaak vertragen. Volgens Durga Malladi, SVP & GM bij Qualcomm: “Met Qualcomm AI200 en AI250 herdefiniëren we wat mogelijk is voor AI-inferentie op rackschaal.”

Qualcomm zal de technologie aanbieden als individuele acceleratorkaarten of als complete, vloeistofgekoelde serverracks.

Full-racksystemen zullen werken op 160 kilowatt, een stroomverbruik dat vergelijkbaar is met bestaande GPU-racks van concurrenten, maar met de belofte van een grotere efficiëntie bij het afleiden van workloads, die een directe impact hebben op het operationele budget van een datacenter.

Een druk veld betreden: Qualcomm versus de Titans

Voor cloudproviders en grote ondernemingen zou de komst van een andere grote leverancier welkome prijsconcurrentie en stabiliteit van de toeleveringsketen kunnen brengen.

Jarenlang zou de AI kunnen zorgen voor welkome prijsconcurrentie en stabiliteit van de supply chain.

De hardwaremarkt wordt overweldigend gedomineerd door Nvidia, wiens krachtige GPU’s en CUDA-software-ecosysteem de industriestandaard zijn geworden. Die dominantie heeft tot aanbodbeperkingen en hoge kosten geleid, wat grote spelers als Oracle en OpenAI ertoe heeft aangezet actief op zoek te gaan naar alternatieven van AMD en zelfs op maat gemaakt silicium te ontwikkelen.

De intrede van Qualcomm verhevigt deze concurrentie. Een enthousiaste reactie van de markt, waaronder een koersstijging van 15% in de aandelen van Qualcomm, duidt op een sterk geloof van beleggers in het potentieel van het bedrijf om een ​​betekenisvol aandeel te veroveren.

Qualcomm heeft al een belangrijke vroege klant binnengehaald in het Saudische Humain, dat zich ertoe heeft verbonden systemen in te zetten die tot 200 megawatt aan stroom verbruiken.

Met de lancering van de AI200 in 2026 en de AI250 in 2026 In 2027 verbindt Qualcomm zich aan een jaarlijks releasetempo om gelijke tred te houden met zijn rivalen.

Het bedrijf benadrukt ook de flexibiliteit, waardoor klanten de componenten kunnen integreren in hun eigen aangepaste serverontwerpen.

“Wat we hebben geprobeerd te doen is ervoor zorgen dat onze klanten in staat zijn om alles te gebruiken of te zeggen:’Ik ga mixen en matchen'”, Malladi zei. Terwijl de AI-wapenwedloop blijft escaleren, maakt de gedifferentieerde strategie van Qualcomm het tot een geduchte nieuwe concurrent in de strijd om de toekomst van het datacenter.

Categories: IT Info