Qualcomm è entrata lunedì nel mercato dei data center IA, lanciando nuovi chip per sfidare i leader Nvidia e AMD. Qualcomm ha presentato i suoi acceleratori AI200 e AI250, realizzati per il crescente mercato dell’inferenza dell’intelligenza artificiale.

Qualcomm scommette su un design con un’enorme capacità di memoria per offrire ai clienti costi inferiori ed elevata efficienza. La sua mossa rappresenta un importante cambiamento strategico per il colosso della tecnologia mobile. Gli investitori hanno accolto con favore la notizia, facendo salire le azioni della società del 15%. Il suo nuovo hardware arriverà nel 2026, aggiungendo un nuovo potente attore alla corsa agli armamenti dell’intelligenza artificiale.

Una scommessa strategica sul mercato dell’inferenza dell’intelligenza artificiale

Sfruttando decenni di esperienza nei processori mobili a basso consumo, Qualcomm è fare un gioco calcolato per il data center. L’azienda sta evitando un confronto diretto con Nvidia nello spazio di formazione sull’intelligenza artificiale, un mercato dominato dal gigante delle GPU.

Invece, sta prendendo di mira il mercato dell’inferenza in rapida espansione, che prevede l’esecuzione modelli già addestrati per applicazioni in tempo reale. Il suo perno strategico rispetto al focus mobile è stato un viaggio deliberato.

“Volevamo innanzitutto metterci alla prova in altri domini e, una volta consolidata la nostra forza lì, è stato abbastanza facile per noi salire di un livello al livello dei data center”, ha affermato Durga Malladi, SVP e GM presso Qualcomm.

Questa attenzione all’inferenza è una strategia condivisa tra gli sfidanti di Nvidia. Intel ha recentemente presentato la propria GPU”Crescent Island”con un obiettivo simile. Come ha spiegato il CTO di Intel, Sachin Katti,”L’intelligenza artificiale si sta spostando dall’addestramento statico all’inferenza in tempo reale, ovunque, guidata dall’intelligenza artificiale agente.”

Questo cambiamento a livello di settore sta creando un’apertura per nuove architetture che danno priorità al rapporto prestazioni per watt e alla riduzione dei costi operativi rispetto alla potenza di calcolo grezza necessaria per l’addestramento.

Per supportare il proprio hardware, Qualcomm sta lanciando uno stack software aperto progettato per una facile adozione.

Sottolineando la perfetta compatibilità con le principali IA framework e distribuzione con un solo clic per modelli provenienti da hub di sviluppo come Hugging Face, l’azienda mira a fornire una valida alternativa all’ecosistema CUDA proprietario di Nvidia, riducendo l’attrito per aziende e fornitori di servizi cloud.

Memory Over Muscle: un approccio diverso alla progettazione dei chip

In una sfida diretta allo status incentrato sulla GPU quo, i nuovi acceleratori di Qualcomm danno priorità alla capacità e all’efficienza della memoria. La scheda AI200 presenterà un’enorme memoria LPDDR da 768 GB.

Rappresenta un allontanamento strategico dal costoso standard di memoria a larghezza di banda elevata (HBM) nei chip di fascia alta di Nvidia e AMD.

Sebbene HBM offra una larghezza di banda superiore, è costosa e può rappresentare un collo di bottiglia nella catena di approvvigionamento. Utilizzando LPDDR, Qualcomm mira a caricare enormi modelli di intelligenza artificiale su un’unica scheda, riducendo la necessità di trasferimenti di dati costosi e assetati di energia tra più chip.

La sua filosofia di progettazione è incentrata sulla riduzione del costo totale di proprietà (TCO) per gli operatori dei data center. Il più avanzato AI250, previsto per il 2027, spinge ulteriormente questo concetto con un layout di calcolo vicino alla memoria.

Qualcomm afferma che questa architettura può fornire una larghezza di banda di memoria effettiva oltre 10 volte superiore, affrontando i colli di bottiglia che spesso rallentano le attività di inferenza. Secondo Durga Malladi, SVP e GM di Qualcomm,”Con Qualcomm AI200 e AI250, stiamo ridefinendo ciò che è possibile fare per l’inferenza AI su scala rack.”

Qualcomm offrirà la tecnologia come schede acceleratrici individuali o come rack di server completi raffreddati a liquido.

I sistemi full-rack funzioneranno a 160 kilowatt, un assorbimento di potenza paragonabile a rack GPU esistenti della concorrenza, ma con la promessa di una maggiore efficienza per i carichi di lavoro di inferenza, con un impatto diretto sul budget operativo di un data center.

L’ingresso in un campo affollato: Qualcomm contro i Titani

Per i fornitori di servizi cloud e le grandi aziende, l’arrivo di un altro importante fornitore potrebbe portare una gradita competizione sui prezzi e stabilità della catena di fornitura.

Per anni, il Il mercato dell’hardware AI è stato dominato in modo schiacciante da Nvidia, le cui potenti GPU e l’ecosistema software CUDA sono diventati lo standard del settore. Questa posizione dominante ha creato vincoli di fornitura e costi elevati, spingendo attori importanti come Oracle e OpenAI a cercare attivamente alternative ad AMD e persino a sviluppare silicio personalizzato.

L’ingresso di Qualcomm intensifica questa concorrenza. Una risposta entusiastica del mercato, che includeva un aumento del 15% delle azioni di Qualcomm, segnala la forte fiducia degli investitori nel potenziale dell’azienda di acquisire una quota significativa.

Qualcomm si è già assicurata un importante cliente iniziale in Humain dell’Arabia Saudita, che si è impegnata a implementare sistemi che utilizzano fino a 200 megawatt di potenza.

Con il lancio dell’AI200 nel 2026 e dell’AI250 in Entro il 2027, Qualcomm si impegna a mantenere una cadenza di rilascio annuale per tenere il passo con i suoi rivali.

L’azienda sta inoltre sottolineando la flessibilità, consentendo ai clienti di integrare i suoi componenti nei progetti dei propri server personalizzati.

“Quello che abbiamo cercato di fare è garantire che i nostri clienti siano nella posizione di prendere tutto o dire:”Miscolerò e abbinerò”,”Malladi ha detto. Mentre la corsa agli armamenti basata sull’intelligenza artificiale continua a intensificarsi, la strategia differenziata di Qualcomm la rende un nuovo formidabile contendente nella battaglia per il futuro del data center.

Categories: IT Info