Qualcomm est entré lundi sur le marché des centres de données IA en lançant de nouvelles puces pour défier les leaders Nvidia et AMD. Qualcomm a dévoilé ses accélérateurs AI200 et AI250, conçus pour le marché croissant de l’inférence de l’IA.
Qualcomm parie sur une conception avec une capacité de mémoire massive pour offrir aux clients des coûts inférieurs et une efficacité élevée. Cette décision constitue un changement stratégique majeur pour le géant de la technologie mobile. Les investisseurs ont applaudi la nouvelle, faisant grimper les actions de la société de 15 %. Son nouveau matériel devrait arriver en 2026, ajoutant ainsi un nouvel acteur puissant à la course à l’armement de l’IA.
Un pari stratégique sur le marché de l’inférence de l’IA
S’appuyant sur des décennies d’expertise dans les processeurs mobiles basse consommation, Qualcomm est faire un jeu calculé pour le centre de données. La société évite une confrontation directe avec Nvidia dans le domaine de la formation en IA, un marché dominé par le géant des GPU.
Au lieu de cela, elle cible le marché de l’inférence en expansion rapide, qui implique d’exécuter modèles déjà formés pour des applications en temps réel. Son pivot stratégique depuis son orientation vers le mobile a été un voyage délibéré.
« Nous voulions d’abord faire nos preuves dans d’autres domaines, et une fois que nous avons construit notre force là-bas, il nous a été assez facile de gravir un cran au niveau du centre de données », a déclaré Durga Malladi, vice-président directeur et directeur général de Qualcomm.
Cette concentration sur l’inférence est une stratégie partagée par les challengers de Nvidia. Intel a récemment dévoilé son propre GPU « Crescent Island » avec un objectif similaire. Comme l’explique Sachin Katti, CTO d’Intel,”L’IA passe de la formation statique à l’inférence en temps réel et partout, pilotée par l’IA agentique.”
Ce changement à l’échelle de l’industrie crée une ouverture pour de nouvelles architectures qui donnent la priorité aux performances par watt et à la réduction des coûts opérationnels par rapport à la puissance de calcul brute nécessaire à la formation.
Pour prendre en charge son matériel, Qualcomm est déploiement d’une pile logicielle ouverte conçue pour une adoption facile.
En mettant l’accent sur une compatibilité transparente avec les principaux frameworks d’IA et le déploiement en un clic de modèles provenant de centres de développement comme Hugging Face, la société vise à fournir une alternative viable à l’écosystème CUDA propriétaire de Nvidia, réduisant ainsi les frictions pour les entreprises et les fournisseurs de cloud.
La mémoire plutôt que le muscle : une approche différente de la conception de puces
Dans un défi direct au statu quo centré sur les GPU, Les nouveaux accélérateurs de Qualcomm donnent la priorité à la capacité et à l’efficacité de la mémoire. La carte AI200 comportera une énorme mémoire LPDDR de 768 Go.
Elle représente une rupture stratégique par rapport à la norme coûteuse et à large bande passante (HBM) des puces haut de gamme de Nvidia et AMD.
Bien que la HBM offre une bande passante supérieure, elle est coûteuse et peut constituer un goulot d’étranglement dans la chaîne d’approvisionnement. En utilisant LPDDR, Qualcomm vise à charger des modèles d’IA massifs sur une seule carte, réduisant ainsi le besoin de transferts de données coûteux et gourmands en énergie entre plusieurs puces.
Sa philosophie de conception est centrée sur la réduction du coût total de possession (TCO) pour les opérateurs de centres de données. L’AI250, plus avancé, prévu pour 2027, pousse ce concept plus loin avec une configuration de calcul proche de la mémoire.
Qualcomm affirme que cette architecture peut fournir une bande passante mémoire effective plus de 10 fois supérieure, s’attaquant ainsi aux goulots d’étranglement qui ralentissent souvent les tâches d’inférence. Selon Durga Malladi, vice-président directeur et directeur général de Qualcomm,”Avec Qualcomm AI200 et AI250, nous redéfinissons ce qui est possible en matière d’inférence d’IA à l’échelle d’un rack.”
Qualcomm proposera la technologie sous forme de cartes accélératrices individuelles ou sous forme de racks de serveurs complets refroidis par liquide.
Les systèmes en rack complet fonctionneront à 160 kilowatts, soit une consommation électrique comparable à celle existante. Les racks GPU des concurrents, mais avec la promesse d’une plus grande efficacité pour les charges de travail d’inférence, ayant un impact direct sur le budget opérationnel d’un centre de données.
Entrer dans un domaine bondé : Qualcomm contre les Titans
Pour les fournisseurs de cloud et les grandes entreprises, l’arrivée d’un autre fournisseur majeur pourrait apporter une concurrence bienvenue sur les prix et une stabilité de la chaîne d’approvisionnement.
Pendant des années, l’IA Le marché du matériel a été largement dominé par Nvidia, dont les puissants GPU et l’écosystème logiciel CUDA sont devenus la norme de l’industrie. Cette domination a créé des contraintes d’approvisionnement et des coûts élevés, incitant des acteurs majeurs comme Oracle et OpenAI à rechercher activement des alternatives à AMD et même à développer du silicium personnalisé.
L’entrée de Qualcomm intensifie cette concurrence. Une réponse enthousiaste du marché, qui comprenait une hausse de 15 % des actions de Qualcomm, témoigne d’une forte confiance des investisseurs dans le potentiel de l’entreprise à conquérir une part significative.
Qualcomm a déjà obtenu un premier client important en Arabie Saoudite Humain, qui s’est engagé à déployer des systèmes utilisant jusqu’à 200 mégawatts d’énergie.
Avec le lancement de l’AI200 en 2026 et de l’AI250 en 2026, celui de l’AI250 en 2026. D’ici 2027, Qualcomm s’engage à respecter une cadence de sortie annuelle pour suivre le rythme de ses concurrents.
La société met également l’accent sur la flexibilité, en permettant aux clients d’intégrer ses composants dans leurs propres conceptions de serveurs personnalisées.
“Ce que nous avons essayé de faire, c’est de nous assurer que nos clients sont en mesure de soit prendre tout cela, soit de dire:”Je vais les mélanger et les assortir”,”Malladi a déclaré. Alors que la course aux armements en matière d’IA continue de s’intensifier, la stratégie différenciée de Qualcomm en fait un nouveau concurrent redoutable dans la bataille pour l’avenir des centres de données.