Qualcomm ingresó al mercado de centros de datos de IA el lunes, lanzando nuevos chips para desafiar a los líderes Nvidia y AMD. Qualcomm reveló sus aceleradores AI200 y AI250, que están diseñados para el creciente mercado de inferencia de IA.

Qualcomm está apostando por un diseño con capacidad de memoria masiva para ofrecer a los clientes costos más bajos y alta eficiencia. Su medida supone un importante cambio estratégico para el gigante de la tecnología móvil. Los inversores aplaudieron la noticia, lo que hizo que las acciones de la empresa subieran un 15%. Su nuevo hardware llegará en 2026, añadiendo un nuevo y poderoso actor a la carrera armamentista de IA.

Una apuesta estratégica en el mercado de inferencia de IA

Aprovechando décadas de experiencia en procesadores móviles de bajo consumo, Qualcomm es realizando una jugada calculada para el centro de datos. La compañía está evitando una confrontación directa con Nvidia en el espacio de entrenamiento de IA, un mercado que domina el gigante de las GPU.

En cambio, está apuntando al mercado de inferencia en rápida expansión, que Implica ejecutar modelos ya entrenados para aplicaciones en tiempo real. Su giro estratégico desde su enfoque en dispositivos móviles ha sido un viaje deliberado.

“Primero queríamos probarnos a nosotros mismos en otros dominios, y una vez que construimos nuestra fuerza allí, fue bastante fácil para nosotros subir un nivel al nivel del centro de datos”, dijo Durga Malladi, vicepresidente senior y gerente general de Qualcomm.

Este enfoque en la inferencia es una estrategia compartida entre los rivales de Nvidia. Intel presentó recientemente su propia GPU “Crescent Island” con un objetivo similar. Como explicó el CTO de Intel, Sachin Katti,”la IA está pasando del entrenamiento estático a la inferencia en tiempo real y en todas partes, impulsada por la IA agente”.

Ese cambio en toda la industria está creando una apertura para nuevas arquitecturas que priorizan el rendimiento por vatio y menores costos operativos sobre la potencia informática bruta necesaria para la capacitación.

Para respaldar su hardware, Qualcomm implementando una pila de software abierta diseñada para una fácil adopción.

Al enfatizar la compatibilidad perfecta con los principales marcos de IA y Implementación con un solo clic para modelos de centros de desarrolladores como Hugging Face, la compañía tiene como objetivo proporcionar una alternativa viable al ecosistema CUDA patentado de Nvidia, reduciendo la fricción para las empresas y los proveedores de la nube.

Memoria sobre músculo: un enfoque diferente al diseño de chips

En un desafío directo al status quo centrado en GPU, el nuevo Qualcomm Los aceleradores priorizan la capacidad y la eficiencia de la memoria. La tarjeta AI200 contará con una enorme memoria LPDDR de 768 GB.

Representa una desviación estratégica del costoso estándar de memoria de alto ancho de banda (HBM) en los chips de alta gama de Nvidia y AMD.

Si bien HBM ofrece un ancho de banda superior, es costoso y puede ser un cuello de botella en la cadena de suministro. Al utilizar LPDDR, Qualcomm pretende cargar modelos masivos de IA en una sola tarjeta, reduciendo la necesidad de transferencias de datos costosas y que consumen mucha energía entre múltiples chips.

Su filosofía de diseño se centra en reducir el costo total de propiedad (TCO) para los operadores de centros de datos. El AI250 más avanzado, previsto para 2027, impulsa este concepto aún más con un diseño informático cercano a la memoria.

Qualcomm afirma que esta arquitectura puede ofrecer un ancho de banda de memoria efectivo 10 veces mayor, abordando los cuellos de botella que a menudo ralentizan las tareas de inferencia. Según Durga Malladi, vicepresidente senior y director general de Qualcomm,”con Qualcomm AI200 y AI250, estamos redefiniendo lo que es posible para la inferencia de IA a escala de rack”.

Qualcomm ofrecerá la tecnología como tarjetas aceleradoras individuales o como racks de servidores completos con refrigeración líquida.

Los sistemas de rack completo funcionarán a 160 kilovatios, un consumo de energía comparable al existente Los racks de GPU de la competencia, pero con la promesa de una mayor eficiencia para las cargas de trabajo de inferencia, impactan directamente en el presupuesto operativo de un centro de datos.

Entrando en un campo abarrotado: Qualcomm vs. los titanes

Para los proveedores de la nube y las grandes empresas, la llegada de otro proveedor importante podría traer una bienvenida competencia de precios y estabilidad de la cadena de suministro.

Durante años, la IA El mercado de hardware ha estado abrumadoramente dominado por Nvidia, cuyas potentes GPU y ecosistema de software CUDA se han convertido en el estándar de la industria. Ese dominio ha creado limitaciones de suministro y altos costos, lo que ha llevado a grandes actores como Oracle y OpenAI a buscar activamente alternativas de AMD e incluso desarrollar silicio personalizado.

La entrada de Qualcomm intensifica esta competencia. Una respuesta entusiasta del mercado, que incluyó un aumento del 15 % en las acciones de Qualcomm, indica una fuerte confianza de los inversores en el potencial de la compañía para capturar una participación significativa.

Qualcomm ya ha conseguido un importante cliente inicial en Humain de Arabia Saudita, que se ha comprometido a implementar sistemas que utilicen hasta 200 megavatios de energía.

Con el lanzamiento del AI200 en 2026 y el AI250 en Hasta 2027, Qualcomm se compromete a mantener un ritmo de lanzamiento anual para seguir el ritmo de sus rivales.

La empresa también está haciendo hincapié en la flexibilidad, permitiendo a los clientes integrar sus componentes en sus propios diseños de servidores personalizados.

“Lo que hemos intentado hacer es asegurarnos de que nuestros clientes estén en condiciones de aceptarlo todo o decir:’Voy a mezclar y combinar'”, Malladi dijo. A medida que la carrera armamentista de la IA continúa aumentando, la estrategia diferenciada de Qualcomm lo convierte en un nuevo y formidable contendiente en la batalla por el futuro del centro de datos.

Categories: IT Info