A Qualcomm entrou no mercado de data centers de IA na segunda-feira, lançando novos chips para desafiar as líderes Nvidia e AMD. A Qualcomm revelou seus aceleradores AI200 e AI250, construídos para o crescente mercado de inferência de IA.

A Qualcomm está apostando em um design com enorme capacidade de memória para oferecer aos clientes custos mais baixos e alta eficiência. Sua mudança representa uma grande mudança estratégica para a gigante da tecnologia móvel. Os investidores aplaudiram a notícia, fazendo com que as ações da empresa subissem 15%. Seu novo hardware está previsto para chegar em 2026, adicionando um novo player poderoso à corrida armamentista de IA.

Uma aposta estratégica no mercado de inferência de IA

Aproveitando décadas de experiência em processadores móveis de baixo consumo de energia, a Qualcomm está fazendo uma jogada calculada para o data center. A empresa está evitando um confronto direto com a Nvidia no espaço de treinamento de IA, um mercado dominado pela gigante da GPU. envolve a execução de modelos já treinados para aplicativos em tempo real. Seu pivô estratégico desde seu foco em dispositivos móveis tem sido uma jornada deliberada.

“Primeiro, queríamos provar nosso valor em outros domínios e, depois que construímos nossa força lá, foi muito fácil subirmos um degrau no nível de data center”, disse Durga Malladi, vice-presidente sênior e gerente geral da Qualcomm.

Esse foco na inferência é uma estratégia compartilhada entre os desafiantes da Nvidia. A Intel revelou recentemente sua própria GPU “Crescent Island” com um objetivo semelhante. Como explicou o CTO da Intel, Sachin Katti, “a IA está mudando do treinamento estático para a inferência em tempo real e em qualquer lugar – impulsionada pela IA de agente.”

Essa mudança em todo o setor está criando uma abertura para novas arquiteturas que priorizam o desempenho por watt e reduzem os custos operacionais em detrimento da potência computacional bruta necessária para o treinamento.

Para dar suporte ao seu hardware, a Qualcomm está lançamento de uma pilha de software aberta projetada para fácil adoção.

Enfatizando a compatibilidade perfeita com as principais estruturas de IA e implantação com um clique para modelos de centros de desenvolvedores como o Hugging Face, a empresa pretende fornecer uma alternativa viável ao ecossistema CUDA proprietário da Nvidia, reduzindo o atrito para empresas e provedores de nuvem. novos aceleradores priorizam capacidade e eficiência de memória. A placa AI200 contará com enormes 768 GB de memória LPDDR.

Ela representa um afastamento estratégico do caro padrão de memória de alta largura de banda (HBM) em chips de última geração da Nvidia e AMD.

Embora a HBM ofereça largura de banda superior, ela é cara e pode ser um gargalo na cadeia de suprimentos. Ao usar o LPDDR, a Qualcomm pretende carregar modelos massivos de IA em um único cartão, reduzindo a necessidade de transferências de dados dispendiosas e que consomem muita energia entre vários chips.

Sua filosofia de design está centrada na redução do custo total de propriedade (TCO) para operadores de data centers. O AI250 mais avançado, planejado para 2027, leva esse conceito ainda mais longe com um layout de computação próximo à memória.

A Qualcomm afirma que essa arquitetura pode fornecer largura de banda de memória efetiva 10 vezes maior, resolvendo os gargalos que muitas vezes retardam as tarefas de inferência. De acordo com Durga Malladi, vice-presidente sênior e gerente geral da Qualcomm, “com Qualcomm AI200 e AI250, estamos redefinindo o que é possível para inferência de IA em escala de rack”. Racks de GPU dos concorrentes, mas com a promessa de maior eficiência para cargas de trabalho de inferência, impactando diretamente o orçamento operacional de um data center.

Entrando em um campo lotado: Qualcomm versus os Titãs

Para provedores de nuvem e grandes empresas, a chegada de outro grande fornecedor poderia trazer uma competição de preços bem-vinda e estabilidade na cadeia de suprimentos.

Durante anos, a IA O mercado de hardware tem sido esmagadoramente dominado pela Nvidia, cujas poderosas GPUs e ecossistema de software CUDA se tornaram o padrão da indústria. Esse domínio criou restrições de fornecimento e custos elevados, levando grandes intervenientes como a Oracle e a OpenAI a procurar ativamente alternativas à AMD e até a desenvolver silício personalizado.

A entrada da Qualcomm intensifica esta competição. Uma resposta entusiástica do mercado, que incluiu um aumento de 15% nas ações da Qualcomm, sinaliza uma forte crença dos investidores no potencial da empresa para capturar uma participação significativa.

A Qualcomm já garantiu um cliente inicial significativo em Humain, na Arábia Saudita, que se comprometeu a implantar sistemas que utilizam até 200 megawatts de energia.

Com o lançamento do AI200 em 2026 e do AI250 em 2026 Até 2027, a Qualcomm está se comprometendo com uma cadência de lançamento anual para acompanhar o ritmo de seus rivais.

A empresa também está enfatizando a flexibilidade, permitindo que os clientes integrem seus componentes em seus próprios designs de servidor personalizados.

“O que tentamos fazer é garantir que nossos clientes estejam em posição de pegar tudo ou dizer: ‘Vou misturar e combinar’”, Malladi disse. À medida que a corrida armamentista de IA continua a aumentar, a estratégia diferenciada da Qualcomm a torna um novo concorrente formidável na batalha pelo futuro do data center.

Categories: IT Info