AI cloud provider CoreWeave has become the first to deploy Nvidia’s latest and most powerful AI chips, A empresa anunciou . Esse movimento oferece à empresa especializada uma vantagem crítica sobre rivais maiores na corrida para alimentar a próxima onda de inteligência artificial, provocando uma manifestação no preço das ações. Target=”_ Blank”> construído pela Dell Technologies e instalado em data centers operados pelo Switch e Vertiv, apresentam a plataforma principal da NVIDIA GB300 NVL72. Ao disponibilizar este hardware de ponta, a CoreWeave solidifica sua posição como um jogador-chave para laboratórios e empresas de IA. Este lançamento é um marco significativo na corrida armamentista de infraestrutura de IA, onde o acesso ao hardware mais recente é uma vantagem competitiva primária que pode ditar quais empresas lideram o desenvolvimento da IA. Power
O NVIDIA GB300 NVL72 representa um salto monumental no desempenho. É um sistema em escala de rack de resfriamento líquido que integra 72 das novas GPUs Blackwell Ultra da NVIDIA com 36 CPUs GRACE. Essa arquitetura densa pode aumentar a saída para tarefas de raciocínio de IA em até 50 vezes em comparação com a geração anterior. A empresa também foi um dos primeiros a oferecer os sistemas H200 e GB200. O CTO da CoreWeave, Peter Salanki, enfatizou a importância estratégica desse chumbo, afirmando:”Estamos orgulhosos de ser os primeiros a suportar essa plataforma transformadora e ajudar os inovadores a se prepararem para a próxima onda emocionante de AI. Isso mostra a velocidade bruta agora disponível para desenvolvedores na plataforma da CoreWeave, reduzindo drasticamente os tempos de iteração do modelo. O CEO da Nvidia, Jensen Huang, disse sobre a nova plataforma: “O Blackwell Ultra NVL72 acelera drasticamente as cargas de trabalho de raciocínio da IA, permitindo respostas quase instantâneas, mesmo nos maiores modelos. A ascensão do
CoreWeave está diretamente ligada às estratégias de mudança dos maiores nomes da IA. A empresa é apoiada por um compromisso de quase US $ 16 bilhões da OpenAI, que diversificando agressivamente sua infraestrutura além de seu parceiro principal, Microsoft Azure. Esse relacionamento também inclui uma participação acionária significativa para a própria NVIDIA. Os rivais de ontem são parceiros essenciais de hoje. Até o CEO da Microsoft, Satya Nadella, reconheceu a dinâmica de mudança, observando:”A realidade é que sempre fazemos ajustes… é que todos prestam muito mais atenção ao que fazemos um quarto de quarto hoje em dia”. O objetivo dos desenvolvedores de IA é garantir a computação onde quer que esteja disponível e mais poderoso.
Essa intensa demanda criou uma rede complexa de dependências. Relatórios de abril de 2025 sugeriram que mesmo o Google estava em negociações para arrendar as GPUs Blackwell da CoreWeave para complementar sua própria capacidade, demonstrando a disputa universal para o hardware de ponta que transcende os limites competitivos tradicionais. A jornada da CoreWeave de seu IPO de março de 2025 para uma oferta de dívida subsequente de US $ 2 bilhões em pode destacar os imensos recursos financeiros necessários para criar essa infraestrutura. A empresa planeja gastar entre US $ 20 e US $ 23 bilhões em despesas de capital apenas em 2025. Desenhando paralelos para os desafios de escala de outros empreendimentos, o analista da Davidson Gil Luria
O próprio hardware apresentou grandes desafios. A NVIDIA e seus parceiros de fabricação, incluindo Foxconn e Inventec, tiveram que superar obstáculos técnicos significativos, como superaquecimento de GPUs e bugs de software para aumentar a produção dos racks de Blackwell. A complexidade de sincronizar tantos processadores foi imensa. Os sistemas nos EUA