Microsoft, NVIDIA e Anthropic formaram uma aliança que remodelará o mercado de IA. Em um acordo revelado na terça-feira, a Anthropic concordou em gastar US$ 30 bilhões na capacidade de nuvem do Microsoft Azure. At the same time, NVIDIA and Microsoft will invest a combined $15 billion in the startup.

NVIDIA is putting in $10 billion, while Microsoft adds $5 billion. A integração traz os modelos Claude da Anthropic diretamente para o Azure, apoiando o plano da Microsoft de oferecer diversas ferramentas de IA. O acesso a essa capacidade dá à Anthropic a energia bruta necessária para construir seus próximos grandes modelos.

Um compromisso de US$ 30 bilhões com o Azure

A Anthropic se comprometeu a comprar US$ 30 bilhões em créditos de computação ao longo da próxima década, um número que ressalta os custos astronômicos associados ao desenvolvimento de inteligência artificial de ponta.

Além do compromisso monetário, o acordo inclui uma disposição específica para a Anthropic contratar capacidade computacional adicional de até um gigawatt, garantindo que a startup tenha acesso garantido à energia e ao poder de processamento necessários para treinar sucessores para sua geração de modelo atual.

A arquitetura financeira do acordo cria um ciclo de liquidez simbiótico entre os parceiros. Segundo os termos do acordo, a injeção de capital de US$ 15 bilhões, dividida entre os US$ 10 bilhões da NVIDIA e os US$ 5 bilhões da Microsoft, fornece o capital imediato necessário para financiar a construção dessa infraestrutura.

Essencialmente, uma parte significativa do capital que a Microsoft está investindo na Anthropic retornará para sua própria divisão Azure como receita, ajudando a subsidiar os enormes gastos de capital necessários para construir novos data centers.

Essa estrutura reflete acordos semelhantes que a Microsoft utilizou com OpenAI, efetivamente garantindo um inquilino âncora de longo prazo para seus clusters de supercomputação em expansão.

Este realinhamento estratégico marca um pivô decisivo da estratégia de infraestrutura anterior da Antthropic, que até agora dependia fortemente na Amazon Web Services (AWS) como seu principal provedor de nuvem.

Embora a empresa mantenha seu relacionamento existente com a Amazon, a escala do compromisso do Azure sinaliza a adoção de uma estratégia de fato de nuvem dupla. Ao diversificar sua base de computação, a Anthropic mitiga o risco de dependência de fornecedor e garante redundância nas duas maiores plataformas de nuvem do mundo.

De acordo com a Microsoft, essa mudança torna Claude a única família de modelos de fronteira disponível em todos os três serviços de nuvem mais proeminentes do mundo, garantindo-lhe uma vantagem de distribuição única sobre os concorrentes vinculados exclusivamente a um único parceiro de infraestrutura.

A mudança é impulsionada pelos crescentes requisitos de infraestrutura para o treinamento de modelos de próxima geração, que agora exigem clusters de dezenas de milhares de GPUs operando em conjunto.

Ao garantir acesso prioritário à arquitetura avançada de supercomputação do Azure, que inclui os mais recentes sistemas NVIDIA Grace Blackwell e Vera Rubin, a Anthropic garante que pode permanecer competitiva em relação ao GPT-5 da OpenAI e ao Gemini do Google.

Para a Microsoft, o acordo valida sua expansão agressiva de data center, incluindo projetos recentes para construir supercomputadores de IA massivos, ao provar que há uma demanda sustentada e de alto valor por essa capacidade vai além de suas próprias necessidades internas.

Hedge de US$ 10 bilhões da NVIDIA

O envolvimento da NVIDIA acrescenta uma camada complexa à aliança. Ao investir US$ 10 bilhões, o CEO Jensen Huang está efetivamente financiando o principal concorrente de seu outro grande parceiro, a OpenAI. O domínio do mercado é o objetivo aqui; a mudança garante a demanda por GPUs Blackwell e Rubin, independentemente de qual família de modelos domina a camada de software.

Ainda assim, a parceria une executivos com visões historicamente divergentes. Há apenas alguns meses, Huang e o CEO da Anthropic, Dario Amodei, entraram em confronto público sobre o impacto social da IA. Amodei alertou frequentemente sobre riscos catastróficos, enquanto Huang rejeitou tais preocupações como alarmistas.

O dinheiro parece ter superado essa divisão filosófica. O alinhamento estratégico garante que os clusters da Anthropic serão construídos com base na arquitetura mais recente da NVIDIA, em vez de silício personalizado do Google ou da Amazon.

Para a NVIDIA, esta é uma jogada defensiva contra o surgimento de chips proprietários, garantindo que seu hardware continue sendo o padrão da indústria tanto para treinamento quanto para inferência.

Nativo no Azure: um pivô técnico

Embora as integrações anteriores dependessem de chamadas de API roteadas para hosts externos, as notícias de hoje confirmam um unificação técnica mais profunda. Em setembro, o Microsoft 365 Copilot começou a oferecer o Claude por meio de APIs padrão hospedadas na AWS. Essa configuração permitiu que os usuários acessassem os modelos, mas os dados ainda precisavam atravessar os limites da nuvem.

Agora, a Anthropic está escalando seus modelos nativamente na infraestrutura do Azure. Os desenvolvedores que usam o Microsoft Foundry e o Azure AI Agent Service terão acesso ao Claude Sonnet 4.5, Claude Opus 4.1 e Claude Haiku 4.5 em execução diretamente nos data centers da Microsoft. Como resultado, espera-se que a latência caia significativamente.

Os clientes empresariais também podem aplicar os controles de conformidade e segurança do Azure de forma mais eficaz quando os pesos do modelo residem na plataforma. Essa hospedagem nativa é crítica para o agente “Pesquisador” no Microsoft 365, que executa tarefas complexas de raciocínio em várias etapas.

Charles Lamanna, presidente do Business & Industry Copilot da Microsoft, enfatizou essa flexibilidade durante a integração inicial: “O Copilot continuará a ser alimentado pelos modelos mais recentes da OpenAI e agora nossos clientes também terão a flexibilidade de usar modelos Anthropic.”

Além disso, a integração aproveita o Model Context Protocol. (MCP), um padrão aberto co-desenvolvido pelas duas empresas. Este protocolo padroniza a forma como os agentes de IA se conectam aos dados, permitindo que Claude interaja perfeitamente com o vasto ecossistema empresarial da Microsoft.

Fortificando o fosso multimodelo

A Microsoft está executando agressivamente sua estratégia de “fosso multimodelo”. Ao hospedar OpenAI e Anthropic, Satya Nadella posiciona o Azure como o utilitário neutro para a era da IA.

A diversificação do portfólio protege Redmond de ser excessivamente dependente de um único provedor, um risco que se tornou aparente durante a turbulência de liderança da OpenAI no ano passado.

Essa diversificação ocorre logo depois que a Microsoft resolveu uma disputa contratual crítica com a OpenAI em relação à “cláusula do juízo final da AGI”. Essa disposição original de 2019 poderia ter permitido que a OpenAI cortasse o acesso da Microsoft ao alcançar a Inteligência Geral Artificial.

Com essa ameaça legal neutralizada, Redmond está livre para reforçar os rivais da OpenAI sem temer uma violação de contrato.

Apesar da nova concorrência, o CEO da Microsoft AI, Mustafa Suleyman, afirmou em agosto que “nosso objetivo é aprofundar a parceria e garantir que tenhamos uma grande colaboração com a OpenAI por muitos e muitos anos para venha”, sugerindo uma estratégia de diversificação em vez de substituição. 

A estratégia é aditiva e não subtrativa, garantindo que a Microsoft tenha participação em todos os grandes avanços da IA. Reconhecendo que nenhum modelo vence todos os benchmarks, a Microsoft optou por oferecer a “melhor ferramenta para o trabalho”. Os usuários poderão alternar entre os modelos OpenAI e Anthropic.

Esta capacidade é particularmente relevante para o agente “Pesquisador”, que raciocina sobre dados da web e arquivos internos para construir estratégias. Os usuários agora podem alternar entre o amplo conhecimento do GPT-5 e o raciocínio especializado de Claude, dependendo da tarefa.

OpenAI continua sendo uma entidade formidável por si só. Após a sua reestruturação, a organização. Como observou o presidente da OpenAI, Bret Taylor, essa avaliação a torna “uma das organizações filantrópicas com mais recursos do mundo”. Em última análise, o Azure vence de qualquer maneira. Quer uma empresa escolha GPT-5 ou Claude Opus 4.1, a receita de computação flui para a Microsoft.

Categories: IT Info