Em um movimento histórico que reformula o cenário competitivo da inteligência artificial, o OpenAI está explorando seu principal rival, Google, para obter capacidade de computação em nuvem. Essa parceria surpreendente ressalta a demanda colossal e não negociável por infraestrutura de IA, que está forçando até os concorrentes mais ferozes a alianças pragmáticas. O acordo marca uma diversificação estratégica significativa para o OpenAI, longe de seu principal patrocinador, a Microsoft, e representa uma grande vitória para a divisão em nuvem do Google.
O acordo, que terminou em janeiro. Para o OpenAI, o acesso à infraestrutura formidável do Google e seu hardware especializado fornece outra fonte crítica do poder computacional necessário para treinar e executar seus modelos cada vez mais sofisticados. Ele valida o esforço da empresa para posicionar sua plataforma em nuvem como um recurso neutro e poderoso para todo o ecossistema de IA, mesmo para seus concorrentes mais diretos. O movimento sinaliza que, na corrida armamentista da IA, a pura necessidade de computação pode substituir as rivalidades tradicionais, criando uma rede nova e complexa de dependências entre os rebatedores mais pesados da Big Tech. Break da exclusividade
A parceria do Google é o culminar de uma estratégia deliberada de um ano pela OpenAI para diversificar sua infraestrutura e reduzir sua dependência de um único provedor. Esse pivô estratégico ganhou impulso significativo após um investimento de US $ 40 bilhões do Softbank, que alimentou a busca do OpenAI por uma infraestrutura mais flexível e independente. compromissos em outros lugares. Em março, o líder da IA firmou um contrato de cinco anos e US $ 11,9 bilhões com a CoreWeave, um fornecedor de nuvem especializado conhecido por seus serviços de GPU da NVIDIA em larga escala. Subscorando seu compromisso, o OpenAI aprofundou essa parceria apenas dois meses depois, acrescentando outros US $ 4 bilhões ao acordo. Giants
Enquanto o OpenAI se diversifica, sua relação com a Microsoft está passando por uma transformação fundamental. As duas empresas estão renegociando os termos de seu investimento em vários bilhões de dólares, incluindo a futura participação de ações da Microsoft. Isso ocorre depois que o CEO da Microsoft, Satya Nadella, anteriormente procurou subestimar qualquer brecha, enfatizando o compromisso significativo e contínuo da OpenAI com a plataforma do Azure. Sua estratégia de atuar como traficante de armas neutra para infraestrutura de IA se mostrou bem-sucedida, com a empresa também conquistando negócios de outros concorrentes do OpenAI, como a superintelligência segura da Ilya Sutskever. O movimento complica ainda mais como o Google aloca seus recursos, especialmente porque seu próprio CFO reconheceu aos analistas no início deste ano que a empresa já estava enfrentando um déficit na capacidade de atender à demanda existente do cliente. O desafio, conforme explicado pelos especialistas, é que os data centers de IA são fundamentalmente diferentes, exigindo hardware e infraestrutura exclusivos para lidar com o processamento enorme de processamento paralelo de suas cargas de trabalho. Esses investimentos maciços em data centers habilitados para AI por Microsoft. Esses gastos são imensos. De acordo com a análise da Digital Infra Network, as despesas mundiais de capital de data center são projetadas para supere US $ 1 trilhão por 2029 . Somente a Microsoft planeja investir aproximadamente US $ 80 bilhões nessa área no ano fiscal de 2025. Esse ambiente intensivo em capital cria pressões financeiras significativas, principalmente para fornecedores especializados como a CoreWeave. Os investidores lamentam escala WeWork e pode ser hesitante para repetir a experiência. Raça
A batalha pela supremacia da IA está sendo cada vez mais travada no nível do silício. A decisão da Microsoft de transmitir uma opção de contrato de US $ 12 bilhões na CoreWeave, que abriu a porta para o investimento inicial da OpenAI, foi impulsionada por seu pivô estratégico para o desenvolvimento de seus próprios chips de IA proprietários, como Azure Maia e Cobalt. Isso reflete uma tendência mais ampla da indústria em que o controle sobre toda a pilha de tecnologia, do chip ao modelo, é visto como uma vantagem competitiva importante. É aqui que o Google tem uma vantagem distinta. Sua divisão em nuvem é reforçada por suas poderosas unidades de processamento de tensores internas (TPUs), chips especializados projetados especificamente para cargas de trabalho de IA. O Google agora está implantando sua TPU de sétima geração, o codinome’Ironwood’, que oferece enorme potência de computação adaptada para modelos grandes. Essa vantagem de hardware é um grande atrativo para empresas como o OpenAI, que estão constantemente buscando maneiras mais eficientes de treinar seus modelos. Nesta semana, o OpenAI lançou o O3-Pro, um novo modelo de raciocínio premium com um preço dez vezes maior que o seu colega padrão. A empresa posicionou o modelo como uma ferramenta que pode”pensar mais”para oferecer maior precisão. Isso alimenta as ofertas de bilhões de dólares que remodelavam as rivalidades tradicionais de tecnologia. A demanda insaciável por computação é forçar uma nova realidade: um cenário competitivo mais fragmentado, caro e complexo, onde os rivais de ontem são os parceiros essenciais de hoje.