O Google revelou uma nova pesquisa “moonshot” na terça-feira chamada Projeto Suncatcher. O objetivo ambicioso é construir enormes centros de dados de IA no espaço.
Este projeto visa resolver as imensas necessidades energéticas da inteligência artificial através da implantação de vastas redes de satélites.
Cada satélite transportará chips de Unidade de Processamento Tensor (TPU) personalizados do Google e funcionará com energia solar quase constante. A empresa acredita que esta abordagem se tornará rentável à medida que os preços de lançamento de foguetes caírem. Para testar o conceito, o Google fez parceria com a empresa de satélites Planet para lançar dois protótipos em órbita até o início de 2027.
Para impulsionar a próxima geração de IA, o Google está olhando além da rede elétrica terrestre e em direção ao sol.
O anúncio oficial da empresa enquadra o Projeto Suncatcher como uma resposta às enormes e ainda crescentes demandas de energia do aprendizado de máquina moderno. À medida que os modelos de IA se tornam mais complexos, a sua pegada computacional e energética está a expandir-se rapidamente.
Este crescimento exponencial da procura não é apenas um custo financeiro; isso levanta preocupações ambientais significativas e coloca pressão sobre as redes de energia terrestres, levando os gigantes da tecnologia a buscar novas soluções radicais.
A solução proposta pelo Google é mover a infraestrutura para onde a energia é mais abundante e consistente.
A fronteira final para data centers: o projeto técnico do Suncatcher
Resolver os imensos quebra-cabeças de engenharia é fundamental para o sucesso do Suncatcher. O plano técnico do projeto, detalhado em um artigo de pesquisa, prevê constelações de satélites operando em uma órbita baixa da Terra sincronizada com o sol, do amanhecer ao anoitecer.
Este caminho orbital específico permite que os painéis solares sejam expostos à luz solar quase constante, tornando-os até oito vezes mais produtivos do que seus equivalentes terrestres. e reduzindo a necessidade de baterias pesadas a bordo.
Cada satélite na rede seria um nó em um data center flutuante, equipado com chips Tensor Processing Unit (TPU) personalizados do Google. Para que esses nós distribuídos funcionem como um supercomputador coeso, eles exigem conexões de largura de banda extremamente alta e baixa latência.
O Google planeja usar links ópticos de espaço livre para transferir dados entre satélites. Ao contrário dos sinais tradicionais de radiofrequência (RF), que têm largura de banda limitada, os links ópticos baseados em laser podem transmitir terabits de dados por segundo, um pré-requisito para conectar milhares de aceleradores de IA em um único e poderoso sistema.
Alcançar a força de sinal necessária para esses links exige que os satélites voem em uma formação próxima sem precedentes, potencialmente a apenas centenas de metros de distância.
A operação de eletrônicos sensíveis no espaço apresenta outro grande obstáculo: a radiação. O Google já realizou testes de radiação terrestres em suas TPUs Trillium (v6e).
Vale a pena notar que elas são de uma geração mais antiga do que as mais recentes TPUs Ironwood da empresa, que são otimizadas para inferência de IA.
Os resultados foram promissores. De acordo com o artigo de pesquisa, “nenhuma falha grave foi atribuída ao TID até a dose máxima testada de 15 krad (Si) em um único chip, indicando que os TPUs Trillium são surpreendentemente resistentes à radiação para aplicações espaciais.”
Os chips resistiram quase três vezes a dose de radiação esperada de uma missão de cinco anos antes que os principais componentes da memória começassem a mostrar irregularidades. Aposta
Uma visão futurística de data centers em órbita da Terra só será viável se a economia fizer sentido. Todo o modelo financeiro do Projeto Suncatcher depende de uma redução dramática e sustentada no custo de lançamento de cargas úteis ao espaço.
Os altos custos de lançamento têm sido historicamente a principal barreira para empreendimentos comerciais de grande escala em órbita.
A análise do Google projeta que, para que um data center baseado no espaço se torne aproximadamente comparável em custo aos gastos de energia de um equivalente terrestre, os preços de lançamento devem cair abaixo de US$ 200 por quilograma.
Esse número não se trata apenas do custo. de eletricidade, mas também abrange as enormes despesas gerais para sistemas de refrigeração, aquisição de terrenos e manutenção de infraestrutura que definem os data centers terrestres.
A empresa acredita que esse preço será alcançável em meados da década de 2030. Essa projeção tem como pano de fundo os custos atuais.
A nave estelar de próxima geração da SpaceX visa uma meta agressiva de apenas US$ 100 por quilograma, o que está alinhado com as projeções do Citi Research, dando credibilidade à previsão do Google.
Este optimismo económico é a pedra angular do projecto. Conforme declarado no anúncio oficial, a “análise inicial mostra que os conceitos centrais da computação de ML baseada no espaço não são excluídos pela física fundamental ou por barreiras econômicas intransponíveis”. A iniciativa do Google é ambiciosa e entra em um campo cada vez mais concorrido de pioneiros da computação orbital.
A empresa está adotando uma abordagem ponderada e baseada em marcos para concretizar sua visão. O primeiro grande passo envolve uma parceria com a empresa de imagens e dados de satélite Planet.
Juntos, eles planejam lançar dois protótipos de satélites até o início de 2027. Esta missão de aprendizado crucial testará como o hardware da TPU e os modelos de aprendizado de máquina operam no ambiente hostil do espaço e servirá para validar o uso de links ópticos entre satélites para tarefas de computação distribuída.
O Google não está sozinho ao ver o potencial da computação em órbita. Outros grandes players de tecnologia também estão explorando essa nova fronteira.
A Microsoft vem desenvolvendo sua plataforma Azure Space, que inclui conceitos para nós de computação orbitais, enquanto o Projeto Kuiper da Amazon também está explorando recursos de IA integrados para sua constelação de internet via satélite.
A vantagem estratégica está na criação de uma estrutura de computação global de baixa latência, independente da infraestrutura terrestre, oferecendo resiliência e desempenho sem precedentes para futuros serviços de IA.
A tendência sugere um futuro onde o processamento de dados e A inferência da IA acontece mais perto da fonte, esteja ela na Terra ou em órbita.
Em última análise, o Projeto Suncatcher é uma aposta de longo prazo sobre o rumo que o futuro da IA em grande escala está tomando. Ao olhar para as estrelas, o Google está se posicionando para uma possível mudança de paradigma na forma como a humanidade realiza suas tarefas computacionais mais exigentes.
Um porta-voz do Google Research resumiu a visão de forma sucinta: “No futuro, o espaço pode ser o melhor lugar para dimensionar a computação de IA”. O sucesso não só remodelaria a economia da IA, mas também poderia estabelecer uma nova fronteira para a própria infraestrutura digital.