Martedì Google ha rivelato una nuova ricerca”moonshot”chiamata Project Suncatcher. L’obiettivo ambizioso è costruire enormi data center IA nello spazio.
Questo progetto mira a risolvere l’immenso fabbisogno energetico dell’intelligenza artificiale distribuendo vaste reti di satelliti.
Ogni satellite trasporterà chip TPU (Tensor Processing Unit) personalizzati di Google e funzionerà con energia solare quasi costante. L’azienda ritiene che questo approccio diventerà economicamente vantaggioso man mano che i prezzi di lancio dei razzi diminuiranno. Per testare il concetto, Google sta collaborando con la società di satelliti Planet per lanciare due prototipi in orbita entro l’inizio del 2027.
Per alimentare la prossima generazione di intelligenza artificiale, Google sta guardando oltre la rete elettrica terrestre e verso il sole.
L’annuncio ufficiale dell’azienda definisce Project Suncatcher come una risposta alle massicce, e ancora crescenti, richieste energetiche del moderno machine learning. Man mano che i modelli di intelligenza artificiale diventano più complessi, la loro impronta computazionale ed energetica si sta espandendo rapidamente.
Questa crescita esponenziale della domanda non è solo un costo finanziario; solleva notevoli preoccupazioni ambientali e mette a dura prova le reti elettriche terrestri, spingendo i giganti della tecnologia a cercare nuove soluzioni radicali.
La soluzione proposta da Google è spostare l’infrastruttura dove l’energia è più abbondante e costante.
L’ultima frontiera per i data center: il progetto tecnico di Suncatcher
Risolvere gli immensi enigmi ingegneristici è fondamentale per il successo di Suncatcher. Il progetto tecnico del progetto, dettagliato in un documento di ricerca, prevede costellazioni di satelliti che operano in un’orbita terrestre bassa eliosincrona dall’alba al tramonto.
Questo specifico percorso orbitale consente ai pannelli solari di essere esposti alla luce solare quasi costante, rendendoli fino a otto volte più produttivi rispetto alle loro controparti terrestri e riducendo la necessità per batterie di bordo pesanti.
Ogni satellite della rete sarebbe un nodo in un data center mobile, dotato di chip TPU (Tensor Processing Unit) personalizzati di Google. Affinché questi nodi distribuiti funzionino come un supercomputer coeso, richiedono connessioni a larghezza di banda estremamente elevata e a bassa latenza.
Google prevede di utilizzare collegamenti ottici nello spazio libero per trasferire dati tra i satelliti. A differenza dei tradizionali segnali a radiofrequenza (RF), che hanno una larghezza di banda limitata, i collegamenti ottici basati su laser possono trasmettere terabit di dati al secondo, un prerequisito per collegare migliaia di acceleratori IA in un unico e potente sistema.
Per raggiungere la potenza del segnale necessaria per questi collegamenti è necessario che i satelliti volino in una formazione ravvicinata senza precedenti, potenzialmente a sole centinaia di metri di distanza.
Il funzionamento di dispositivi elettronici sensibili nello spazio presenta un altro grosso ostacolo: le radiazioni. Google ha già condotto test sulle radiazioni a terra sui suoi TPU Trillium (v6e).
Vale la pena notare che si tratta di una generazione precedente rispetto agli ultimi TPU Ironwood dell’azienda, che sono ottimizzati per l’inferenza dell’intelligenza artificiale.
I risultati sono stati promettenti. Secondo il documento di ricerca,”Nessun guasto grave è stato attribuibile al TID fino alla dose massima testata di 15 krad(Si) su un singolo chip, indicando che i TPU Trillium sono sorprendentemente resistenti alle radiazioni per le applicazioni spaziali.”
I chip hanno resistito quasi tre volte la dose di radiazioni prevista per una missione di cinque anni prima che i componenti chiave della memoria iniziassero a mostrare irregolarità.
Fare funzionare l’economia: il costo di lancio di 200 dollari al kg Azzardo
Una visione futuristica di data center in orbita attorno alla Terra è realizzabile solo se gli aspetti economici hanno un senso. L’intero modello finanziario del Progetto Suncatcher si basa su una riduzione drastica e prolungata dei costi di lancio dei carichi utili nello spazio.
Gli elevati costi di lancio sono stati storicamente il principale ostacolo alle iniziative commerciali su larga scala in orbita.
L’analisi di Google prevede che affinché un data center spaziale diventi approssimativamente paragonabile in termini di costi alle spese energetiche di un equivalente terrestre, i prezzi di lancio devono scendere al di sotto di $ 200 al chilogrammo.
Questa cifra non riguarda solo il costo di elettricità, ma comprende anche le enormi spese generali per i sistemi di raffreddamento, l’acquisizione di terreni e la manutenzione delle infrastrutture che caratterizzano i data center terrestri.
L’azienda ritiene che questo prezzo sia raggiungibile entro la metà degli anni’30. Questa proiezione si inserisce nel contesto dei costi attuali.
La Starship di prossima generazione di SpaceX mira a un obiettivo aggressivo di soli $ 100 al chilogrammo, che è in linea con le proiezioni di Citi Research, conferendo credibilità alle previsioni di Google.
Questo ottimismo economico è una pietra angolare del progetto. Come affermato nell’annuncio ufficiale,”l’analisi iniziale mostra che i concetti fondamentali del calcolo ML spaziale non sono preclusi dalla fisica fondamentale o da barriere economiche insormontabili.”
Se i costi di lancio continueranno la loro tendenza al ribasso, l’ostacolo principale si sposterà dalla fattibilità economica alla pura esecuzione ingegneristica.
Dal progetto all’orbita: un prototipo del 2027 e l’orizzonte competitivo
Mentre Google moonshot è ambizioso, entra in un campo sempre più affollato di pionieri del calcolo orbitale.
L’azienda sta adottando un approccio misurato e basato su obiettivi importanti per realizzare la sua visione. Il primo passo importante prevede una partnership con azienda di imaging e dati satellitari Planet.
Insieme, pianificano di lanciare due prototipi di satelliti entro l’inizio del 2027. Questa cruciale missione di apprendimento metterà alla prova il modo in cui l’hardware TPU e i modelli di apprendimento automatico funzionano nel difficile ambiente dello spazio e servirà a convalidare l’uso di collegamenti ottici inter-satellite per attività di calcolo distribuite.
Google non è il solo a vedere il potenziale del calcolo in orbita. Anche altri importanti attori tecnologici stanno esplorando questa nuova frontiera.
Microsoft ha sviluppato la sua piattaforma Azure Space, che include concetti per nodi di calcolo orbitali, mentre Project Kuiper di Amazon sta anche esplorando le capacità di intelligenza artificiale di bordo per la sua costellazione Internet satellitare.
Il vantaggio strategico sta nella creazione di un tessuto di calcolo globale, a bassa latenza, indipendente dall’infrastruttura terrestre, che offre resilienza e prestazioni senza precedenti per i futuri servizi di intelligenza artificiale.
La tendenza suggerisce un futuro in cui l’elaborazione dei dati e l’inferenza dell’intelligenza artificiale avvengono più vicino alla fonte, indipendentemente dal fatto che tale fonte sia sulla Terra o in orbita.
In definitiva, Project Suncatcher è una scommessa a lungo termine su dove si sta dirigendo il futuro dell’intelligenza artificiale su larga scala. Guardando alle stelle, Google si sta posizionando per un potenziale cambio di paradigma nel modo in cui l’umanità gestisce i suoi compiti computazionali più impegnativi.
Un portavoce di Google Research ha riassunto brevemente la visione:”In futuro, lo spazio potrebbe essere il posto migliore per scalare il calcolo dell’intelligenza artificiale.”Il successo non solo rimodellerebbe l’economia dell’IA, ma potrebbe anche stabilire una nuova frontiera per l’infrastruttura digitale stessa.