Google a dévoilé mardi un nouveau projet de recherche intitulé Project Suncatcher. L’objectif ambitieux est de construire d’immenses centres de données d’IA dans l’espace.
Ce projet vise à répondre aux immenses besoins énergétiques de l’intelligence artificielle en déployant de vastes réseaux de satellites.
Chaque satellite transportera les puces Tensor Processing Unit (TPU) personnalisées de Google et fonctionnera avec une énergie solaire quasi constante. La société estime que cette approche deviendra rentable à mesure que les prix de lancement des fusées baisseront. Pour tester le concept, Google s’associe à la société de satellites Planet pour lancer deux prototypes en orbite d’ici début 2027.
Pour alimenter la prochaine génération d’IA, Google regarde au-delà du réseau électrique terrestre et vers le soleil.
L’annonce officielle de l’entreprise présente le projet Suncatcher comme une réponse aux besoins énergétiques massifs et toujours croissants de l’apprentissage automatique moderne. À mesure que les modèles d’IA deviennent plus complexes, leurs empreintes informatiques et énergétiques augmentent rapidement.
Cette croissance exponentielle de la demande n’est pas seulement un coût financier ; cela soulève d’importantes préoccupations environnementales et met à rude épreuve les réseaux électriques terrestres, poussant les géants de la technologie à rechercher de nouvelles solutions radicales.
La solution proposée par Google consiste à déplacer l’infrastructure là où l’énergie est la plus abondante et la plus constante.
La dernière frontière pour les centres de données : le plan technique de Suncatcher
La résolution des immenses énigmes techniques est au cœur du succès de Suncatcher. Le plan technique du projet, détaillé dans un document de recherche, envisage des constellations de satellites fonctionnant sur une orbite terrestre basse héliosynchrone à l’aube et au crépuscule.
Cette trajectoire orbitale spécifique permet aux panneaux solaires d’être exposés à une lumière solaire quasi constante, ce qui les rend jusqu’à huit fois plus productifs que leurs homologues terrestres et réduit le besoin de lourdes batteries embarquées.
Chaque satellite du réseau serait un nœud dans un centre de données flottant, équipé des puces Tensor Processing Unit (TPU) personnalisées de Google. Pour que ces nœuds distribués fonctionnent comme un supercalculateur cohérent, ils nécessitent des connexions à bande passante extrêmement élevée et à faible latence.
Google prévoit d’utiliser des liaisons optiques en espace libre pour transférer des données entre satellites. Contrairement aux signaux radiofréquences (RF) traditionnels, qui ont une bande passante limitée, les liaisons optiques laser peuvent transmettre des térabits de données par seconde, une condition préalable pour connecter des milliers d’accélérateurs d’IA en un seul et puissant système.
Pour obtenir la puissance de signal nécessaire à ces liaisons, les satellites doivent voler dans une formation d’une proximité sans précédent, potentiellement à seulement quelques centaines de mètres les uns des autres.
Le fonctionnement d’appareils électroniques sensibles dans l’espace présente un autre obstacle majeur : le rayonnement. Google a déjà effectué des tests de rayonnement au sol sur ses TPU Trillium (v6e).
Il convient de noter qu’il s’agit d’une génération plus ancienne que les derniers TPU Ironwood de la société, qui sont optimisés pour l’inférence de l’IA.
Les résultats étaient prometteurs. Selon le document de recherche,”Aucune défaillance matérielle n’a été imputable au TID jusqu’à la dose maximale testée de 15 krad(Si) sur une seule puce, ce qui indique que les TPU Trillium sont étonnamment résistants aux radiations pour les applications spatiales.”
Les puces ont résisté à près de trois fois la dose de radiation attendue pour une mission de cinq ans avant que les composants clés de la mémoire ne commencent à montrer des irrégularités.
Faire fonctionner l’économie : le coût de lancement de 200 $/kg. Gamble
Une vision futuriste de centres de données en orbite autour de la Terre n’est viable que si les aspects économiques sont logiques. L’ensemble du modèle financier du projet Suncatcher repose sur une réduction spectaculaire et durable du coût de lancement des charges utiles dans l’espace.
Les coûts de lancement élevés ont toujours été le principal obstacle aux projets commerciaux à grande échelle en orbite.
L’analyse de Google prévoit que pour qu’un centre de données spatial devienne à peu près comparable en termes de coût aux dépenses énergétiques d’un équivalent terrestre, les prix de lancement doivent tomber en dessous de 200 $ par kilogramme.
Ce chiffre ne concerne pas seulement le coût de l’électricité, mais englobe également les frais généraux considérables liés aux systèmes de refroidissement, à l’acquisition de terrains et à la maintenance des infrastructures qui définissent les centres de données terrestres.
La société estime que ce niveau de prix sera réalisable d’ici le milieu des années 2030. Cette projection s’inscrit dans le contexte des coûts actuels.
Le Starship de nouvelle génération de SpaceX vise un objectif agressif de seulement 100 $ par kilogramme, ce qui est conforme aux projections de Citi Research, ce qui confère de la crédibilité aux prévisions de Google.
Cet optimisme économique est la pierre angulaire du projet. Comme indiqué dans l’annonce officielle, « l’analyse initiale montre que les concepts de base du calcul ML basé dans l’espace ne sont pas empêchés par la physique fondamentale ou par des barrières économiques insurmontables. » ambitieuse, elle entre dans un domaine de plus en plus fréquenté de pionniers de l’informatique orbitale.
La société adopte une approche mesurée et basée sur des étapes pour réaliser sa vision. La première étape majeure implique un partenariat avec la la société d’imagerie et de données satellite Planet.
Ensemble, ils prévoient de lancer deux prototypes de satellites d’ici début 2027. Cette mission d’apprentissage cruciale testera le fonctionnement du matériel TPU et des modèles d’apprentissage automatique dans l’environnement hostile de l’espace et servira à valider l’utilisation de liaisons optiques intersatellites pour des tâches informatiques distribuées.
Google n’est pas le seul à voir le potentiel de l’informatique en orbite. D’autres acteurs technologiques majeurs explorent également cette nouvelle frontière.
Microsoft a développé sa plate-forme Azure Space, qui inclut des concepts de nœuds de calcul orbitaux, tandis que le projet Kuiper d’Amazon explorerait également les capacités d’IA embarquées pour sa constellation Internet par satellite.
L’avantage stratégique réside dans la création d’une structure informatique mondiale à faible latence, indépendante de l’infrastructure terrestre, offrant une résilience et des performances sans précédent pour les futurs services d’IA.
La tendance suggère un avenir où le traitement des données et l’IA. l’inférence se produit plus près de la source, que cette source soit sur Terre ou en orbite.
En fin de compte, le projet Suncatcher est un pari à long terme sur la direction vers laquelle se dirige l’avenir de l’IA à grande échelle. En regardant vers les étoiles, Google se positionne pour un changement de paradigme potentiel dans la façon dont l’humanité exécute ses tâches informatiques les plus exigeantes.
Un porte-parole de Google Research a résumé succinctement la vision : « À l’avenir, l’espace pourrait être le meilleur endroit pour faire évoluer le calcul de l’IA. » Le succès remodèlerait non seulement l’économie de l’IA, mais pourrait également établir une nouvelle frontière pour l’infrastructure numérique elle-même.