Google heeft dinsdag een nieuw onderzoek’moonshot’onthuld, genaamd Project Suncatcher. Het ambitieuze doel is om enorme AI-datacentra in de ruimte te bouwen.

Dit project heeft tot doel de immense energiebehoeften van kunstmatige intelligentie op te lossen door enorme netwerken van satellieten in te zetten.

Elke satelliet zal de op maat gemaakte Tensor Processing Unit (TPU)-chips van Google vervoeren en draaien op vrijwel constante zonne-energie. Het bedrijf gelooft dat deze aanpak kosteneffectief zal worden naarmate de prijzen voor raketlanceringen dalen. Om het concept te testen werkt Google samen met satellietbedrijf Planet om begin 2027 twee prototypes in een baan om de aarde te brengen.

Om de volgende generatie AI aan te drijven, kijkt Google verder dan het aardse elektriciteitsnet en naar de zon.

De officiële aankondiging van het bedrijf beschrijft Project Suncatcher als reactie op de enorme en nog steeds groeiende energiebehoefte van moderne machine learning. Naarmate AI-modellen complexer worden, worden hun computer-en energievoetafdruk snel groter.

Deze exponentiële groei van de vraag is niet alleen een financiële kostenpost; het werpt aanzienlijke milieuproblemen op en legt een druk op de elektriciteitsnetwerken op aarde, waardoor technologiegiganten worden gedwongen om radicaal nieuwe oplossingen te zoeken.

De door Google voorgestelde oplossing is om de infrastructuur te verplaatsen naar daar waar de energie het meest overvloedig en consistent is.

De laatste grens voor datacenters: de technische blauwdruk van Suncatcher

Het oplossen van de immense technische puzzels staat centraal in het succes van Suncatcher. De technische blauwdruk van het project, gedetailleerd in een onderzoekspaper, voorziet constellaties van satellieten die opereren in een zonsynchrone baan rond de aarde bij zonsopgang en zonsondergang.

Dankzij dit specifieke baanpad kunnen zonnepanelen worden blootgesteld aan vrijwel constant zonlicht, waardoor ze tot acht keer productiever zijn dan hun terrestrische tegenhangers en de behoefte aan zwaar zonlicht wordt verminderd. ingebouwde batterijen.

Elke satelliet in het netwerk zou een knooppunt zijn in een zwevend datacenter, uitgerust met de aangepaste Tensor Processing Unit (TPU)-chips van Google. Om deze gedistribueerde knooppunten als een samenhangende supercomputer te laten functioneren, hebben ze verbindingen met extreem hoge bandbreedte en lage latentie nodig.

Google is van plan optische verbindingen in de vrije ruimte te gebruiken om gegevens tussen satellieten over te dragen. In tegenstelling tot traditionele radiofrequentiesignalen (RF), die een beperkte bandbreedte hebben, kunnen op laser gebaseerde optische verbindingen terabits aan gegevens per seconde verzenden, een voorwaarde voor het verbinden van duizenden AI-versnellers in één enkel krachtig systeem.

Om de noodzakelijke signaalsterkte voor deze verbindingen te bereiken, moeten de satellieten in een ongekend dichte formatie vliegen, mogelijk slechts honderden meters uit elkaar.

Het gebruik van gevoelige elektronica in de ruimte brengt nog een grote hindernis met zich mee: straling. Google heeft al stralingstests op de grond uitgevoerd op zijn Trillium (v6e) TPU’s.

Het is vermeldenswaard dat deze een oudere generatie zijn dan de nieuwste Ironwood TPU’s van het bedrijf, die zijn geoptimaliseerd voor AI-inferentie.

De resultaten waren veelbelovend. Volgens het onderzoeksartikel waren”geen harde fouten toe te schrijven aan TID tot aan de maximaal geteste dosis van 15 krad(Si) op een enkele chip, wat aangeeft dat Trillium TPU’s verrassend stralingshard zijn voor ruimtevaarttoepassingen.”

De chips weerstonden bijna drie keer de verwachte stralingsdosis van een vijf jaar durende missie voordat belangrijke geheugencomponenten onregelmatigheden begonnen te vertonen.

De economie laten werken: de lanceringskosten van $ 200/kg Gokken

Een futuristische visie op datacenters die in een baan om de aarde draaien, is alleen levensvatbaar als de economie zinvol is. Het hele financiële model voor Project Suncatcher hangt af van een dramatische en duurzame verlaging van de kosten voor het lanceren van ladingen in de ruimte.

Hoge lanceringskosten zijn historisch gezien de belangrijkste barrière geweest voor grootschalige commerciële ondernemingen in een baan om de aarde.

De analyse van Google voorspelt dat als een in de ruimte gebaseerd datacenter qua kosten ongeveer vergelijkbaar wil worden met de energie-uitgaven van een terrestrische equivalent, de lanceringsprijzen onder de $ 200 per kilogram moeten dalen.

Dit cijfer gaat niet alleen over de kosten van elektriciteit, maar omvat ook de enorme overheadkosten voor koelsystemen, grondverwerving en infrastructuuronderhoud die kenmerkend zijn voor terrestrische datacenters.

Het bedrijf gelooft dat deze prijs halverwege 2030 haalbaar is. Deze projectie speelt zich af tegen de achtergrond van de huidige kosten.

Het nieuwe generatie Starship van SpaceX streeft naar een agressief doel van slechts $ 100 per kilogram, wat in lijn is met de projecties van Citi Research, wat de geloofwaardigheid van de voorspelling van Google vergroot.

Dit economische optimisme is een hoeksteen van het project. Zoals vermeld in de officiële aankondiging laat de “eerste analyse zien dat de kernconcepten van ruimtegebaseerde ML-computing niet worden uitgesloten door fundamentele natuurkunde of onoverkomelijke economische barrières.”

Als de lanceringskosten hun neerwaartse trend voortzetten, zal het voornaamste obstakel verschuiven van economische haalbaarheid naar pure technische uitvoering.

Van blauwdruk naar baan: een prototype uit 2027 en de competitieve horizon

Terwijl Google dat doet moonshot is ambitieus, het betreedt een steeds drukker wordend veld van pioniers op het gebied van orbitale computertechnologie.

Het bedrijf hanteert een weloverwogen, op mijlpalen gebaseerde aanpak om zijn visie te verwezenlijken. De eerste grote stap betreft een partnerschap met satellietbeeldvormings-en databedrijf Planet.

Samen zijn ze van plan om begin 2027 twee prototypes van satellieten te lanceren. Deze cruciale leermissie zal testen hoe de TPU-hardware en machine learning-modellen werken in de barre omgeving van de ruimte en zal dienen om het gebruik van optische inter-satellietverbindingen voor gedistribueerde computertaken te valideren.

Google is niet de enige die het potentieel voor computers in een baan om de aarde ziet. Andere grote technologiespelers verkennen ook deze nieuwe grens.

Microsoft heeft zijn Azure Space-platform ontwikkeld, dat concepten voor orbitale rekenknooppunten omvat, terwijl Project Kuiper van Amazon naar verluidt ook de ingebouwde AI-mogelijkheden voor zijn satelliet-internetconstellatie onderzoekt.

Het strategische voordeel ligt in het creëren van een mondiaal computernetwerk met lage latentie dat onafhankelijk is van de terrestrische infrastructuur en ongekende veerkracht en prestaties biedt voor toekomstige AI-diensten.

De trend duidt op een toekomst waarin gegevensverwerking en AI-inferentie vinden dichter bij de bron plaats, of die bron zich nu op aarde of in een baan om de aarde bevindt.

Uiteindelijk is Project Suncatcher een langetermijnweddenschap over waar de toekomst van grootschalige AI naartoe gaat. Door naar de sterren te kijken positioneert Google zichzelf voor een mogelijke paradigmaverschuiving in de manier waarop de mensheid haar meest veeleisende computertaken uitvoert.

Een woordvoerder van Google Research vatte de visie kort en bondig samen:”In de toekomst kan de ruimte de beste plek zijn om AI-computing op te schalen.”Succes zou niet alleen de economie van AI opnieuw vormgeven, maar zou ook een nieuwe grens voor de digitale infrastructuur zelf kunnen vestigen.

Categories: IT Info