Google hat am Dienstag ein neues Forschungsprojekt namens „Project Suncatcher“ vorgestellt. Das ehrgeizige Ziel ist der Bau riesiger KI-Rechenzentren im Weltraum.
Dieses Projekt zielt darauf ab, den immensen Energiebedarf der künstlichen Intelligenz durch den Einsatz riesiger Satellitennetzwerke zu decken.
Jeder Satellit wird mit Googles maßgeschneiderten Tensor Processing Unit (TPU)-Chips ausgestattet sein und mit nahezu konstanter Solarenergie betrieben werden. Das Unternehmen geht davon aus, dass dieser Ansatz kosteneffektiv wird, da die Preise für Raketenstarts sinken. Um das Konzept zu testen, arbeitet Google mit dem Satellitenunternehmen Planet zusammen, um bis Anfang 2027 zwei Prototypen in die Umlaufbahn zu bringen.
Um die nächste Generation der KI voranzutreiben, blickt Google über das terrestrische Stromnetz hinaus und in Richtung der Sonne.
In der offiziellen Ankündigung des Unternehmens wird das Projekt Suncatcher als Reaktion auf den enormen und immer noch wachsenden Energiebedarf des modernen maschinellen Lernens dargestellt. Da KI-Modelle immer komplexer werden, nimmt ihr Rechen-und Energiebedarf rapide zu.
Dieses exponentielle Nachfragewachstum ist nicht nur ein finanzieller Aufwand; Es wirft erhebliche Umweltbedenken auf und belastet die terrestrischen Stromnetze, was Technologiegiganten dazu zwingt, radikal neue Lösungen zu suchen.
Die von Google vorgeschlagene Lösung besteht darin, die Infrastruktur dorthin zu verlegen, wo die Energie am reichlichsten und beständigsten ist.
Die letzte Grenze für Rechenzentren: Suncatchers technischer Entwurf
Die Lösung der immensen technischen Rätsel ist von zentraler Bedeutung für den Erfolg von Suncatcher. Der technische Entwurf des Projekts, detailliert in einem Forschungsbericht, sieht Konstellationen von Satelliten vor, die in einer sonnensynchronen erdnahen Umlaufbahn von Sonnenaufgang bis Sonnenuntergang betrieben werden.
Diese spezielle Umlaufbahn ermöglicht es, Solarpaneele nahezu konstantem Sonnenlicht auszusetzen, wodurch sie bis zu achtmal produktiver sind als ihre terrestrischen Gegenstücke und die Reduzierung des Bedarfs an schweren Bordbatterien.
Jeder Satellit im Netzwerk wäre ein Knoten in einem schwimmenden Rechenzentrum, ausgestattet mit den benutzerdefinierten Tensor Processing Unit (TPU)-Chips von Google. Damit diese verteilten Knoten als zusammenhängende Supercomputer funktionieren, benötigen sie Verbindungen mit extrem hoher Bandbreite und geringer Latenz.
Google plant, optische Verbindungen im Freiraum zu nutzen, um Daten zwischen Satelliten zu übertragen. Im Gegensatz zu herkömmlichen Hochfrequenzsignalen (RF), die über eine begrenzte Bandbreite verfügen, können laserbasierte optische Verbindungen Terabit an Daten pro Sekunde übertragen, eine Voraussetzung für die Verbindung Tausender KI-Beschleuniger zu einem einzigen, leistungsstarken System.
Um die erforderliche Signalstärke für diese Verbindungen zu erreichen, müssen die Satelliten in einer beispiellos engen Formation fliegen, möglicherweise nur Hunderte von Metern voneinander entfernt.
Der Betrieb empfindlicher Elektronik im Weltraum stellt eine weitere große Hürde dar: Strahlung. Google hat bereits bodengestützte Strahlungstests an seinen Trillium (v6e)-TPUs durchgeführt.
Es ist erwähnenswert, dass es sich hierbei um eine ältere Generation handelt als die neuesten Ironwood-TPUs des Unternehmens, die für KI-Inferenz optimiert sind.
Die Ergebnisse waren vielversprechend. In dem Forschungspapier heißt es: „Bis zur maximal getesteten Dosis von 15 krad(Si) auf einem einzelnen Chip waren keine schwerwiegenden Ausfälle auf TID zurückzuführen, was darauf hindeutet, dass Trillium-TPUs für Weltraumanwendungen überraschend strahlungsbeständig sind.“
Die Chips hielten fast dem Dreifachen der erwarteten Strahlungsdosis einer fünfjährigen Mission stand, bevor bei wichtigen Speicherkomponenten Unregelmäßigkeiten auftraten.
Damit die Ökonomie funktioniert: Die Startkosten von 200 $/kg Gamble
Eine futuristische Vision von Rechenzentren, die die Erde umkreisen, ist nur realisierbar, wenn die wirtschaftlichen Aspekte sinnvoll sind. Das gesamte Finanzmodell für Project Suncatcher hängt von einer drastischen und nachhaltigen Reduzierung der Kosten für den Start von Nutzlasten in den Weltraum ab.
Hohe Startkosten waren in der Vergangenheit das Haupthindernis für groß angelegte kommerzielle Unternehmungen im Orbit.
Die Analyse von Google geht davon aus, dass die Startpreise unter 200 US-Dollar pro Kilogramm fallen müssen, damit ein weltraumgestütztes Rechenzentrum ungefähr mit den Energiekosten eines terrestrischen Äquivalents vergleichbar wird.
Diese Zahl ist nicht gerechtfertigt Dies betrifft nicht nur die Stromkosten, sondern umfasst auch die enormen Gemeinkosten für Kühlsysteme, Landerwerb und Infrastrukturwartung, die terrestrische Rechenzentren ausmachen.
Das Unternehmen geht davon aus, dass dieser Preis bis Mitte der 2030er Jahre erreichbar sein wird. Diese Prognose steht vor dem Hintergrund der aktuellen Kosten.
Das Raumschiff der nächsten Generation von SpaceX strebt ein aggressives Ziel von nur 100 US-Dollar pro Kilogramm an, was mit den Prognosen von Citi Research übereinstimmt und der Prognose von Google Glaubwürdigkeit verleiht.
Dieser wirtschaftliche Optimismus ist ein Eckpfeiler des Projekts. Wie es in der offiziellen Ankündigung heißt, zeigt die „erste Analyse, dass die Kernkonzepte der weltraumgestützten ML-Berechnung nicht durch fundamentale physikalische oder unüberwindbare wirtschaftliche Hindernisse ausgeschlossen sind.“
Wenn die Startkosten ihren Abwärtstrend fortsetzen, wird sich das Haupthindernis von der wirtschaftlichen Machbarkeit zur rein technischen Ausführung verlagern.
Von der Blaupause zur Umlaufbahn: Ein 2027-Prototyp und der Wettbewerbshorizont
Während Googles Moonshot ist ehrgeizig und betritt ein immer dichter werdendes Feld von Orbital-Computing-Pionieren.
Das Unternehmen verfolgt einen maßvollen, meilensteinbasierten Ansatz zur Verwirklichung seiner Vision. Der erste große Schritt beinhaltet eine Partnerschaft mit dem Satellitenbild-und Datenunternehmen Planet.
Gemeinsam planen sie, bis Anfang 2027 zwei Prototypen von Satelliten zu starten. Diese entscheidende Lernmission wird testen, wie die TPU-Hardware und die Modelle für maschinelles Lernen in der rauen Umgebung des Weltraums funktionieren, und wird dazu dienen, die Verwendung optischer Intersatellitenverbindungen für verteilte Rechenaufgaben zu validieren.
Google ist nicht der Einzige, der das Potenzial für die Datenverarbeitung im Orbit erkennt. Auch andere große Technologieunternehmen erforschen diese neuen Grenzen.
Microsoft hat seine Azure Space-Plattform entwickelt, die Konzepte für orbitale Rechenknoten umfasst, während Amazons Project Kuiper Berichten zufolge ebenfalls integrierte KI-Funktionen für seine Satelliten-Internetkonstellation erforscht.
Der strategische Vorteil liegt in der Schaffung einer globalen Rechenstruktur mit geringer Latenz, die unabhängig von der terrestrischen Infrastruktur ist und beispiellose Belastbarkeit und Leistung für zukünftige KI-Dienste bietet.
Der Trend deutet auf eine Zukunft hin, in der Datenverarbeitung und KI-Inferenz näher an der Quelle stattfinden, unabhängig davon, ob sich diese Quelle auf der Erde oder im Orbit befindet.
Letztendlich ist das Projekt Suncatcher eine langfristige Wette darauf, wohin die Zukunft der groß angelegten KI führt. Mit seinem Blick in die Sterne positioniert sich Google für einen möglichen Paradigmenwechsel bei der Art und Weise, wie die Menschheit ihre anspruchsvollsten Rechenaufgaben erledigt.
Ein Sprecher von Google Research fasste die Vision kurz und bündig zusammen: „In Zukunft könnte der Weltraum der beste Ort sein, um KI-Rechnungen zu skalieren.“ Ein Erfolg würde nicht nur die Ökonomie der KI verändern, sondern könnte auch neue Grenzen für die digitale Infrastruktur selbst setzen.