Tech-Milliardäre, die bereits stark in die Erforschung des Weltraums investiert haben, blicken nun in die erdnahe Umlaufbahn, um eine neue Dimension zu erschließen: Rechenzentren. Angetrieben durch die unstillbare Nachfrage nach Rechenleistung durch KI schlagen Unternehmen wie Google und Start-ups wie Aetherflux Satellitenflotten als Host für diese Einrichtungen vor. Das ist nicht nur eine futuristische Laune; Es ist eine direkte Reaktion auf die steigenden Kosten und Einschränkungen beim Bau riesiger Rechenzentren auf der Erde, die große Mengen an Land, Wasser und Energie verbrauchen.
Die Logik hinter Orbital-Rechenzentren
Die Kernidee ist einfach: unbegrenzte Solarenergie im Weltraum nutzen. Im Gegensatz zu terrestrischen Rechenzentren, die auf überlastete Stromnetze angewiesen sind, können Satelliten in einer sonnensynchronen Umlaufbahn theoretisch auf kontinuierliche, reichlich vorhandene Energie zugreifen. Dies wäre ein großer Vorteil für KI-Workloads, die bekanntermaßen leistungshungrig sind. Doch der Weg zur Orbitaldominanz ist alles andere als reibungslos.
SpaceX von Elon Musk, Blue Origin von Jeff Bezos und Google setzen bereits auf weltraumgestützte Berechnungen. Im November 2024 startete Nvidia über SpaceX einen mit einer H100-GPU ausgestatteten Satelliten, und China stationierte Anfang des Jahres ein Dutzend Supercomputersatelliten. Googles Project Suncatcher, das für 2027 geplant ist, sieht einen 81-Satelliten-Cluster vor, der so konzipiert ist, dass er im Einklang arbeitet und Laser verwendet, um TPU-Chips anstelle erdgebundener Verkabelung zu verbinden.
Die Skepsis von Weltraumwissenschaftlern
Viele Raumfahrtexperten bleiben vorsichtig. Der Astronom Jonathan McDowell, der seit den späten 1980er Jahren jeden Satellitenstart verfolgt, weist auf die enormen Kosten hin, die damit verbunden sind, irgendetwas in die Umlaufbahn zu bringen. Er weist darauf hin, dass einige Unternehmungen eher von dem Reiz „Weltraum ist cool“ als von einem echten Bedarf an Orbitalinfrastruktur angetrieben werden.
Die größte Herausforderung sind Trümmer in der Umlaufbahn. Die sonnensynchrone Umlaufbahn, die wegen ihres konstanten Sonnenlichts beliebt ist, ist außerdem mit „einem Minenfeld zufälliger Objekte“ übersät, die sich mit 27.000 km/h bewegen. Der aus 81 Satelliten bestehende Cluster von Google würde ständige Manöver erfordern, um Kollisionen zu vermeiden, eine Aufgabe, die Treibstoff verbraucht und neue Risiken mit sich bringt. McDowell weist darauf hin, dass die Koordinierung der Bewegung eines gesamten Sternhaufens beispiellos wäre, da die meisten Raumschiffe einzeln agieren.
Die technischen Hürden
Abgesehen von den Trümmern gibt es noch andere wichtige Probleme. Die Wärmeableitung im Vakuum ist ein großes Problem, da Unternehmen wie Starcloud zum Schutz empfindlicher Elektronik auf Infrarotpaneele und starke Abschirmungen setzen. Eine noch größere Herausforderung stellt das Potenzial dar, dass Lichtverschmutzung die astronomische Forschung beeinträchtigen könnte, ein Punkt, der vom Center for Space Environmentalism angesprochen wurde.
Darüber hinaus ist die Wartung weltraumgestützter Hardware weitaus komplexer als auf der Erde. Routinereparaturen sind nahezu unmöglich, und die Aussicht auf eine automatische Betankung oder Neuorientierung bleibt weitgehend theoretisch.
Die langfristigen Auswirkungen
Trotz dieser Hindernisse dürfte sich der Trend zu weltraumgestützten Rechenzentren fortsetzen. Google und Aetherflux planen den Start im Jahr 2027, während Starcloud darauf abzielt, die Produktion bis 2028 zu steigern. Die Frage ist nicht, ob dies passieren wird, sondern wie.
Die größte Herausforderung für die Branche ist, wie der Weltraumwissenschaftler Mojtaba Akhavan-Tafti es ausdrückt, die Nachhaltigkeit: „Wie halten wir die erdnahe Umlaufbahn für künftige Generationen für Unternehmen offen?“ Die Antwort könnte in strengeren Vorschriften, innovativen Kollisionsvermeidungssystemen und einem grundlegenden Wandel hin zu verantwortungsvollem Weltraummanagement liegen.


















