Miliarderzy technologiczni, już mocno zainwestowani w eksplorację kosmosu, obecnie kierują wzrok na niską orbitę okołoziemską jako nową granicę: centra danych. Szybki wzrost zapotrzebowania na moc obliczeniową sztucznej inteligencji zachęca firmy takie jak Google i start-upy takie jak Aetherflux do opracowania flot satelitów do obsługi tych obiektów. To nie jest tylko futurystyczny kaprys; to bezpośrednia odpowiedź na rosnące koszty i ograniczenia związane z budową ogromnych centrów danych na Ziemi, które pochłaniają kolosalne ilości ziemi, wody i energii.
Logika orbitalnych centrów danych
Podstawowa idea jest prosta: wykorzystać nieograniczoną energię słoneczną w kosmosie. W przeciwieństwie do naziemnych centrów danych, które opierają się na przeciążonych sieciach energetycznych, satelity na orbicie synchronicznej ze Słońcem teoretycznie mogłyby mieć stały dostęp do obfitego źródła energii. Będzie to główna korzyść dla obciążeń AI, które są znane z ogromnego energochłonności. Jednak droga do dominacji orbitalnej nie jest gładka.
Elon Musk ze SpaceX, Jeff Bezos z Blue Origin i Google już ponownie skupiają się na mocy obliczeniowej zlokalizowanej w kosmosie. W listopadzie 2024 r. Nvidia wystrzeliła za pośrednictwem SpaceX satelitę wyposażonego w procesor graficzny H100, a na początku tego roku Chiny rozmieściły kilkanaście satelitów superkomputerowych. Projekt Google Suncatcher, zaplanowany na 2027 rok, obejmuje klaster 81 satelitów zaprojektowanych do współpracy przy użyciu laserów do łączenia chipów TPU zamiast przewodów uziemiających.
Sceptycyzm naukowców zajmujących się kosmosem
Wielu specjalistów z branży kosmicznej pozostaje ostrożnych. Astronom Jonathan McDowell, który śledzi każdy start satelity od końca lat 80. XX wieku, zwraca uwagę na ogromne koszty związane z umieszczeniem czegokolwiek na orbicie. Sugeruje, że niektórym firmom kieruje się pokusą „kosmos jest fajny”, a nie rzeczywistym zapotrzebowaniem na infrastrukturę orbitalną.
Największym problemem są śmieci kosmiczne. Orbita synchroniczna ze Słońcem, preferowana ze względu na stałe światło słoneczne, jest również wypełniona „polem minowym przypadkowych obiektów” poruszających się z prędkością 27 358 km/h. Gromada Google składająca się z 81 satelitów będzie wymagała ciągłego manewrowania, aby uniknąć kolizji, a jest to zadanie zużywające paliwo i stwarzające nowe ryzyko. McDowell zauważa, że koordynacja ruchu całej gromady byłaby bezprecedensowa, ponieważ większość statków kosmicznych działa indywidualnie.
Problemy techniczne
Oprócz śmieci istnieją inne poważne problemy. Rozpraszanie ciepła w próżni jest poważnym problemem, a firmy takie jak Starcloud polegają na panelach na podczerwień i masywnych ekranach w celu ochrony wrażliwej elektroniki. Jeszcze większym wyzwaniem jest potencjalna interferencja światła z badaniami astronomicznymi, na co zwróciło uwagę Centrum Ekologii Kosmicznej.
Ponadto utrzymanie sprzętu znajdującego się w kosmosie jest znacznie trudniejsze niż na Ziemi. Rutynowe naprawy są prawie niemożliwe, a perspektywa automatycznego tankowania lub reorientacji pozostaje w dużej mierze teoretyczna.
Konsekwencje długoterminowe
Pomimo tych przeszkód trend w kierunku centrów danych zlokalizowanych w przestrzeni kosmicznej prawdopodobnie się utrzyma. Google i Aetherflux planują premiery w 2027 r., a Starcloud planuje zwiększyć produkcję do 2028 r. Pytanie nie brzmi, czy to się stanie, ale jak.
Zdaniem naukowca zajmującego się kosmosem Mojtaba Akhavan-Taftiego kluczowym wyzwaniem dla branży jest zrównoważony rozwój: „Jak utrzymać orbitę Ziemi otwartą dla biznesu dla przyszłych pokoleń?” Odpowiedź może leżeć w silniejszych przepisach, innowacyjnych systemach unikania kolizji i zasadniczej zmianie w kierunku odpowiedzialnego zarządzania przestrzenią kosmiczną.
