
Das nächste Computerzeitalter: Ein umfassendes Dossier über orbitale, Unterwasser- und terrestrische Rechenzentren
Teil 1: Der Katalysator – Nvidias Starcloud und der Beginn der orbitalen KI
Die Ära der künstlichen Intelligenz (KI) hat einen unstillbaren Bedarf an Rechenleistung entfesselt, der die Grenzen der terrestrischen Infrastruktur zunehmend herausfordert. Inmitten dieser wachsenden Krise positioniert sich das Projekt NVIDIA Starcloud nicht nur als technologisches Experiment, sondern als strategische Antwort auf den konvergierenden Druck des KI-Booms und der physischen Beschränkungen unseres Planeten. Dieses Vorhaben markiert einen potenziellen Wendepunkt und wirft die grundlegende Frage auf, ob die Zukunft der Hochleistungsrechner in der Umlaufbahn liegt.
1.1 Nvidias kosmische Ambition: Die Starcloud-1-Mission
Im Zentrum dieser neuen Initiative steht eine strategische Partnerschaft zwischen dem Technologieriesen NVIDIA und dem Startup Starcloud (früher bekannt als Lumen Orbit), einem aufstrebenden Unternehmen aus dem NVIDIA Inception-Programm.1 Gemeinsam streben sie danach, die Grenzen dessen, was im Weltraum rechentechnisch möglich ist, neu zu definieren.
Das erste greifbare Ergebnis dieser Zusammenarbeit ist der Satellit Starcloud-1. Mit einem Gewicht von etwa 60 kg (130 Pfund) und der Größe eines kleinen Kühlschranks soll dieser Satellit in naher Zukunft in eine Erdumlaufbahn gebracht werden.1 Das Herzstück dieser Nutzlast ist eine einzelne, hochmoderne NVIDIA H100 “Hopper” GPU. Dieser Einsatz stellt ein historisches Ereignis dar: Es ist das erste Mal, dass ein KI-Beschleuniger der Rechenzentrumsklasse im Weltraum eingesetzt wird, eine Technologie, die bisher ausschließlich terrestrischen Anlagen vorbehalten war.1
Das erklärte Leistungsziel ist ebenso ehrgeizig wie die Mission selbst. Starcloud-1 soll mehr als die 100-fache Rechenkapazität aller bisherigen weltraumgestützten Beschleuniger bieten.4 Dies würde einen Paradigmenwechsel in der Datenverarbeitung im Orbit bedeuten und den Weg für Anwendungen ebnen, die bisher als unmöglich galten.
Um den kommerziellen Charakter des Projekts zu unterstreichen, hat Starcloud eine strategische Partnerschaft mit Crusoe Cloud geschlossen. Crusoe plant, der erste öffentliche Cloud-Anbieter zu werden, der GPU-Kapazitäten aus dem Weltraum anbietet, mit einem geplanten Dienststart Anfang 2027.2 Diese Kooperation verdeutlicht, dass es sich hierbei nicht um ein rein wissenschaftliches Unterfangen handelt, sondern um den Aufbau eines kommerziell tragfähigen Geschäftsmodells für Rechenzentren im Weltraum.
1.2 Technische Architektur und In-Situ-Verarbeitung
Der primäre Anwendungsfall für Starcloud-1 ist die Verarbeitung riesiger Mengen an Erdbeobachtungsdaten direkt im Orbit. Dies umfasst ein breites Spektrum an Technologien und Anwendungen, darunter hyperspektrale Bildgebung, Synthetic Aperture Radar (SAR), die Identifizierung von Anbaupflanzen, die Früherkennung von Waldbränden und die Verbesserung von Wettervorhersagen.1
Der strategische Vorteil liegt in der In-Situ-Verarbeitung. Traditionell müssen massive Rohdatensätze von Satelliten zur Erde heruntergeladen werden, ein Prozess, der Stunden dauern kann und einen erheblichen Engpass darstellt. Durch die Verarbeitung der Daten direkt im Weltraum, wo sie gesammelt werden, kann die Latenzzeit von Stunden auf Minuten reduziert werden. Dies ermöglicht nahezu sofortige Einblicke, was für zeitkritische Anwendungen wie die Reaktion auf Naturkatastrophen oder Notsignale von entscheidender Bedeutung ist.1
Die Umsetzung dieses Konzepts bringt jedoch einzigartige technische Herausforderungen mit sich, insbesondere im Bereich der Kühlung. Da im Vakuum des Weltraums keine Luft oder Wasser zur konvektiven Kühlung zur Verfügung steht, muss das System die Wärme durch Strahlung abgeben. Das Design von Starcloud-1 nutzt die Wärmeabstrahlung in den Weltraum, wobei das Vakuum mit einer Temperatur von etwa -270 °C als “unendlicher Kühlkörper” fungiert.1
Eine entscheidende, aber noch offene Frage ist die der Strahlenhärtung. Es ist derzeit nicht bekannt, ob die H100-GPU speziell für die raue Strahlungsumgebung des Weltraums gehärtet wurde oder ob sie sich auf eine fortschrittliche Abschirmung verlässt, um sie vor kosmischer Strahlung und Sonneneruptionen zu schützen. Dies ist ein kritischer Faktor für die langfristige Zuverlässigkeit und Lebensdauer der Hardware im Orbit.3
1.3 Die langfristige Vision: Eine Zukunft im Gigawatt-Maßstab
Die Starcloud-1-Mission ist nur der erste Schritt in einer weitaus größeren Vision. Das langfristige Ziel von Starcloud ist der Bau eines orbitalen Rechenzentrums mit einer Leistung von 5 Gigawatt – eine Größenordnung, die mit den größten Hyperscale-Anlagen auf der Erde konkurrieren würde.1
Die vorgeschlagene Architektur für eine solche Anlage ist monumental: riesige Solarpaneele mit einer Fläche von etwa 4 mal 4 Kilometern (16 Quadratkilometer) sollen kontinuierlich und unterbrechungsfrei Energie liefern, ohne auf schwere und störanfällige Batteriesysteme angewiesen zu sein.1
Das wirtschaftliche Versprechen ist ebenso beeindruckend. Starcloud prognostiziert, dass weltraumgestützte Rechenzentren 10-mal niedrigere Energiekosten und erhebliche Einsparungen bei den Kohlendioxidemissionen über ihre gesamte Lebensdauer im Vergleich zu terrestrischen Pendants bieten werden. Die primären Umweltkosten entstünden dabei nur durch den einmaligen Start der Rakete.1
Die Plattform ist zudem zukunftssicher konzipiert. Starcloud plant bereits die Integration der nächsten GPU-Generation, der NVIDIA Blackwell-Plattform, die eine bis zu 10-fache Leistungssteigerung gegenüber der aktuellen Hopper-Architektur verspricht.1
Die strategische Logik hinter Projekten wie Starcloud wird vor dem Hintergrund der eskalierenden terrestrischen Beschränkungen deutlich. Während der KI-Boom die Stromnetze und Wasserressourcen der Erde an ihre Grenzen bringt, wird die Schaffung neuer, unbeschränkter Umgebungen für Hochleistungsrechner nicht nur zu einem Experiment, sondern zu einer kalkulierten Diversifizierung des Infrastrukturrisikos.8 Unternehmen wie Nvidia, deren Geschäftsmodell vom Verkauf immer leistungsfähigerer GPUs abhängt, haben ein ureigenes Interesse daran, neue, skalierbare Einsatzorte für ihre Hardware zu finden. Somit ist die Investition in eine weltraumgestützte Plattform wie Starcloud eine Absicherung gegen ein mögliches verlangsamtes Wachstum ihres primären terrestrischen Marktes.
Der Erfolg dieser Vision hängt jedoch weniger von der bewährten Technologie von Nvidia ab als von der externen Wirtschaftlichkeit des Weltraumstarts. Die enormen Kosten für den Transport von Masse in den Orbit waren schon immer das größte Hindernis für eine weltraumgestützte Infrastruktur.3 Die 5-GW-Vision von Starcloud ist mit den derzeitigen Startkosten wirtschaftlich undurchführbar. Das gesamte Geschäftsmodell von orbitalen Rechenzentren im Gigawatt-Maßstab basiert daher auf dem Erfolg von wiederverwendbaren Schwerlastraketen der nächsten Generation wie SpaceXs Starship, die eine drastische Senkung der Startkosten versprechen.3 Starcloud geht somit eine kalkulierte Wette auf die Zukunft der Trägerraketenindustrie ein.
Für den Anfang wird das rentabelste Geschäftsmodell für orbitale Rechenzentren wahrscheinlich nicht das allgemeine Cloud-Computing sein, sondern spezialisierte, margenstarke Datenverarbeitung, bei der die Nähe zur Datenquelle – also zu anderen Satelliten – den entscheidenden Mehrwert darstellt. Die Latenz bei der Datenübertragung zur Erde bleibt eine Herausforderung.6 Erdbeobachtungssatelliten erzeugen jedoch Petabytes an Rohdaten, deren Übertragung zur Erde einen erheblichen Engpass darstellt.6 Die Verarbeitung dieser Daten im Orbit und die Übertragung nur der fertigen “Erkenntnisse” – wie z. B. die Karte der Ausbreitung eines Waldbrandes anstelle der rohen SAR-Daten – reduziert die Anforderungen an die Datenübertragung drastisch. Dies schafft eine klare, verteidigungsfähige Marktnische, in der der Wert von nahezu sofortigen Ergebnissen die hohen Kosten und Risiken der orbitalen Infrastruktur überwiegt.
Teil 2: Der terrestrische Imperativ – Warum sich Rechenzentren weiterentwickeln müssen
Um die Dringlichkeit und das Potenzial von radikalen Alternativen wie Rechenzentren im Weltraum vollständig zu verstehen, ist ein kritischer Blick auf den Status quo unerlässlich. Die terrestrische Rechenzentrumsbranche befindet sich auf einem Wachstumspfad, der zunehmend als nicht nachhaltig angesehen wird. Der unstillbare Durst nach Energie und Wasser, angetrieben durch den KI-Boom, zwingt die Branche, über die Grenzen unseres Planeten hinauszudenken.
2.1 Der unstillbare Durst nach Strom und Wasser
Die Zahlen zeichnen ein alarmierendes Bild. Allein in den USA verbrauchten Rechenzentren im Jahr 2024 über 183 Terawattstunden (TWh) Strom, was mehr als 4 % des gesamten nationalen Stromverbrauchs entspricht.9 Prognosen deuten darauf hin, dass sich dieser Verbrauch bis 2028-2030 verdoppeln oder sogar verdreifachen könnte.10 In einigen Regionen wie Virginia, einem der größten Rechenzentrums-Hubs der Welt, machen Rechenzentren bereits über 25 % des gesamten Stromverbrauchs aus.9
Parallel zum Energiehunger wächst der Wasserbedarf. Die Kühlsysteme, die für den Betrieb der Server unerlässlich sind, sind massive Verbraucher von Süßwasser. Im Jahr 2023 verbrauchten US-Rechenzentren schätzungsweise 17 Milliarden Gallonen Wasser direkt, während der indirekte Wasser-Fußabdruck durch die Stromerzeugung bei 211 Milliarden Gallonen lag.9 Ein einziges großes Rechenzentrum kann so viel Wasser verbrauchen wie eine Stadt mit 10.000 bis 50.000 Einwohnern.15 In einer Welt, die zunehmend von Wasserknappheit bedroht ist, stellt dies eine erhebliche Belastung für lokale Gemeinschaften und Ökosysteme dar.
Darüber hinaus benötigen Hyperscale-Rechenzentren riesige Landflächen, die oft mehr als 1 Million Quadratfuß (ca. 93.000 Quadratmeter) umfassen.9 Dies führt zu Landnutzungskonflikten und langwierigen, restriktiven Genehmigungsverfahren, die den schnellen Ausbau der dringend benötigten Kapazitäten verlangsamen.16
2.2 Der KI-Beschleuniger: Infrastruktur am Limit
Der Aufstieg der künstlichen Intelligenz hat diese Probleme exponentiell verschärft. Die für KI-Anwendungen optimierte Hardware stellt völlig neue Anforderungen an die Infrastruktur. Dies zeigt sich am deutlichsten bei der Leistungsdichte. Während herkömmliche Server-Racks mit 5-10 Kilowatt (kW) betrieben werden, benötigen für KI optimierte Racks heute mehr als 60 kW auf der gleichen Fläche – eine massive Steigerung der Wärme- und Leistungsdichte.14
Dieser Anstieg ist auf die Komponenten selbst zurückzuführen. KI-Chips, insbesondere GPUs, verbrauchen zwei- bis viermal mehr Energie als herkömmliche CPUs.9 Ein einzelner Server, der für KI- und Machine-Learning-Aufgaben ausgelegt ist, kann über 600 Watt verbrauchen.14
Diese enorme Leistungsaufnahme führt direkt zu einem der größten Engpässe: der Kühlung. Die Kühlung macht bereits bis zu 40 % des Energieverbrauchs eines Rechenzentrums aus.18 Bei KI-Workloads kann dieser Anteil auf 50-55 % ansteigen.14 Herkömmliche luftbasierte Kühlsysteme stoßen hier an ihre physikalischen Grenzen. Die Branche ist gezwungen, auf komplexere und teurere Flüssigkeitskühlmethoden umzusteigen, um die immense Abwärme abzuführen.18
Die Rechenzentrumsbranche steht vor einem fundamentalen Konflikt zwischen dem Mooreschen Gesetz (mehr Rechenleistung auf kleinerem Raum) und den Gesetzen der Thermodynamik (mehr Rechenleistung erzeugt mehr Wärme). Dieser Konflikt ist der primäre Treiber für radikale architektonische Innovationen. Historisch gesehen haben Effizienzsteigerungen bei Chips einen Teil des wachsenden Energiebedarfs kompensiert. Die KI-Ära hat diesen Trend jedoch umgekehrt; die Leistung wird nun über die Effizienz gestellt, was zu Chips mit massiver Leistungsaufnahme führt.14 Dies erzeugt eine extreme Wärmedichte auf Rack-Ebene.14 Die Kosten und die Komplexität der Wärmeabfuhr aus einem Gebäude an Land werden zu einem dominierenden Faktor bei den Gesamtbetriebskosten. Daher ist die Industrie gezwungen, nach Umgebungen zu suchen, in denen die Wärmeableitung grundsätzlich billiger oder einfacher ist – nämlich im tiefen Ozean oder im Vakuum des Weltraums.
2.3 Ökologischer und sozialer Gegenwind
Die ökologischen Auswirkungen dieses Wachstums sind erheblich. Im Jahr 2024 stammten über 40 % des Stroms für US-Rechenzentren aus Erdgas und weitere 15 % aus Kohle.9 Der schnelle Anstieg der Nachfrage belastet die Stromnetze und könnte die nationalen Dekarbonisierungsziele gefährden.10
Diese Entwicklung bleibt nicht unbemerkt. Die öffentliche Besorgnis über die Umweltauswirkungen von KI wächst.8 Lokale Gemeinschaften wehren sich zunehmend gegen den Bau neuer Rechenzentren, da diese die lokalen Wasser- und Stromressourcen stark beanspruchen.8 Dies schafft ein “Social License to Operate”-Risiko für die Branche – die soziale Akzeptanz, die für den Betrieb notwendig ist, schwindet.
Die steigenden ökologischen und sozialen Kosten von Rechenzentren stellen ein verstecktes, nicht eingepreistes Risiko für Investoren dar. Die derzeitigen Kostenmodelle für Rechenzentren umfassen hauptsächlich Investitions- (Bau) und Betriebskosten (Strom, Wasser, Personal).22 Die negativen externen Effekte – Netzbelastung, Wasserverknappung, Kohlenstoffemissionen – sind jedoch nicht vollständig in die Preise für Strom oder Wasser eingepreist.8 Mit zunehmendem öffentlichem und politischem Druck könnten Regierungen Kohlenstoffsteuern, Wasserverbrauchsgrenzen oder die Forderung nach einer Eigenfinanzierung von Netzaufrüstungen durch die Rechenzentren einführen. Solche Vorschriften würden diese externen Kosten internalisieren und die Wirtschaftlichkeit terrestrischer Rechenzentren verschlechtern. Dies würde wiederum die hohen Anfangsinvestitionen für Weltraum- oder Unterwasserlösungen in einer langfristigen, risikoadjustierten Analyse vernünftiger erscheinen lassen.
Die Standortwahl zukünftiger Rechenzentren wird daher weniger von der Nähe zu Glasfaserkabeln und mehr von der Nähe zu massiven, nachhaltigen Energie- und Kühlquellen bestimmt werden. Dies deutet auf eine geografische Entkopplung der Datenverarbeitung von den Datenverbrauchszentren hin. Traditionell wurden Rechenzentren in der Nähe großer Internetknotenpunkte in Städten gebaut, um die Latenz zu minimieren. Der überwältigende Bedarf an Strom und Wasser ist nun jedoch das primäre Standortkriterium.10 Radikale Lösungen wie der Weltraum (Solarenergie) und Unterwasser (Wasserkühlung) sind die logische Konsequenz dieses Trends. Sie priorisieren die Lösung des Energie- und Wärmeproblems über alles andere und akzeptieren dafür andere Kompromisse wie Latenz oder Wartungsschwierigkeiten.
Teil 3: Versprechen und Tücken von Rechenzentren im Weltraum
Die Vision von Rechenzentren, die geräuschlos durch den Orbit gleiten, angetrieben von der unendlichen Energie der Sonne, ist verlockend. Doch jenseits der Hochglanz-Renderings und ambitionierten Versprechen liegt eine komplexe Realität aus physikalischen Gesetzen, technischen Hürden und wirtschaftlichen Realitäten. Eine kritische Bewertung des Konzepts der orbitalen Rechenzentren ist unerlässlich, um sein wahres Potenzial und seine Grenzen zu verstehen.
3.1 Kernvorteile der orbitalen Infrastruktur
Die Argumente für die Verlagerung von Rechenzentren in den Weltraum sind überzeugend und adressieren direkt die Schwachstellen ihrer terrestrischen Pendants:
- Unbegrenzte, kohlenstofffreie Energie: Im Orbit sind Solarpaneele einer konstanten, ungefilterten Sonneneinstrahlung ausgesetzt, 24 Stunden am Tag, 7 Tage die Woche. Dies bietet eine nahezu unendliche Quelle erneuerbarer Energie und eliminiert die Abhängigkeit von instabilen terrestrischen Stromnetzen und die Notwendigkeit von Batteriespeichern für den Dauerbetrieb.1 Starcloud schätzt, dass die Energiekosten auf bis zu $0.002 pro Kilowattstunde (kWh) sinken könnten, ein Bruchteil der Kosten auf der Erde.24
- Überlegenes Kühlpotenzial: Das Vakuum des Weltraums ist ein perfekter Isolator, während die tiefe Kälte von -270 °C als unendlicher Kühlkörper für die Wärmeabstrahlung dient. Dies macht Wasser oder energieintensive Kühlanlagen, die auf der Erde erhebliche Betriebskosten verursachen, überflüssig.1
- Unübertroffene Skalierbarkeit und schnelle Bereitstellung: Der Weltraum bietet praktisch unbegrenzten physischen Platz, frei von Landnutzungskonflikten und langwierigen Genehmigungsverfahren auf der Erde.16 Dies ermöglicht den Bau massiver Anlagen im Gigawatt-Maßstab, die auf der Erdoberfläche unpraktikabel wären.
- Erhöhte physische Sicherheit: Orbitale Anlagen sind physisch unzugänglich und bieten ein beispielloses Maß an Schutz vor terrestrischen Bedrohungen wie Naturkatastrophen, Sabotage oder geopolitischen Konflikten.24
3.2 Gewaltige technische und wirtschaftliche Hürden
Trotz dieser Vorteile steht das Konzept vor gewaltigen Herausforderungen, die oft übersehen werden:
- Die Physik der Strahlungskühlung: Dies ist ein entscheidender Gegenpunkt zur vereinfachten Erzählung “im Weltraum ist es kalt”. Während die Umgebungstemperatur extrem niedrig ist, wirkt das Vakuum als thermischer Isolator. Das bedeutet, Wärme kann ausschließlich durch thermische Strahlung abgeführt werden, was weitaus weniger effizient ist als die auf der Erde genutzte Konvektion oder Konduktion.3 Um die von KI-Clustern erzeugten Gigawatt an Wärme abzuführen, sind daher massive, schwere und komplexe Radiatorsysteme erforderlich. Diese könnten zum limitierenden Faktor des gesamten Designs werden.3
- Prohibitive Startkosten: Dies ist die größte wirtschaftliche Hürde. Der Transport von Hardware in den Orbit ist extrem teuer. Die gesamte wirtschaftliche Tragfähigkeit von großen orbitalen Rechenzentren hängt von einer dramatischen, 10- bis 100-fachen Reduzierung der Startkosten ab, die wiederum von noch nicht erprobten Raketensystemen der nächsten Generation abhängt.3
- Die Bedrohung durch die Weltraumumgebung:
- Strahlung: Der ständige Beschuss durch kosmische Strahlen und solare Teilchen kann “Bitflips” (Single Event Upsets) und dauerhafte Schäden an empfindlicher, nicht gehärteter Elektronik wie Hochleistungs-GPUs verursachen.3 Eine robuste Abschirmung erhöht die Masse und damit die Startkosten.
- Weltraummüll und Mikrometeoriten: Das Risiko von Kollisionen mit orbitalem Schrott stellt eine ständige Bedrohung für große Strukturen wie Solarpaneele und Radiatoren dar und könnte zu katastrophalen Ausfällen führen.7
- Wartung, Reparatur und Aufrüstbarkeit: Die physische Wartung komplexer Elektronik im Orbit ist derzeit unmöglich oder unerschwinglich teuer. Ein Hardwareausfall würde einen dauerhaften Kapazitätsverlust bedeuten. Dies macht den 3- bis 5-jährigen Technologie-Aktualisierungszyklus terrestrischer Rechenzentren völlig undurchführbar.12
- Datenübertragung und Latenz: Obwohl Laserkommunikation hohe Bandbreiten bietet, führt die Lichtgeschwindigkeit bei der Datenübertragung zur Erde und zurück zu einer signifikanten Latenz. Dies macht orbitale Rechenzentren für viele Echtzeitanwendungen ungeeignet.12
Es besteht ein fundamentaler Widerspruch zwischen den beiden Hauptvorteilen des Weltraums: unbegrenzte Solarenergie und effektive Kühlung. Die Maximierung der Solarenergie erfordert die Ausrichtung großer Paneele zur Sonne, während die Maximierung der Strahlungskühlung die Ausrichtung großer Radiatoren weg von der Sonne (und der Erde) in den tiefen Weltraum erfordert. Dies schafft eine komplexe Herausforderung für die Ingenieure und die Orbitalmechanik.25 Ein einzelner Satellit muss sich so ausrichten, dass er diese beiden gegensätzlichen Anforderungen gleichzeitig erfüllt. Dies könnte zu komplexen, massiven Strukturen führen, bei denen sich auf der einen Seite Solarpaneele und auf der anderen Seite ebenso große Radiatoren befinden, was möglicherweise aktive Kühlkreisläufe zur Wärmeübertragung erfordert und die Komplexität und die Anzahl der potenziellen Fehlerquellen erhöht.
Das “wartungsfreie” Modell weltraumgestützter Rechenzentren erzwingt einen Paradigmenwechsel im Hardwaredesign, weg von reiner Leistungsmaximierung hin zu extremer Zuverlässigkeit und Langlebigkeit. Terrestrische Rechenzentren akzeptieren eine gewisse Ausfallrate, da Komponenten leicht austauschbar sind.30 Im Weltraum ist jeder Ausfall permanent.28 Daher muss jede Komponente – von GPUs über Netzteile bis hin zum Speicher – für jahrelangen, fehlerfreien und unbeaufsichtigten Betrieb in einer rauen Umgebung konzipiert und validiert werden. Dies wird Innovationen in den Bereichen Strahlenhärtung, Fehlertoleranz und vorausschauende Fehleranalyse mittels KI vorantreiben. Die für diesen extremen Anwendungsfall entwickelten Technologien und Designprinzipien könnten schließlich auch zur Schaffung zuverlässigerer und effizienterer “Lights-out”-Rechenzentren auf der Erde beitragen.
3.3 Die aufkommende Wettbewerbslandschaft
Starcloud ist nicht allein mit seiner Vision. Andere Akteure betreten den Markt und validieren damit das grundsätzliche Konzept, wenn auch mit unterschiedlichen Ansätzen:
- Axiom Space & Red Hat: Entwickeln einen Prototyp für ein orbitales Rechenzentrum (AxDCU-1), der auf der Internationalen Raumstation (ISS) getestet werden soll. Der Fokus liegt hier auf Edge-Computing für Weltraumoperationen, also der Verarbeitung von Daten direkt vor Ort für Missionen im All.7
- Lonestar Data Holdings: Verfolgt ein anderes Modell mit einem Rechenzentrum auf dem Mond (“Freedom Data Center”). Dieses wird als extrem sicherer, außerweltlicher Tresor für die Notfallwiederherstellung und Archivierung kritischer Daten positioniert.31
- Staatliche und supranationale Forschung: Die ASCEND-Studie der Europäischen Weltraumorganisation (ESA) und andere Initiativen der NASA untersuchen die langfristige Machbarkeit. Dies signalisiert ein strategisches Interesse auf staatlicher Ebene an Themen wie Datenhoheit und klimaneutralem Computing.6
Die Entwicklung orbitaler Rechenzentren könnte neue geopolitische Spannungen um die “Datenhoheit” und die potenzielle Waffenfähigkeit digitaler Infrastruktur auslösen, ähnlich der historischen Bedeutung von Seewegen. Daten sind ein strategisches nationales Gut. Gesetze wie die DSGVO in Europa spiegeln den Wunsch nach Datenhoheit wider.32 Die Speicherung kritischer Daten einer Nation oder eines Unternehmens in einer orbitalen Einrichtung, die von einem anderen Land lizenziert wurde, wirft komplexe rechtliche und Zuständigkeitsfragen auf.12 Die Fähigkeit, das orbitale Rechenzentrum eines Konkurrenten physisch oder digital zu deaktivieren, könnte zu einem mächtigen Werkzeug in zukünftigen Konflikten werden. Dies erhebt die Infrastruktur von einem kommerziellen Gut zu einem strategischen Gut und wird wahrscheinlich zu einer verstärkten militärischen und staatlichen Beteiligung und Regulierung führen.
Teil 4: Die ozeanische Alternative – Lehren aus der Tiefe
Während die Vision von Rechenzentren im Orbit noch in den Kinderschuhen steckt, wurde eine andere radikale Alternative bereits intensiv getestet: die Verlagerung der digitalen Infrastruktur unter die Meeresoberfläche. Microsofts viel beachtetes Project Natick dient als detaillierte Fallstudie, um sowohl das immense Potenzial als auch die praktischen Grenzen von Unterwasser-Rechenzentren zu verstehen.
4.1 Project Natick: Ein technischer Triumph, eine operative Sackgasse
Das Experiment war kühn und elegant in seiner Einfachheit. Ein Rechenzentrum in der Größe eines Schiffscontainers, bestückt mit 855 Servern, wurde in 117 Fuß (ca. 36 Meter) Tiefe vor der Küste der schottischen Orkney-Inseln versenkt und zwei Jahre lang betrieben.30 Die Ergebnisse waren aus technischer Sicht ein voller Erfolg und übertrafen viele Erwartungen.
Die Kernerkenntnisse – ein durchschlagender technischer Erfolg:
- Extreme Zuverlässigkeit: Die Unterwasserserver wiesen eine Ausfallrate auf, die nur ein Achtel der Rate von landgestützten Pendants betrug.30 Die Forscher führten dies auf die stabilen, kalten Temperaturen und die inerte Stickstoffatmosphäre im Inneren des Behälters zurück, die Korrosion und physische Störungen durch menschliche Eingriffe reduzierte.35
- Energieeffizienz: Das Projekt erreichte eine Power Usage Effectiveness (PUE) von 1.07. Dieser Wert misst, wie viel Energie für die eigentliche Rechenleistung im Verhältnis zum Gesamtverbrauch (inkl. Kühlung) aufgewendet wird. Ein Wert von 1.07 ist signifikant besser als der von selbst neuen terrestrischen Rechenzentren (ca. 1.125), da der Ozean eine kostenlose und passive Kühlung ermöglichte.35
- Kein Süßwasserverbrauch: Das System verbrauchte keinerlei Süßwasser, ein entscheidender Nachhaltigkeitsvorteil gegenüber landgestützten Anlagen, die auf Verdunstungskühlung angewiesen sind.30
Die Einstellung des Projekts: Warum es 2024 auf Eis gelegt wurde
Trotz des technischen Erfolgs bestätigte Microsoft im Jahr 2024, dass das Projekt inaktiv ist und keine weiteren Unterwasser-Rechenzentren gebaut werden.33 Der Hauptgrund war die operative Unpraktikabilität. Die Unfähigkeit, Hardware in einer sich schnell entwickelnden Technologielandschaft einfach zu warten, zu reparieren oder aufzurüsten, erwies sich als kritischer Mangel.39 Für ein Unternehmen, das Flexibilität und Skalierbarkeit benötigt, wurde das Projekt als kommerziell und operativ nicht durchführbar eingestuft.39
Das Vermächtnis: Microsoft verwirft die Forschungsergebnisse jedoch nicht. Stattdessen werden die Erkenntnisse genutzt, um das Design terrestrischer Rechenzentren zu verbessern, insbesondere in Bereichen wie Flüssig-Immersionskühlung, unbemannter Betrieb und Serverzuverlässigkeit.36
Das Scheitern von Project Natick war kein Versagen der Technologie, sondern ein Versagen der Anpassung an das Geschäftsmodell des Hyperscale-Cloud-Computing, das auf schnellen, konstanten Hardware-Aktualisierungszyklen beruht. Hyperscaler wie Microsoft, Google und AWS konkurrieren, indem sie die neueste und leistungsstärkste Hardware anbieten. Ihr Geschäftsmodell erfordert eine Aufrüstung der Server alle 3-5 Jahre. Ein versiegelter, 5-jähriger Einsatzzyklus wie bei Natick ist mit diesem Modell unvereinbar, da dies bedeuten würde, für einen erheblichen Teil seiner Lebensdauer “alte” Technologie anzubieten. Die Prinzipien von Natick sind jedoch perfekt für das Edge-Computing geeignet. Viele “Edge”-Workloads (z.B. IoT-Datenverarbeitung, Content Delivery Networks) benötigen keine Spitzenhardware, aber eine niedrige Latenz und hohe Zuverlässigkeit. Daher ist das Natick-Konzept eines zuverlässigen, versiegelten, wartungsfreien Moduls eine nahezu perfekte Lösung für den Edge-Computing-Markt.
4.2 Die überzeugenden Argumente für subaquatische Datenverarbeitung
Auch wenn Microsoft einen Schritt zurückgetreten ist, bleiben die grundlegenden Vorteile von Unterwasser-Rechenzentren bestehen:
- Niedrige Latenz für Küstenbevölkerungen: Fast 50 % der Weltbevölkerung lebt im Umkreis von 200 km von einer Küste.30 Die Bereitstellung von Rechenzentren vor der Küste rückt die Rechenressourcen näher an die Nutzer, was die Latenz drastisch reduziert und die Anwendungsperformance verbessert.30
- Schnelles Bereitstellungsmodell: Das Ziel war die Herstellung standardisierter Module, die innerhalb von 90 Tagen weltweit eingesetzt werden können. Dies würde die jahrelangen Bau- und Genehmigungsverfahren an Land umgehen.19
- Lösung des Immobilienproblems: Der Einsatz unter Wasser vermeidet die Nutzung teurer und umstrittener Küstengrundstücke, spart Millionen an Immobilienkosten und vermeidet den Widerstand von Anwohnern.19
Der wichtigste Umweltvorteil von Unterwasser-Rechenzentren besteht nicht in der Reduzierung des Energieverbrauchs (der für die Rechenleistung immer noch erheblich ist), sondern in der Verlagerung der “Kühllast” von einer knappen Ressource (Süßwasser) auf eine reichlich vorhandene (Meerwasser). Terrestrische Rechenzentren verbrauchen Milliarden von Gallonen an trinkbarem Süßwasser für Kühltürme.15 Dies ist eine hochwertige, umkämpfte Ressource. Unterwasser-Rechenzentren nutzen Meerwasser, eine für diesen Zweck praktisch unendliche Ressource.19 Obwohl es berechtigte Bedenken hinsichtlich der thermischen Verschmutzung lokaler Meeresökosysteme gibt 19, beinhaltet der Kompromiss die Verlagerung der Umweltauswirkungen von einer kritischen menschlichen Ressource auf eine weniger kritische, widerstandsfähigere. Diese “Ressourcenverlagerung” ist das zentrale Nachhaltigkeitsversprechen.
4.3 Kommerzialisierung und Zukunftsaussichten
Während Microsoft sich zurückzog, gehen andere voran. In Hainan, China, wurde ein kommerzielles Unterwasser-Rechenzentrum in Betrieb genommen, was auf eine andere strategische Kalkulation hindeutet.38 Das chinesische Projekt soll jährlich 122 Millionen kWh Strom und 105.000 Tonnen Süßwasser einsparen, wobei die Module für eine Lebensdauer von 25 Jahren ausgelegt sind.19 Andere Unternehmen wie Subsea Cloud entwickeln ebenfalls kommerzielle Angebote, was darauf hindeutet, dass trotz Microsofts Rückzug ein rentabler Markt existieren könnte.38
Die Divergenz zwischen den USA (Microsoft gibt Natick auf) und China (kommerzialisiert ein ähnliches Konzept) unterstreicht einen fundamentalen Unterschied in den strategischen Prioritäten. Der US-Ansatz priorisierte die operative Flexibilität für ein kommerzielles Cloud-Geschäft, während der chinesische Ansatz die Schonung von Land- und Energieressourcen sowie den Aufbau strategischer Infrastruktur in den Vordergrund zu stellen scheint. Für Microsoft wog der operative Aufwand der Unterwasserwartung die Effizienzgewinne nicht auf.39 Für China könnten die strategischen Gewinne durch die Einsparung riesiger Land- und Süßwasserflächen in dicht besiedelten Küstengebieten die operative Inflexibilität überwiegen. Dies ist ein klassischer Fall von kommerzieller Logik gegenüber strategischer staatlicher Logik.
Teil 5: Vergleichende Analyse – Der ultimative Infrastruktur-Showdown
Nach der detaillierten Untersuchung der einzelnen Paradigmen – terrestrisch, unterseeisch und orbital – ist es an der Zeit, diese in einem direkten Vergleich gegenüberzustellen. Diese Synthese ermöglicht es, die komplexen Kompromisse zwischen den verschiedenen Ansätzen zu bewerten und ein klares Bild der jeweiligen Stärken und Schwächen zu zeichnen. Ein solcher Vergleich ist für strategische Entscheidungsträger unerlässlich, um die zukünftige Ausrichtung der digitalen Infrastruktur zu planen.
5.1 Einführung in den Vergleichsrahmen
Um einen aussagekräftigen Vergleich zu gewährleisten, werden die drei Paradigmen anhand eines einheitlichen Satzes kritischer Metriken bewertet. Dieser Rahmen wurde entwickelt, um die wichtigsten technischen, wirtschaftlichen und ökologischen Faktoren zu erfassen, die für Investoren, Betreiber und politische Entscheidungsträger von Bedeutung sind. Die Metriken umfassen: Energie & Kosten, Kühlung, Skalierbarkeit, Latenz, Wartung, Sicherheit, Umweltauswirkungen und Investitionsaufwand (CapEx).
5.2 Kerntabelle: Vergleichende Matrix der Rechenzentrumsparadigmen
Die folgende Tabelle fasst die Analyse der vorangegangenen Abschnitte zusammen und bietet einen Überblick über die fundamentalen Unterschiede zwischen terrestrischen, Unterwasser- und weltraumgestützten Rechenzentren.
| Metrik | Terrestrische Rechenzentren | Unterwasser-Rechenzentren | Weltraumgestützte Rechenzentren |
| Energiequelle & Kosten | Netzabhängig (oft fossile Brennstoffe 9); hohe und variable Kosten; signifikanter CO2-Fußabdruck. | Netz oder angebundene erneuerbare Energien; Energiekosten für Rechenleistung ähnlich wie an Land, aber Kühlenergiekosten nahe Null.19 | 100 % Solar; potenziell extrem niedrige Betriebskosten für Energie (Schätzung ~$0.002/kWh 24); keine betriebsbedingten CO2-Emissionen. |
| Kühleffizienz | Ineffizient; hohe Energie-/Wasserkosten. PUE für Neubauten ~1.125 35, ältere Anlagen >1.3. Verbraucht Milliarden Gallonen Süßwasser.15 | Extrem hohe Effizienz (PUE ≈1.07 35); kein Süßwasserverbrauch.30 Nutzt passive Meerwasserkühlung. | Strahlungskühlung; komplex und erfordert große Radiatoren 26, verbraucht aber keine Ressourcen. Effizienz ist eine Funktion des Designs, nicht der Betriebskosten. |
| Skalierbarkeit & Bereitstellung | Stark eingeschränkt durch Verfügbarkeit von Land, Strom und Wasser. Langsame Bereitstellung durch Genehmigungen und Bau (Jahre).16 | Hoch skalierbar in standardisierten Modulen. Schnelle Bereitstellung (Ziel <90 Tage 30). Vermeidet Landnutzungsbeschränkungen. | Theoretisch unendlich physisch skalierbar. Stark eingeschränkt durch Kapazität und Kosten der Trägerraketen.3 |
| Latenz | Niedrige Latenz bei Bau in der Nähe von Bevölkerungszentren. Der Standard für Echtzeitanwendungen. | Sehr niedrige Latenz für die 50 % der Weltbevölkerung, die in Küstennähe leben.30 Ideal für Edge-Computing an der Küste. | Hohe Latenz für Round-Trips zur Erde aufgrund der Lichtgeschwindigkeit. Ungeeignet für interaktive Echtzeitanwendungen; ideal für die In-Situ-Verarbeitung von im Weltraum erzeugten Daten.6 |
| Wartung & Aufrüstbarkeit | Einfach und routinemäßig. Standardmäßige Hardware-Aktualisierungszyklen von 3-5 Jahren sind leicht zu handhaben. | Extrem schwierig und kostspielig. Erfordert spezielle Marineoperationen. Ein Hauptgrund für die Einstellung von Project Natick.39 Für Null-Wartung konzipiert. | Derzeit unmöglich für komplexe Reparaturen oder Hardware-Upgrades. Jeder Ausfall ist permanent. Ein vollständiger Paradigmenwechsel gegenüber dem terrestrischen Betrieb.12 |
| Physische Sicherheit | Hoch, aber anfällig für terrestrische Bedrohungen (Katastrophen, Sabotage). Erfordert umfangreiche Sicherheitsmaßnahmen vor Ort. | Sehr hoch aufgrund der Unzugänglichkeit. Anfällig für das Anzapfen/Durchtrennen von Unterseekabeln und potenzielle akustische Angriffe.19 | Extrem hohe physische Sicherheit aufgrund der Unzugänglichkeit. Anfällig für Weltraummüll und potenzielle Anti-Satelliten-Aktionen.26 |
| Umweltauswirkungen | Erheblich und wachsend: massiver Energie-, Wasser- und Landverbrauch; Hauptquelle für Kohlenstoffemissionen.8 | Geringe betriebliche Auswirkungen. Kein Süßwasserverbrauch. Hauptsorge ist die thermische Verschmutzung, die lokale Meeresökosysteme beeinträchtigt.19 | Keine betrieblichen Auswirkungen. Die einzigen Umweltkosten sind der CO2-Fußabdruck des Raketenstarts zur Bereitstellung der Anlage.1 |
| Investitionsaufwand (CapEx) | Hoch: dominiert von Landerwerb, Gebäudebau und Netz-/Wasserinfrastruktur.10 | Mittel bis Hoch: niedrigere Baukosten (Fertigungsmodell), aber hohe Bereitstellungskosten (Schiffe, Unterseekabel).41 | Extrem Hoch: dominiert von Startkosten und der Notwendigkeit teurer, strahlengehärteter Komponenten.3 |
Die Tabelle verdeutlicht, dass es keine universell überlegene Lösung gibt. Jedes Paradigma bietet ein einzigartiges Bündel von Vor- und Nachteilen. Die strategische Entscheidung für eine bestimmte Umgebung hängt stark vom spezifischen Anwendungsfall, den wirtschaftlichen Rahmenbedingungen und den langfristigen Zielen ab. Während der Weltraum das beste Energieprofil, aber die schlechteste Wartbarkeit bietet, glänzt die Unterwasserlösung mit der höchsten Kühleffizienz, leidet aber unter mangelnder Flexibilität. Der terrestrische Ansatz bleibt der Goldstandard für Latenz und Wartbarkeit, kämpft aber mit zunehmenden Nachhaltigkeits- und Skalierungsproblemen.
Teil 6: Abschließende Prognose und strategischer Ausblick
Die Analyse der verschiedenen Rechenzentrumsparadigmen zeigt ein komplexes Bild mit tiefgreifenden Implikationen für die Zukunft der globalen digitalen Infrastruktur. Die Ära, in der Rechenzentren ausschließlich als landgestützte Lagerhäuser für Daten betrachtet wurden, neigt sich dem Ende zu. Stattdessen zeichnet sich eine Zukunft ab, in der die Rechenleistung dorthin verlagert wird, wo Energie und Kühlung am effizientesten und nachhaltigsten verfügbar sind.
6.1 Werden sich Rechenzentren im Weltraum jemals durchsetzen? Eine nuancierte Prognose
Die Frage, ob Rechenzentren im Weltraum zum Mainstream werden, lässt sich nicht mit einem einfachen Ja oder Nein beantworten. Für die allgemeine Datenverarbeitung ist die Antwort kurz- bis mittelfristig wahrscheinlich nein. Die unüberwindbaren Hürden in Bezug auf Latenz, Wartung und vor allem die exorbitanten Startkosten machen sie für die meisten kommerziellen Anwendungen unrentabel.
Sie werden sich jedoch mit hoher Wahrscheinlichkeit als kritische Nischenlösung für spezifische, hochwertige Workloads etablieren:
- Primärmarkt: Die Verarbeitung von im Weltraum erzeugten Daten direkt vor Ort (In-Situ-Verarbeitung). Dies gilt insbesondere für die Erdbeobachtung, die Weltraumforschung und die Satellitenkommunikation, wo die Übertragung von Rohdaten zur Erde der größte Engpass ist.6
- Sekundärmarkt: Extrem sichere Datentresore für Regierungs- und Verteidigungskunden, die eine physische Isolation von terrestrischen Bedrohungen erfordern.31
- Langfristiger Markt: Das Training von KI-Modellen im ganz großen Stil. Dieser Anwendungsfall ist jedoch vollständig von einer paradigmenwechselnden Reduzierung der Startkosten abhängig – einem “Starship-Tipping-Point” – der den Start von Tausenden von Tonnen Hardware wirtschaftlich machbar macht.3
6.2 Die Zukunft ist ein hybrides, domänenübergreifendes Ökosystem
Die Analyse führt zu dem Schluss, dass es keinen alleinigen “Gewinner” geben wird. Die Zukunft der digitalen Infrastruktur wird ein hybrides Ökosystem sein, in dem jede Umgebung ihren optimalen Zweck erfüllt und die Stärken der anderen ergänzt.
- Terrestrisch: Landgestützte Rechenzentren werden das Rückgrat für die überwiegende Mehrheit der latenzempfindlichen, allgemeinen Unternehmens- und Verbraucher-Workloads bleiben. Die Innovation wird sich hier auf die Nachhaltigkeit konzentrieren, insbesondere durch fortschrittliche Flüssigkeitskühlung und neue Energiequellen wie kleine modulare Reaktoren (SMRs).20
- Unterwasser: Diese werden sich als die bevorzugte Lösung für hochdichtes “Coastal Edge”-Computing herauskristallisieren. Sie werden große Bevölkerungszentren in Küstennähe mit latenzarmer und ressourceneffizienter Kapazität versorgen.
- Weltraumgestützt: Diese werden als “Orbital Edge” fungieren, Daten an ihrer Quelle im Weltraum verarbeiten und die Erforschung des tiefen Weltraums sowie nationale Sicherheitsanwendungen unterstützen.
6.3 Strategische Empfehlungen für Branchenakteure
Aus dieser Prognose lassen sich klare Handlungsempfehlungen für die verschiedenen Akteure der Branche ableiten:
- Für Cloud-Hyperscaler: Es ist unerlässlich, in Forschung und Entwicklung für alle drei Domänen zu investieren. Der entscheidende Wettbewerbsvorteil der Zukunft wird in der Fähigkeit liegen, eine nahtlose, softwaredefinierte Plattform anzubieten, die Workloads intelligent über terrestrische, subaquatische und orbitale Anlagen verteilen kann – je nach Anforderungen an Kosten, Latenz und Sicherheit.
- Für Investoren: Der terrestrische Markt bleibt die größte und sicherste Investition, angetrieben durch das unaufhaltsame Wachstum der KI.10 Unterwasser-Rechenzentren stellen ein Wachstumsfeld mit mittlerem Risiko und hohem Potenzial dar, insbesondere da bereits kommerzielle Modelle entstehen. Weltraumgestützte Rechenzentren sind eine risikoreiche Wette im Venture-Capital-Stil; Investitionen in diesem Bereich sollten als Optionen auf die Zukunft der Raumfahrtindustrie betrachtet werden.
- Für Politik und Regulierungsbehörden: Es ist von entscheidender Bedeutung, proaktiv rechtliche Rahmenbedingungen für die orbitale und subaquatische Datenhoheit, die Umweltauswirkungen und die Sicherheit zu entwickeln. Die derzeitige regulatorische Lücke stellt ein erhebliches Risiko dar, das Innovationen hemmen oder zu zukünftigen Konflikten führen könnte.7 Die Förderung dieser neuen Infrastrukturen wird für die nationale Wettbewerbsfähigkeit im Zeitalter der KI von entscheidender Bedeutung sein.
Referenzen
- How Starcloud Is Bringing Data Centers to Outer Space | NVIDIA Blog, Zugriff am Oktober 26, 2025, https://blogs.nvidia.com/blog/starcloud/
- Nvidia’s H100 GPUs are going to space — Crusoe and Starcloud pioneer space-based solar-powered AI compute cloud data centers | Tom’s Hardware, Zugriff am Oktober 26, 2025, https://www.tomshardware.com/tech-industry/first-nvidia-h100-gpus-will-reach-orbit-next-month-crusoe-and-starcloud-pioneer-space-based-solar-powered-ai-compute-cloud-data-centers
- NVIDIA Introduces StarCloud, GPUs in Space : r/singularity – Reddit, Zugriff am Oktober 26, 2025, https://www.reddit.com/r/singularity/comments/1octxr2/nvidia_introduces_starcloud_gpus_in_space/
- NVIDIA H100 Makes Its Cosmic Debut as the First AI Accelerator in Space | TechPowerUp, Zugriff am Oktober 26, 2025, https://www.techpowerup.com/342141/nvidia-h100-makes-its-cosmic-debut-as-the-first-ai-accelerator-in-space
- Nvidia GPU Heads Into Orbit on a Mission to Test Data Centers in Space – PCMag UK, Zugriff am Oktober 26, 2025, https://uk.pcmag.com/ai/160870/nvidia-gpu-heads-into-orbit-on-a-mission-to-test-data-centers-in-space
- ESA – Knowledge beyond our planet: space-based data centres, Zugriff am Oktober 26, 2025, https://www.esa.int/Enabling_Support/Preparing_for_the_Future/Discovery_and_Preparation/Knowledge_beyond_our_planet_space-based_data_centres
- Are data centers in space the future of cloud storage? – IBM, Zugriff am Oktober 26, 2025, https://www.ibm.com/think/news/data-centers-space
- What Americans think about the environmental impact of AI, according to a new poll, Zugriff am Oktober 26, 2025, https://apnews.com/article/artificial-intelligence-data-centers-poll-climate-change-c9f95aa014254ef454b763ccfb32de39
- US data centers’ energy use amid the artificial intelligence boom …, Zugriff am Oktober 26, 2025, https://www.pewresearch.org/short-reads/2025/10/24/what-we-know-about-energy-use-at-us-data-centers-amid-the-ai-boom/
- The data center balance: How US states can navigate the opportunities and challenges, Zugriff am Oktober 26, 2025, https://www.mckinsey.com/industries/public-sector/our-insights/the-data-center-balance-how-us-states-can-navigate-the-opportunities-and-challenges
- From Earth to Orbit: Are Data Centers Headed to Space …, Zugriff am Oktober 26, 2025, https://www.racksolutions.com/news/data-centers-news/are-data-centers-headed-to-space/
- The Potential and Challenges of Space-Based Data Centers, Zugriff am Oktober 26, 2025, https://newspaceeconomy.ca/2024/06/24/the-potential-and-challenges-of-space-based-data-centers/
- Data Centers and Their Energy Consumption: Frequently Asked Questions | Congress.gov, Zugriff am Oktober 26, 2025, https://www.congress.gov/crs-product/R48646
- Understanding the power consumption of data centers – Socomec, Zugriff am Oktober 26, 2025, https://www.socomec.us/en-us/solutions/business/data-centers/understanding-power-consumption-data-centers
- Data Centers and Water Consumption | Article | EESI – Environmental and Energy Study Institute, Zugriff am Oktober 26, 2025, https://www.eesi.org/articles/view/data-centers-and-water-consumption
- Data Centers in Space | Starcloud – The Future of AI, Zugriff am Oktober 26, 2025, https://www.starcloud.com/
- Amazon strategised about keeping its datacentres’ full water use secret, leaked document shows, Zugriff am Oktober 26, 2025, https://www.theguardian.com/technology/2025/oct/25/amazon-datacentres-water-use-disclosure
- Data Centers, Temperature, and Power – Backblaze, Zugriff am Oktober 26, 2025, https://www.backblaze.com/blog/data-centers-temperature-and-power/
- Why Data Centers Are Moving Underwater (And What It Means for Your Apps) – Medium, Zugriff am Oktober 26, 2025, https://medium.com/@sohail_saifi/why-data-centers-are-moving-underwater-and-what-it-means-for-your-apps-892dbaab2bcb
- 2025 Global Data Center Outlook – JLL, Zugriff am Oktober 26, 2025, https://www.jll.com/en-us/insights/market-outlook/data-center-outlook
- Microsoft shelves its underwater data center — Project Natick had fewer server failures compared to servers on land : r/technews – Reddit, Zugriff am Oktober 26, 2025, https://www.reddit.com/r/technews/comments/1dnochr/microsoft_shelves_its_underwater_data_center/
- Breaking barriers to Data Center Growth | BCG, Zugriff am Oktober 26, 2025, https://www.bcg.com/publications/2025/breaking-barriers-data-center-growth
- 6 Data Center Market Trends for 2025 – Brightlio, Zugriff am Oktober 26, 2025, https://brightlio.com/data-center-market-trends/
- from sci-fi to reality: why your next data center might be floating 500 km above you – Exellyn, Zugriff am Oktober 26, 2025, https://www.exellyn.com/article/from-sci-fi-to-reality-why-your-next-data-center-might-be-floating-500-km-above-you
- AI Data Centers in Space: Science Fiction or the Future of Zero-Carbon Computing?, Zugriff am Oktober 26, 2025, https://medium.com/@a.sale/ai-data-centers-in-space-science-fiction-or-the-future-of-zero-carbon-computing-3b2a9d7f970e
- Why Data Centers in Space Could Launch a New Space Economy : r/IsaacArthur – Reddit, Zugriff am Oktober 26, 2025, https://www.reddit.com/r/IsaacArthur/comments/1o5j4jy/why_data_centers_in_space_could_launch_a_new/
- Why can’t we put data centers in orbit where they will naturally stay cool? – Reddit, Zugriff am Oktober 26, 2025, https://www.reddit.com/r/AskPhysics/comments/1o1d0xd/why_cant_we_put_data_centers_in_orbit_where_they/
- Big Tech Dreams of Putting Data Centers in Space – Reddit, Zugriff am Oktober 26, 2025, https://www.reddit.com/r/space/comments/1nrbfg8/big_tech_dreams_of_putting_data_centers_in_space/
- www.racksolutions.com, Zugriff am Oktober 26, 2025, https://www.racksolutions.com/news/data-centers-news/are-data-centers-headed-to-space/#:~:text=%E2%80%8DChallenges%20For%20Space%2DBased,that%20requires%20complex%20radiator%20systems.
- Project Natick Phase 2 – Microsoft, Zugriff am Oktober 26, 2025, https://natick.research.microsoft.com/
- From Earth to Orbit: Data Centers are Heading Out to Space! – Sify, Zugriff am Oktober 26, 2025, https://www.sify.com/data-centers/from-earth-to-orbit-data-centers-are-heading-out-to-space/
- Space-Based Data Center Market Revenue Trends and Growth …, Zugriff am Oktober 26, 2025, https://www.marketsandmarkets.com/Market-Reports/space-based-data-center-market-123768087.html
- Project Natick – Wikipedia, Zugriff am Oktober 26, 2025, https://en.wikipedia.org/wiki/Project_Natick
- Microsoft finds underwater datacenters are reliable, practical and use energy sustainably, Zugriff am Oktober 26, 2025, https://news.microsoft.com/source/features/sustainability/project-natick-underwater-datacenter/
- Underwater Data Centers: Servers Beneath the Surface – Dgtl Infra, Zugriff am Oktober 26, 2025, https://dgtlinfra.com/underwater-data-centers-servers/
- Microsoft waves goodbye to underwater data centers – Windows Central, Zugriff am Oktober 26, 2025, https://www.windowscentral.com/microsoft/microsoft-waves-goodbye-to-underwater-data-centers
- Microsoft will no longer explore underwater data centres – Techerati, Zugriff am Oktober 26, 2025, https://www.techerati.com/news-hub/microsoft-will-no-longer-explore-underwater-data-centres/
- How Submarine Data Centers Are Reshaping Global Power Dynamics, Zugriff am Oktober 26, 2025, https://futureuae.com/en-US/Mainpage/Item/10550
- Microsoft scrapped its ‘Project Natick’ underwater data center trial …, Zugriff am Oktober 26, 2025, https://www.itpro.com/infrastructure/data-centres/microsoft-scrapped-its-project-natick-underwater-data-center-trial-heres-why-it-was-never-going-to-work
- ‘Project Natick’ Dries Up: Microsoft Shutters Underwater Datacenter – Redmondmag.com, Zugriff am Oktober 26, 2025, https://redmondmag.com/articles/2024/06/24/project-natick-dries-up.aspx
- 5 Largest Underwater Data Centers in the World – Brightlio, Zugriff am Oktober 26, 2025, https://brightlio.com/underwater-data-centers/
- “They Just Put the Internet Underwater”: China’s First Ocean Data Center Is Running on Seawater and It’s Changing Everything, Zugriff am Oktober 26, 2025, https://www.energy-reporters.com/environment/they-just-put-the-internet-underwater-chinas-first-ocean-data-center-is-running-on-seawater-and-its-changing-everything/
KI-gestützt. Menschlich veredelt.
Martin Käßler ist ein erfahrener Tech-Experte im Bereich AI, Technologie, Energie & Space mit über 15 Jahren Branchenerfahrung. Seine Artikel verbinden fundiertes Fachwissen mit modernster KI-gestützter Recherche- und Produktion. Jeder Beitrag wird von ihm persönlich kuratiert, faktengeprüft und redaktionell verfeinert, um höchste inhaltliche Qualität und maximalen Mehrwert zu garantieren.
Auch bei sorgfältigster Prüfung sehen vier Augen mehr als zwei. Wenn Ihnen ein Patzer aufgefallen ist, der uns entgangen ist, lassen Sie es uns bitte wissen: Unser Postfach ist martinkaessler, gefolgt von einem @ und dem Namen dieser Webseite (also meine-domain) mit der Endung .com. Oder besuchen Sie Ihn gerne einfach & direkt auf LinkedIn.
