FacebookTwitterLinkedIn

Edge Computing im Weltall: Der Himmel ist nicht die Grenze

https://network-king.net/wp-content/uploads/2021/05/pexels-pixabay-41006-769x450.jpg

Wie kann man den Gesundheitszustand eines kranken Astronauten beurteilen? Woher weiß man, ob die atmosphärischen Bedingungen und die Oberflächenbeschaffenheit eines Planeten eine Gefahr für eine Besatzung darstellen, die kurz vor der Erkundung des Ortes steht? Wie findet man die ideale Stelle auf der Mondoberfläche, um einen kleinen Rover mit Vorräten zu betanken? Oder wie testet man die Ausrüstung und die Raumanzüge von Astronauten, die eine Raumstation verlassen müssen, um Reparaturen an der äußeren Struktur vorzunehmen? Der Weltraum stellt uns vor große Herausforderungen. Diese erfordern, dass kritische Entscheidungen schnell getroffen werden. In Sekunden ¬– nicht in Minuten oder Stunden.

Die Übertragung einer Information von wenigen Bytes vom Mond zu einer Empfangsstation am Boden kann fünf bis 20 Minuten dauern. Das erste Panoramabild, das der Perseverance-Rover bei seiner Landung auf dem Mars im Februar dieses Jahres aufnahm, brauchte fast zwei Tage, um die Erde zu erreichen. Die Landebestätigung selbst dauerte elf Minuten – diese Zeit benötigte das Funksignal, um die 330 Millionen Kilometer zwischen den beiden Planeten zu überwinden.

Solche Engpässe behindern schnelle Entscheidungen. Denn diese müssen nach der Verarbeitung der empfangenen Informationen getroffen werden, die auf der Erde ohnehin schon spät ankommen. Die Konzentration von mehr Rechenleistung am anderen Ende der Erde kann also viele der Probleme lösen, mit denen Forscher, Wissenschaftler, Astronauten und sonstige Personen konfrontiert sind, wenn sie in der Umlaufbahn um unseren Planeten arbeiten. Doch zur Übertragungsentfernung kommen noch andere Schwierigkeiten hinzu, wie der begrenzte Raum, die für den Betrieb erforderliche Energie und die Kühlmechanismen der Geräte.

Die Technologie, die die lokale Verarbeitung von Daten ermöglicht, die am Rande des Netzwerks gesammelt werden, bezeichnet man als Edge Computing. Es beschleunigt die Entscheidungsfindung und die Konfiguration spezifischer Aktionen in kürzester Zeit. Von der Landwirtschaft bis hin zu autonomen Autos hat sich die Technologie weiterentwickelt, um immer mehr Rechenleistung an den Rand zu bringen und die Kommunikationswege zu den Cloud-Rechenzentren freizumachen. Noch interessanter werden die Anwendungen bei Weltraummissionen, wo die Kommunikationskanäle lang sind und hohe Latenzzeiten aufweisen, und wo eine große lokale Rechenleistung von einer umfangreichen Stromversorgung abhängen würde.

Die große Herausforderung des Edge Computing besteht darin, auf kleinstem Raum ein Gleichgewicht zwischen lokaler Rechenleistung, geringem Stromverbrauch und minimaler Bandbreite für die Kommunikation mit Kommandozentralen herzustellen – und gleichzeitig das Kunststück zu vollbringen, große Datenmengen lokal zu verarbeiten. So wird eine optimierte Entscheidungslösung geschaffen, die sich positiv auf Ihr Unternehmen oder Ihre Mission auswirken kann. Damit steigt auch die Herausforderung, diese Infrastruktur zu überwachen. Die Überwachung ist unerlässlich, um kritische Anlagen zu schützen, die Netzwerkleistung zu gewährleisten, systemische Anomalien zu erkennen und interne/externe Cyber-Bedrohungen zu identifizieren.

Laut MarketsandMarkets hat die Covid-19-Pandemie den globalen Edge-Computing-Markt beschleunigt. Dieser soll von 3,6 Milliarden US-Dollar im Jahr 2020 auf 15,7 Milliarden US-Dollar im Jahr 2025 wachsen. Der Bedarf an gezielteren Technologien am Rande der Datenerfassung hat zugenommen und wird aufgrund verschiedener Faktoren weiter steigen: die Entwicklung autonomer Autos, der Wettlauf um die Raumfahrt und die steigende Anzahl von Mitarbeitern, die aus der Ferne arbeiten, sind nur einige Beispiele. Sie alle überlasten die Bandbreite der Kommunikationsnetze, erhöhen die Verarbeitungslatenz und erfordern mehr Rechenleistung und lokale Speicherung.

Der Start von immer mehr Satelliten und Raketen und der Ausbau von Raumstationen wie der ISS (Internationale Raumstation) hat enorme Fortschritte bei der Energieerfassung und -speicherung, der Rechenleistung in nanometrischen Schaltkreisen, den Protokollen und den Kommunikations- und Speichermöglichkeiten erfordert.

Die NASA, IBM, RedHat und HPE haben in diesem Jahr ein Edge-Computing-Projekt zur DNA-Sequenzierung auf der ISS initiiert, welches die Systeme der Raumstation mit Rechenzentren auf der Erde verbindet. Mit dem Spaceborne Computer-2 (SBC-2) von Hewlett Packard Enterprise können Astronauten und Forscher auf der ISS Experimente mit lokal und von anderen Satelliten gesammelten Informationen durchführen, ohne die Daten zur Verarbeitung zurück zur Erde schicken zu müssen. Der Computer wurde an Bord des Cygnus-Raumschiffs im Rahmen der Mission NG-15 (15th Northrop Grunman Resupply Mission to Space Station), die am 20. Februar von Wallops Island, Virginia, USA, aus startete, mit der Antares-Rakete zur ISS gebracht. Die Mission wurde nach der afroamerikanischen Mathematikerin Katherine Johnson benannt, die eine entscheidende Rolle bei den ersten bemannten Raumfahrten spielte.

Ziel des Edge Computing im Weltraum ist es, die Ergebnisse von Experimenten auf Raumstationen zu beschleunigen, damit Entscheidungen schneller getroffen werden können. So soll die Richtung der Forschung geändert werden, was die Technologie zu einem Schlüsselfaktor für künftige Raumfahrtmissionen zum Mond, zum Mars und darüber hinaus macht. Sie kann auch dazu verwendet werden, Flugbahnen und Routen anderer Raumfahrzeuge und Satelliten sowie weitere grundlegende Anforderungen für die Verlagerung und das tägliche Leben im Weltraum zu berechnen.

Nur bei dem DNA-Sequenzierungsprojekt Genesis in Space-3 würde es Wochen dauern, bis die gesammelten Daten in die Hände der Wissenschaftler auf die Erde gelangen. Durch die Verwendung von Containern mit analytischem Code an Bord der ISS sind nun aber auch schnellere Ergebnisse möglich. Die Lösung nutzt Red Hat CodeReady Container auf OpenShift-Clustern ­– sie beinhalten alles, was für die Ausführung von maschinellem Lerncode benötigt wird, zusammen mit Betriebssystem-Tools und Bibliotheken ­– und ermöglicht die Replikation der Forschung in terrestrischen Rechenzentren, wo Wissenschaftler einen neuen Analysecode entwickeln, testen und erstellen, der dann zur Raumstation zurückgeschickt wird.

Eine weitere wichtige Edge-Computing-Operation ist die Organisation von Nanosatelliten, die sich in einer Umlaufbahn in 400 bis 600 km Entfernung von der Erdoberfläche befinden. Gemeinsam erfüllen sie eine Abfolge von Aufgaben, z. B. die Untersuchung von Wetterveränderungen, die Überwachung von Naturkatastrophen und die Warnung vor potenziellen Verstößen gegen die nationale Sicherheit. Ein Nanosatellit ist per Definition ein weltraumtechnisches Objekt, das weniger als 10 kg wiegt. Seit 1998 wurden mehr als 3.000 davon ins All geschossen. Sie sind in Konstellationen von Dutzenden oder Hunderten von Satelliten organisiert und mit Solarpanels ausgestattet, die auf ihrer Oberfläche angebracht sind und eine Spitzenleistung von bis zu 7,1 W erbringen können.

Grafik der gestarteten und geplanten Konstellationen mit der jeweiligen Anzahl von Nanosatelliten
Gestartete und in Planung befindliche Konstellationen – https://www.nanosats.eu

Aber die Stromkapazität ist nicht der einzige begrenzende Faktor dieser Geräte. Aufgrund ihres geringen Volumens kann nicht viel Technik in sie hineingepackt werden. Dies führt zu einer Verringerung der Schaltkreise an Bord und sogar der möglichen Brennweite der Kameraobjektive. Nanosatelliten speichern Informationen, bis sie sich über einer terrestrischen Empfangsstation befinden, und laden in diesem Moment alle von ihnen gesammelten Daten herunter. Dadurch ergibt sich ein Zeitfenster von bis zu 5,5 Stunden von der Aufnahme bis zur Übertragung zur Erde. Bodenstationen, die über eine 200-Mbps-Verbindung verfügen, können in jeder zehnminütigen Sitzung bis zu 15 GB an Daten empfangen. Selbst unter idealen Wetterbedingungen würde dies den Empfang auf neun Nanosatelliten pro Umdrehung begrenzen, so dass 112 strategisch platzierte Stationen erforderlich wären, um eine Konstellation von 1000 Knoten abzudecken.

Selbst bei verbesserten Fähigkeiten der Bodenstationen sind die Kommunikationsverbindungen der Nanosatelliten selbst begrenzt, so dass die Entgegennahme von „Befehlen” von hier unten sehr mühsam und ineffizient ist. Daher ist die Übertragung der Kontrollbefugnis an die Satelliten oder Raumstationen selbst die einzige effektive Möglichkeit, Hunderte von Nanosatelliten für spezielle Missionen zu organisieren. Wenn man sie dazu bringt, zusammenzuarbeiten, kann man die Datenmenge, die jeder einzelne sammeln und übermitteln muss, drastisch reduzieren. So ist ein Netz von empfangenden Bodenstationen leichter in der Lage, die wachsende Zahl von Konstellationen zu bewältigen, deren Start in den kommenden Jahren geplant ist.

Viele dieser Nanosatelliten könnten mit neuen Prozessoren ausgestattet werden, die speziell für den Einsatz im Weltraum entwickelt wurden. Unternehmen wie Loft Orbital entwickeln beispielsweise Edge-Prozessoren, die als Mesh-Netzwerke arbeiten und komplexere Berechnungen parallel durchführen können, was sie zu einer Lösung für umfangreiche Bildverarbeitungs- und Analyseprojekte oder Wettersimulationen macht.

Den Anwendungen der Edge-Computing-Technologie stehen keine Hindernisse im Weg. Tatsächlich gibt Gartner an, dass 2018 nur 10 % der von Unternehmen generierten Daten außerhalb zentralisierter Rechenzentren verarbeitet wurden, aber dass diese Zahl bis 2025 75 % erreichen wird. Der Himmel ist für diese Technologie nicht mehr die Grenze.

FacebookTwitterLinkedIn