Ein Vielfaches mehr an Rechenzentren dank 5G

Newsroom Specialists -

Juli 15, 2022

Mit der zunehmenden Verfügbarkeit von 5G müssen sich die Betreiber von Rechenzentren schnell umstellen – von Containern und virtuellen Servern auf Cloud-Dienste und Edge Computing. Ansonsten riskieren sie, den Anschluss zu verlieren.

Die niedrige Latenz, die 5G mit sich bringt, erfordert, dass Edge-Computing-Standorte greifbar werden. Die Verlagerung der Datenverarbeitung an die Ränder des Netzes macht es einfacher, Geschwindigkeiten von mindestens 50 Megabit pro Sekunde zu erreichen. Zudem möglich: Latenzzeiten, die 10-mal niedriger sind als die von 4G-Netzen. Insgesamt geht man davon aus, dass die Datenverarbeitungs- und -übertragungsgeschwindigkeit von 5G bis zu 100-mal schneller sein wird als die von 4G-Netzen (Angaben der Next Generation Mobile Networks Alliance).

Um diese Ziele zu erreichen, prüfen Betreiber aller Größenordnungen – einschließlich der zunehmend kapitalisierten und konsolidierten Internetdienstanbieter – sowie große Unternehmen bereits, wie sie ihre Rechenzentren geografisch verteilen und vergrößern können. Man nimmt an, dass es eine regelrechte Explosion neuer Rechenzentren in jeder Region und jeder Vertikalen geben wird. Denn: Die Betreiber planen die Aufrüstung der bestehenden Infrastruktur, entwickeln neue architektonische Ansätze für den Umgang mit hyperlokalen Edge-Rechenzentren und müssen lernen, die Automatisierung für ein nahtloses 5G-Netzwerkmanagement zu integrieren.

Laut der Data Center 2025: Closer to the Edge Survey, die 2019 von Vertiv durchgeführt wurde, erwartet man, dass die Anzahl der Rechenzentren, die sich auf Edge-Computing-Funktionen konzentrieren, bis 2025 um 226 % steigen wird. Das US-Beratungsunternehmen Medium geht davon aus, dass bis 2025 75 % der Unternehmensdaten in Rechenzentren verarbeitet werden, die am Rand des Netzwerks eingerichtet sind. Heute liegt diese Marke dagegen erst bei 10 %.

Edge up

Seit Jahren gilt in puncto Rechenzentren eine Devise: die Erzielung von Skaleneffekten durch immer größere Einrichtungen, sogenannte Hyperscale-Rechenzentren. Dieser Trend ist nicht verwunderlich: Die Betriebskosten pro Rack oder Server sind niedriger, wenn man die Gemeinkosten auf eine größere Anzahl von Servern verteilen kann. Konnektivität ist gerade für größere Rechenzentren einfacher zu erreichen. Und es ist vergleichsweise einfacher, eine redundante Stromversorgungsinfrastruktur (2N, 2N+) für eine sehr große Anlage aufzubauen.

Waren sie vor einem Jahrzehnt noch nicht denkbar, existieren heute weltweit mehr als 500 riesige Hyperscale-Rechenzentren. Es ist unwahrscheinlich, dass sich dieser Trend in absehbarer Zeit umkehren wird. Die Tech-Giganten und Cloud-Anbieter Amazon, Apple, Facebook, Google und Microsoft verzeichnen Jahr für Jahr ein starkes Wachstum, da die traditionelle IT vor Ort allmählich in die Cloud verlagert wird. Das benötigt mehr Rechenleistung und mehr Kühlleistung als je zuvor. Da die gemeinsame Nutzung von Daten, die von anderen Maschinen (automatisierten Geräten) erzeugt werden und für diese bestimmt sind, zunimmt, ist außerdem zu erwarten, dass sich der Trend zu größeren Rechenzentren in naher Zukunft fortsetzen wird.

„Gleichzeitig beobachten wir einen parallelen Trend zu Mikro-Rechenzentren, die sich näher am Rand befinden, wo die Daten erzeugt und verbraucht werden“, erklärt Simon Besteman, Geschäftsführer der niederländischen Cloud Community. Diese Rechenzentren am Rande des Netzes sind viel kleiner als große Rechenzentren und ergänzen die bestehende Infrastruktur. Sie lösen heute ein Konnektivitätsproblem und spielen eine entscheidende Rolle bei der Vorbereitung der IT-Infrastruktur der Zukunft.

Die Schwäche der Zentralisierung besteht darin, dass sich alle Daten in einem Rechenzentrum im Kern des Netzes befinden. Das heißt auch, dass alle Nutzer eine Verbindung zu diesem zentralen Punkt herstellen müssen, um auf die Daten zuzugreifen. Dies hat zwei Konsequenzen: Es wird eine erhebliche Bandbreite benötigt. Die Latenzzeit (die Zeit, die die Daten benötigen, um den Benutzer zu erreichen) kann nicht ausreichend reduziert werden, um bestimmte Anwendungen effizient zu verwalten.

Die Verlagerung der Daten näher an den Rand ermöglicht eine effizientere Verwaltung des Datenflusses für den Benutzer. Anstatt eine Verbindung zu Hyperscale herstellen zu müssen, um eine Serie herunterzuladen, werden die Daten in einem Edge-Rechenzentrum in ihrer Nähe zwischengespeichert. Das heißt: Die Daten müssen nur noch von der Edge-Einrichtung zum Endnutzer gelangen. Da sie nur eine kurze Strecke zurücklegen, ist auch eine viel schnellere Reaktion möglich.

Das zweite Problem, mit dem sich Edge befasst, entwickelt sich gerade und wird in den nächsten 24 bis 36 Monaten zur Reife gelangen. Es handelt sich um die exponentielle Zunahme des erzeugten und ausgetauschten Datenvolumens. Die beiden Hauptkomponenten sind zwar getrennt, aber miteinander verbunden: Das Internet der Ding (IoT) und 5G.

„Ob großes Rechenzentrum oder solche, die in modularen Verarbeitungseinheiten mit Größen von einem Schrank bis zu einem Stockwerk oder in Containermodelle implementiert sind – die Logik, die diesen Markt beherrscht, ist dieselbe: Das Rechenzentrum ist eine kritische Umgebung, die digitale Dienste in hervorragender Qualität liefern muss“, erklärt Luis Arís, Business Development Manager bei Paessler LATAM.

Die großen Datenmengen, die 5G-Netze verarbeiten, speichern und verteilen müssen, könnten Rechenzentren überfordern und die Nachfrage nach Rechenkapazität und zugehöriger Infrastruktur erhöhen. Cisco berichtet, dass 5G bis 2023 mehr als 10 % der weltweiten Mobilfunkverbindungen unterstützen wird – mit einer durchschnittlichen Geschwindigkeit von 575 Mbit/s. Das ist 13-mal schneller als die durchschnittliche Mobilfunkverbindung heute.

Ausfallzeiten: Ein allgegenwärtiges Problem

Ausfallzeiten von Rechenzentren bleiben ein echtes Risiko. Sie beeinträchtigen den Produktumsatz von Unternehmen mit Rechenzentren und wirken sich auch auf den Wert ihrer Marken aus. Und das Rechenzentrum seinerseits leidet doppelt: Bei SLAs, die eine 100-prozentige Serviceverfügbarkeit vorsehen, kann jeder Ausfall im Strom-, Temperatur- und Bandbreitenmanagement zu hohen Strafen führen.

„Ich höre immer wieder Beschwerden von Leitern von Rechenzentren über den Druck, unter dem sie in dieser Zeit des starken Ausbaus kritischer digitaler Infrastrukturen stehen“, sagt Arís. Es sind Sätze wie diese:

  • „Unser Ziel bei der Überwachung eines Rechenzentrums ist die 24×7-Verfügbarkeit. Es ist das Herzstück des Netzwerks und muss automatisiert funktionieren, auch wenn der Systemadministrator nicht vor Ort ist.“

  • „Meine Aufgabe ist es, den Kunden die richtige Verfügbarkeit – vertraglich vereinbart im SLA-Format – zu bieten. Dazu muss ich nicht nur den Status der Geräte überprüfen, sondern auch die Nutzung und den Verbrauch von Schlüsselparametern wie Strom und Bandbreite analysieren können. Ich muss die Qualität der Benutzererfahrung sicherstellen und gleichzeitig übermäßige Investitionen in die Infrastruktur vermeiden.

  • „Als Administrator eines physischen Rechenzentrums muss ich die gesamte IT-Infrastruktur dieser Umgebung im Blick haben und darüber hinaus auch die Kontrolle über die Umgebung des Rechenzentrums erlangen.“

Laut Arís könnte eine Strategie zur Bewältigung dieser Herausforderungen in der Einführung agnostischer Überwachungsplattformen bestehen. Diese sind in der Lage, einen prädiktiven Blick auf alle Aspekte eines Rechenzentrums zu werfen, einschließlich klassischer IT-Herausforderungen, Umgebungssensoren und Sicherheitsgeräte. Ziel ist es, einen Überblick über die Umgebung als Ganzes zu erhalten und, sofern empfohlen, einzelne Dashboards zu verwenden, die sich auf bestimmte Aspekte der Datenfabrik konzentrieren.

Eine solche Lösung kann ein einzelnes Rechenzentrum oder Tausende von Rechenzentren auf integrierte Weise und über eine einzige Schnittstelle überwachen. Dabei handelt es sich um „White Label“-Überwachungslösungen, so Arísm, die nicht nur bereits Hunderte von Sensoren liefern, die den Status jedes Elements des Rechenzentrums und des Netzwerks messen, sondern auch als Entwicklungsplattform für neue Sensoren dienen können.