Alles in die Cloud verlagern und die eigenen Server abschalten? Das galt lange als Ausweis von Fortschritt und Zukunftsfähigkeit. Die Realität zeigt, dass es gute Gründe geben kann, die eigenen Unternehmensdaten unter Kontrolle zu halten – und womöglich ganz oder teilweise aus der Cloud zurückzuholen. Egal, welches Modell man künftig wählt: Rechenzentrums- und Netzwerks-Infrastruktur müssen den Anforderungen angepasst werden. Sicherheit zählt hier mehr als nur der Blick auf die Kosten.

Lange galt Deutschland als ein Land von Cloud-Verweigerern, ja, sogar als rückständig im Vergleich zu den USA und den asiatischen Staaten, wo Cloud-Computing schnell eine große Anhängerschaft fand. Inzwischen hat sich die Lage gewandelt. Gemäß dem „Cloud Monitor“ von Bitkom und KPMG nutzen bereits drei Viertel aller Firmen Cloud-Services. Zudem entwickeln sich diese immer mehr zum substanziellen Bestandteil der IT-Landschaft.

Eine weitere aufrüttelnde Prognose traf das Marktforschungsunternehmen Gartner vor zwei Jahren: Bis 2025 werden 80 Prozent der Unternehmen ihre eigenen Rechenzentren schließen. Dies schien auf den ersten Blick den Kurs Richtung Cloud zu bestätigen.

Cloudifizierungs-Strategien ausdifferenziert

Doch andere Kundenbefragungen wiesen eher auf einen gegenläufigen Trend: So gaben im Nutanix Enterprise Cloud Index 2019 sogar 73 Prozent der Befragten an, dass sie Daten und Anwendungen aus der Cloud zurückholen in die eigenen Rechenzentren. Wohin die Reise tatsächlich geht, klärte sich in der Nutanix-Umfrage des Folgejahres:Hier nannten 86 Prozent eine hybride Cloud-Umgebung als das ideale Modell ihrer Unternehmens-IT. Rechenzentren, die nicht auf die Cloud-Nutzung ausgelegt waren, wurden deshalb geschlossen.

Stattdessen entstanden in den Unternehmen Hyperconverged Infrastructures (HCI), die in der Lage sind, interne und externe Cloud-Services – Private und Public Clouds, aber auch Colocations, also ausgelagerte Rechenzentren – im Hybrid-Betrieb zu nutzen. Daneben ist auch ein gemischtes Modell aus Private Cloud, Public Cloud und traditionellem Rechenzentrum unter diesen Unternehmen besonders häufig zu finden.

Und auch beim Blick auf die Gartner-Studie zeigt sich, dass der Trend weg vom klassischen Rechenzentrum nicht automatisch heißt, sich voll und ganz den Cloud-Providern anzuvertrauen. Die Marktexperten kommen vielmehr zu dem Schluss, dass künftig weniger die Technik als vielmehr das Business-Modell darüber entscheidet, wo Daten und Applikationen laufen. So nennt diese Analyse neben Cloud und (zentralem) Rechenzentrum auch das Edge Computing als relevante Option.

Rein in die Cloud oder raus aus der Cloud?

Während die frühe Phase der Cloud-Nutzung häufig von der Vorstellung getrieben war, dass Cloud-Services das bestehende Rechenzentrum zunächst erweitern, in einer mehr oder weniger nahen Zukunft sogar vollkommen ersetzen, hat sich inzwischen auf breiter Front die Erkenntnis durchgesetzt, dass die Kooperation von lokalem Rechenzentrum, Colocations und Cloud-Services noch eine ganze Weile nötig ist. Die meisten unternehmenseigenen Data Center müssen für diese Aufgabe jedoch erst fit gemacht werden.

Häufig entwickeln sich entsprechende Projekte schnell zu einer Mammut-Aufgabe. Denn alleine schon die strategische Entscheidung zum Betriebsmodell erfordert umfangreiche Vorarbeiten zu Planung und Konzeption. Je nach Gewichtung der drei grundlegenden Optionen – On Premise (inklusive Private Cloud), Colocation oder Public Cloud – sieht das weitere Vorgehen höchst unterschiedlich aus.

Wann kommt Europa?

Es ist kein Geheimnis, dass das Warten auf native europäische Lösungen, Standards und Anbieter in diesem globalisierten IT-Markt noch viel Geduld und noch mehr Initiative erfordern. GAIA-X ist bislang nicht viel mehr als ein ambitioniertes Versprechen, während längst die Transformationen in Cloud-kompatiblen Umgebungen und Konsolidierungsvorhaben in Bewegung sind.

Beispielsweise führt Gartner in seiner aktuellen HCI-Studie vom Dezember 2020 die Top-Ten-Anbieter. Davon sind sechs aus den USA, zwei aus China bzw. dem APAC-Raum, einer aus Großbritannien und immerhin einer aus Deutschland. Europa ist nachhaltig im Kommen, auch in führenden Technologien wie dem Quanten-Internet, das langfristig die Rechenzentrumswelt ebenso fundamental verändern wird wie mittelfristig die Cloud-Service-Strukturen die Konsolidierungen antreibt.

Mischbetrieb erfolgreich managen

Im Zentrum dieser Entscheidung stehen drei Überlegungen: Welche Anwendungen sollen in Public Clouds verschoben, welche in der eigenen Bestands-IT On-Premise oder in einer Private Cloud behalten, welche in eine Colocation ausgelagert werden? Werden die Ziele durch die Erneuerung der Bestands-IT oder vielmehr durch die Zusammenlegung verschiedener Standorte erreicht? Und welche Sicherheitsarchitekturen und -standards muss eine zukünftige Unternehmens-IT als „balanced environment“ befolgen und beantworten können?

Dass diese drei Optionen für das „system placement“ optimal zusammenspielen ist nicht nur die Grundlage für einen störungsfreien Betrieb im Arbeitsalltag, sondern auch für die Flexibilität, bei sich verändernden Anforderungen die Gewichtung von On-Premise, Colocation und Cloud neu auszutarieren. Erreicht werden kann dieses Ziel zum Beispiel mittels hyperkonvergenter Systeme. Hier werden Rechen-, Speicher, Netzwerk- und Virtualisierungs-Ressourcen zu einer Software-definierten Einheit zusammengefasst und als eine einzige Anwendung verwaltet.

In der Konsequenz werden komplexe Infrastrukturen zentralisiert und vereinfacht. Optimierungen kommen nicht nur punktuell, sondern systemweit zum Tragen, sprich: Die Effizienz und Leistungsfähigkeit der gesamten IT-Infrastruktur werden verbessert. Aber auch Trends wie Serverless Computing erzeugen signifikante Effekte bei der Ausrichtung strategischer Betrachtungen für eine zukunftsfähige IT und optimale IT-Standortentscheidungen im Hinblick auf ein konsistentes und wohldurchdachtes Konsolidierungsvorhaben.

Projektumfang oft unterschätzt

Darüber hinaus ist eben jede Veränderung an der Infrastruktur – sei es, weil das Rechenzentrum geschlossen, in der Größe verändert oder einfach nur verlagert wird – Anlass zur Umsetzung neuer und aktualisierter Anforderungen.
Dazu zählt beispielsweise, Strukturen grundlegend DSGVO-konform zu gestalten, das in der Corona-Pandemie verstärkt genutzte Arbeiten aus dem Home-Office zu unterstützen, Technologien wie Künstliche Intelligenz (KI/A/), Machine Learning (ML) oder Robot Process Automation (RPA) bereitzustellen oder die Absicherung der Unternehmens-IT und der Datenbestände zu verbessern. Letzteres reicht bis hin zu den Vorgaben für kritische Infrastrukturen („KRITIS“), deren Kreis erst kürzlich nochmals ausgeweitet wurde, inklusive der branchenspezifischen Sicherheitsstandards (B3S) sowie der entsprechenden Normen wie ISO 27799.

Den Erfolg des Projektes bestimmen dann zum Beispiel die Antworten auf folgende Fragen:

  • Cloud-Strategie verwirklicht?
  • Kostensparziele umgesetzt?
  • Standorte konsolidiert?
  • Sicherheit verbessert?
  • Digitalisierung der Geschäftsmodelle unterstützt?
  • Anwendung Künstlicher Intelligenz integriert?
  • Zukunftsfähigkeit erreicht?

Externe Unterstützung gefragt

Die Verlagerung von Teilen der Unternehmens-IT zu einem Colocator oder in die Cloud erschien vielen Entscheidern auch deshalb attraktiv, weil der Aufbau entsprechender interner Strukturen deutlich mehr Kompetenzen benötigt. Inzwischen zeigt sich jedoch, dass mit der Auslagerung Limitierungen bei Methoden und Technologien verbunden sind, die letztendlich sogar die Weiterentwicklung des eigenen Geschäftsmodells hemmen.

Als Alternative zum kostspieligen Aufbau von eigenem Know-how empfiehlt sich daher die Zusammenarbeit mit einem externen Partner, der einerseits selbst die benötigten Kompetenzen mitbringt und andererseits die Konzeption an die im Unternehmen verfügbaren Skills anpasst.

Nach diesem Prinzip arbeitet beispielsweise das Consulting-Team von Rosenberger OSI. Als Spezialist für Netzwerktechnik bietet das Unternehmen nicht nur die klassische IT-Beratung an, wie dies auch zahlreiche IT-Systemhäuser praktizieren, sondern kann auch tiefgreifendes Fachwissen in der Entwicklung und Produktion von Systemlösungen sowie umfangreiche

Praxis-Erfahrung im Rechenzentrumsbetrieb vorweisen.

Denn Rosenberger OSI vereint alle entscheidenden Kompetenzen, wie etwa zur glasfaserbasierten Verbindungstechnik, zu Verkabelungslösungen sowie zu Infrastruktur-Services von Rechenzentren, in seinem Team. Beratung zu Mitigation und Risikomanagement, „physik-nahe“ Services wie das Einmessen von optischen Netzwerk-Verbindungen, Performance- und Effizienzsteigerung auf Basis der Netzwerk-Infrastruktur bis hin zu platzsparenden Server-Konzepten mittels ETSI-Racks gehören zu den Angeboten, die aus dieser Verbindung von Expertenwissen und Praxisnähe erwächst.

Matthias Reidans ist Senior Project Manager Services bei Rosenberger OSI.

Rosenberger OSI