In der heutigen IT-Umgebungen sind zahlreiche unterschiedliche Anwendungsarchitekturen anzutreffen: Zentrale Rechenzentren; um regionale oder lokale IT-Ressourcen ergänzte Zentralarchitekturen oder vollständig verteilte Ressourcen. Es stellt sich die Frage, wie sich die Architektur von Rechenzentren angesichts der von IoT und 5G ausgelösten Edge-Dynamik weiterentwickeln muss, um sicherzustellen, dass die Daten den Endnutzern zur Verfügung stehen, wo, wann und wie immer sie sie benötigen.

Wir erleben gerade einen neuen Entwicklungsschub in den Rechenzentren. Auslöser ist der Übergang von der ersten zur zweiten Generation von Cloud-Implementierungen; den Treibstoff liefert die zunehmende Verbreitung von 5G und IoT-Anwendungen. Bei der ersten Generation ging es darum, die Nutzung der Cloud zu verinnerlichen und „irgendwie“ Datenbestände und Anwendungen zu identifizieren, die sich für dieses neue Umfeld anboten. Nun, da sich die Nutzung der Cloud etabliert hat, finden die Anwenderunternehmen allmählich deren Schattenseiten heraus:

Sie sind an ihren Cloud-Anbieter gebunden. Und weil das IoT das Datenvolumen erhöht, steigen auch die Kosten.
Im Versuch, die Monopole der Cloud-Anbieter zu überwinden, legen manche Unternehmen bestimmte Anwendungsklassen in bestimmten Clouds ab, zum Beispiel Azure für Office, AWS für OLTP und GCP für Analysen. Damit wird zwar ein Teil der Abhängigkeit von Cloud-Anbietern gemildert. Aber nach wie vor sind die User für jede Anwendungsklasse von einem Cloud-Anbieter abhängig.

Die Entwicklung einer zweiten Generation von Cloud-Nutzungen wird durch drei Hauptmerkmale gekennzeichnet sein:

  • Die Nutzung von Anwendungen, insbesondere von Datenbanken, verteilt auf mehrere Cloud-Anbieter: Es wird dabei nicht ausreichen, Anwendungen einfach auf mehrere Clouds zu verteilen – sie müssen sich vielmehr sowohl über Clouds als auch über eigene In-Haus-IT-Kapazitäten verteilen lassen. Auf diese Weise können Unternehmen die Verarbeitung und Speicherung näher an den Nutzer heranbringen und auf die kostengünstigste Plattform für die jeweilige Art von Workload verlagern. Unternehmen, die anbieterspezifische Datenbanken von Cloud-Betreibern einsetzen, werden diesen Ansatz überdenken müssen. Anwender, die ihre zustandslosen, Cloud-nativen Microservices über Cloud-Anbieter hinweg migrieren wollen, benötigen eine Datenschicht und insbesondere eine Datenbank, die Cloud-übergreifend unterstützt wird.
  • Der Einsatz von drei Rechenzentren in unterschiedlichen Regionen anstelle von deren zwei: War es bisher üblich, zwei Rechenzentren zu betreiben – je ein aktives und ein passives – so sollte künftig der Einsatz von verteilten Datenbanken an drei Standorten an die Stelle dieses Konzepts treten. Fällt eines davon aus, bleiben die Dienste trotzdem erhalten. Der Betrieb in Frankfurt, London und Dublin ist nicht schwieriger als der Betrieb an zwei dieser Standorte. Viel komplexer ist das nicht, aber jedenfalls viel robuster. Und es lässt sich mit den jetzt verfügbaren Technologien leicht umsetzen. Der Dreier-Ansatz unterstützt auch besser die Einhaltung gesetzlicher Regelungen und die Datensicherheit. So ist es damit beispielsweise möglich, Daten ausschließlich in je einem der drei Zentren in den USA, der EU und dem Rest der Welt zu speichern, um die gesetzlichen Vorgaben zu erfüllen, und sie gleichzeitig in einer einzigen globalen Datenbank zu speichern.
  • Übergang zu wirklich agnostischen APIs für die Datenspeicherung: Experten prophezeien, dass sich die Postgres-API für SQL-Datenbanken und Cassandra für No-SQL-Datenbanken durchsetzen wird, während man sich bei der Blockspeicherung zunehmend an der Programmierspreche S3 orientiert. Das läuft de facto auf eine Vereinheitlichung der APIs für die Datenspeicherung hinaus. Das ist wichtig, weil auf diese Weise eine Barriere beseitigt wird, welche die Skalierung erschwert und Unternehmen daran hindert, zwischen verschiedenen Plattformen der Datenebene zu wechseln.

Die Kommodifizierung des Rechenzentrums ist bereits im Gange. Die genannten drei Trends sind das zwangsläufige Ergebnis des Anwenderwunsches, kosteneffizient zu skalieren, ohne sich an einen Anbieter binden zu müssen.
Kampflos werden die Anbieter ihre Lock-in-Vorteile zwar nicht aufgeben, aber letztlich wird sich derjenige Ansatz durchsetzen, der den Anwendern mehr Unabhängigkeit verspricht. Diese Evolution wird eine Fülle von Innovationen mit sich bringen – nicht nur im Bereich des Edge, sondern auch in der Art und Weise, wie wir unsere Rechenzentren der Zukunft anlegen.

Florian Niedermaier ist Area VP Central Europa bei Yugabyte.

Yugabyte