Das Thema Hochverfügbarkeit ist wie kaum ein anderes in der IT mit Vorurteilen, falschen Einschätzungen und längst überholten Auffassungen belastet; die zehn beliebtesten dieser „Mythen“ werden in diesem Artikel entmystifiziert.

1. Hochverfügbarkeit ist nur für große Unternehmen wichtig

Alle Unternehmen sind heute stark von der IT abhängig und können von Server-Ausfällen massiv betroffen werden. Sie müssen Risikovorsorge betreiben.

2. Normale Server sind so zuverlässig, dass spezielle Hochverfügbarkeitslösungen überflüssig sind

Tatsächlich sind Server heute zuverlässiger und Ausfälle selten. Allerdings betreiben Unternehmen auf Standard-Servern unternehmenskritische Anwendungen, die immer verfügbar sein müssen. Standard-Server erreichen eine Verfügbarkeit von etwa 99,9 % (durchschnittliche Ausfallzeit: 8,7 Stunden pro Jahr). Für unternehmenskritische Aufgaben sind mindestens 99,99 %, in der Regel sogar 99,999 % erforderlich (Ausfallzeit: maximal 5 Minuten im Jahr).

3. Hochverfügbarkeit ist teuer

Teuer ist relativ und muss im Verhältnis zum möglicherweise entstehenden Schaden gesehen werden. Sollte ein Server-Ausfall Kosten in Millionenhöhe verursachen, so wäre auch der teuerste Server noch preiswert, sofern er ausfallsicher ist. Hochverfügbarkeit ist heute auch für kleinere und mittlere Unternehmen erschwinglich.

4. Hochverfügbarkeit ist nur ­aufwendig zu administrieren

Die für wichtige Aufgaben üblicherweise verwendeten Cluster-Lösungen sind in der Tat aufwendig in der Implementierung und Administration. Dagegen verhalten sich fehlertolerante Server, die aus komplett redundanten Komponenten aufgebaut sind, nach außen wie ganz normale Server; für den Benutzer ist die Redundanz nicht sichtbar. Dementsprechend ist die Administration nicht aufwendiger als bei einem Standard-Server.

5. Cluster bieten für alle Fälle ­ausreichende Sicherheit

Cluster arbeiten im Störungsfall nicht unterbrechungsfrei. Die Übernahme der Prozesse durch das nicht gestörte System erfordert eine Failover-Zeit, während der Anwendungen und Daten nicht zur Verfügung stehen. Cluster-Server kommen damit nicht über eine durchschnittliche Verfügbarkeit von rund 99,99 % hinaus (Ausfallzeit: knappe Stunde pro Jahr). In der Praxis sind diese Systeme auf Grund ihrer Komplexität schwierig und aufwendig zu administrieren. Es müssen zwei voneinander unabhängige Server-Systeme mit jeweils eigenem Betriebssystem und eigener Anwendungssoftware betrieben werden, dazu kommt ein logischer Server für die Cluster-Steuerung. Ist der Betrieb schon bei zwei Cluster-Knoten nicht ganz einfach, so steigt der Aufwand für die Steuerung und Kontrolle der Knoten erheblich, wenn noch mehr Server in einem Cluster zusammengeschlossen sind. Ohne fachkundiges Personal lassen sich solche Konfigurationen nicht beherrschen. Cluster-Lösungen weisen damit relativ hohe Gesamtkosten auf.

6. Für Hochverfügbarkeit benötigt man spezielle Applikationen

Für Cluster-Lösungen müssen die Applikationen tatsächlich angepasst werden. Fehlertolerante Server arbeiten mit Standardtechnologien, so dass die Applikationen ohne Anpassungen oder Änderungen betrieben werden können.

7. In virtualisierten Umgebungen ist Hochverfügbarkeit unnötig

Die Verfügbarkeit wird durch die Virtualisierung von Servern nicht verbessert, sondern sogar verschlechtert. Werden nämlich auf einem physischen Server mehrere virtuelle Umgebungen betrieben, so sind von einem Hardware-Ausfall immer gleich mehrere Server mitsamt den Anwendungen betroffen. Wichtige Anwendungen müssen daher als sicheres Fundament eine hochverfügbare Hardware-Plattform erhalten.

8. Disaster Recovery und Hoch­verfügbarkeit sind dasselbe

Disaster Recovery ist Katastrophenschutz: Unternehmen schützen damit ihre IT vor Bränden, Erdbeben, Flugzeugabstürzen, Anschlägen. Hochverfügbarkeit sorgt dagegen für den Schutz der IT bei technischen Störungen.

9. Hochverfügbare Systeme basieren auf proprietären Technologien

Fehlertolerante Server arbeiten mit Standardtechnologien wie Intel-x86, Windows oder Linux, Software-Lösungen wie Avance bauen auf dem Open Source-Server Xen auf. Diese Systeme erreichen ihre hohe Ausfallsicherheit, indem sie die Standardtechnologien redundant auslegen. Alle betriebswichtigen Teile sind hier doppelt vorhanden: Prozessoren, Speicher-Chips und I/O-Einheiten. Sollte eine Komponente ausfallen, führt die jeweilige Partnerkomponente den Betrieb weiter. Trotz der durchgängigen Redundanz verhalten sich fehlertolerante Server gegenüber dem Betriebssystem wie ein einziger Standardrechner. Es müssen also seitens der jeweiligen Software keine weiteren Anpassungen für den Einsatz mit den redundanten Komponenten des Servers vorgenommen werden, da die Software auf Seiten der Hardware immer nur ein System sieht. Die Steuerung erfolgt im Server durch dessen eigene Systemsoftware.

10. Mich betrifft das nicht …

Die überwiegende Zahl von Airbags kommt nie zum Einsatz, dennoch gehören diese heute zur Standardausstattung eines jeden PKW. Das effektive Risiko ergibt sich aus dem Produkt von Schadeneintrittswahrscheinlichkeit und möglicher Schadenshöhe, die in den vergangenen Jahren enorm gestiegen ist. In kritischen Bereichen können Unternehmen daher auch kurzzeitige Serverausfälle nicht riskieren.

Stratus Technologies GmbH, Eschborn
www.stratus.com