In den frühen Jahren der EDV wurden Server-Zeiten strikt limitiert und Systemanfragen erst Stunden oder gar Tage später beantwortet. Abbrüche gehörten zur Tagesordnung, aber niemand in Fachabteilung oder im Management wäre etwa auf die Idee gekommen, sich darüber zu beschweren. Heute, im Zeitalter von Echtzeitzugriffen auf eigene und vernetzte Systeme rund um den Globus, sind die Ansprüche ungleich höher: Alles muss funktionieren – auf Knopfdruck, 24 Stunden am Tag und 365 Tage im Jahr.

Zugriff rund um die Uhr

Der Anspruch auf durchgängige Verfügbarkeit ist alles andere als überzogen, denn schließlich ist die IT zum Herzen geworden nicht nur in Konzernen, sondern längst auch in mittelständischen und zunehmend in kleineren Betrieben. Und wenn „die Pumpe“ nicht mehr funktioniert, geht gar nichts mehr, auch die Zeit zur Wiederbelebung ist denkbar knapp bemessen. Ausfallen dürfen daher allenfalls die Haare des Administrators, wenn er sich diese angesichts der zahllosen Möglichkeiten von Datenverlusten, kritischen Performance-Einbußen und Systemausfällen rauft: Anwendungen und Daten müssen rund um die Uhr für den Benutzer zur Verfügung stehen – im heutigen Geschäftsleben ist das Pflicht und nicht etwa Kür.

Die i5 ist sicher genug – oder?

Mit dem Midrange-Flaggschiff der IBM haben Sie sich für eine Server-Plattform entschieden, der das Thema Sicherheit in die Wiege gelegt wurde. Was kann da denn schon passieren? Doch Vorsicht: Die Gefahr des Vertrauens über Gebühr ist groß, denn nicht selten lenkt das durchaus berechtigte Image des soliden Systems von Risiken ab. Daher verwundert es nicht weiter, dass nur etwa die Hälfte aller von uns befragten Leser planen, über den Einsatz der vorhandenen Bordmittel hinaus Vorkehrungen zu noch höherer Verfügbarkeit von Daten und Anwendungen – auch im Netzwerk – zu treffen.

Zahlreiche Fallstricke

Gründe genug für die andere Hälfte gäbe es allemal: Nicht nur die Worst Case-Szenarien wie Brände, Überschwemmungen und sonstige böse Überraschungen sind unser aller Feinde, sondern durchaus auch hausgemachte Störfälle wie solche durch Datensicherungen im Nachtlauf, Erweiterungen auf Seiten der Software, alle Arten von Hardware-Aufstockungen und Reorganisationen der Datenbank. Zu denken ist darüber hinaus an Change Management-Prozesse und den simplen, aber leider allzu oft verletzten Grundsatz, dass nur autorisierte Personen etwas aufspielen dürfen, und das erst nach erfolgreichen Tests.

Gefahr erkannt – Gefahr gebannt

Wichtig ist insbesondere die perspektivische Abschätzung, wie hoch das Schadensausmaß für ein Unternehmen bei welcher Art von Störfall sein kann. Denn erst über die Evaluierung von Risikopotenzialen gelangt man zur eigentlichen Planbarkeit und damit zu konkreten Szenarien mit abgestufter Gewichtung. Darauf aufbauend kann schließlich vor dem Hintergrund der Budgets und Kosten/Negativnutzen-Aspekte aus dem „Was passiert wenn…?“ eine individuelle Prioritätenliste zum Treffen geeigneter Vorkehrungen entstehen.

Hilfe vom Spezialisten annehmen…

Dabei kommt man schnell zur Mutter aller Fragen, nämlich der nach den Indikatoren von Schwachstellen. Sich hier auf die Erfahrung spezialisierter Dienstleister zu verlassen, ist eine Investition in Gegenwart und Zukunft zugleich, denn schließlich wissen diese ganz genau, was zu tun ist, um schon im Vorfeld möglichen Gefahren aus dem Weg zu gehen. Das Spektrum reicht von der Risikoanalyse und -beratung über partielle Dienstleistungen zur Vorsorge, im Betrieb und auch, wenn ein Problem auftaucht, bis hin zur ganzheitlichen Betreuung rund um das Thema Hochverfügbarkeit.

… und von der Expertise profitieren

Die Anbieter haben vieles in petto, so zum Beispiel detaillierte Notfallpläne und erprobte Verfahren zum schnellen Wiederanlauf von Systemen, und mit outgesourcten Datenspiegelungen in speziellen Backup-Rechenzentren lässt sich die Verfügbarkeit der Daten sogar deutlich erhöhen. Dazu Thomas G. Lehder, update Systemintegration GmbH & Co. KG: „Mit modernen Storage-Infrastrukturen lassen sich Katastrophenvorsorge und Hochverfügbarkeit problemlos realisieren. Für die Dienstleister ist wichtig, die Kunden schon in der Planungsphase ausführlich zu beraten. Je nach Ausfallzeit, die sich die Unternehmen vom Geschäftsverlauf leisten können, müssen individuelle Lösungen geplant und diskutiert werden. Der Einsatz sekundärer Rechenzentren sollte dabei bereits am Anfang in die Planung einbezogen werden, auch wenn das beim Projektstart die Möglichkeiten des Kunden überschreitet. Ziel muss es sein, dass beide Rechenzentren produktiv arbeiten und dass den Kundenmitarbeitern für Katastrophenfälle und Umschaltprozesse genaue Übernahmepläne vorliegen.“

i5: besser als iSeries oder AS/400?

Angesichts solcher Risiken ist die i5 nach Einschätzung von Jürg Jelinek, CTO bei der Exogen AG, grundsätzlich hinsichtlich der Verfügbarkeit „nicht besser oder stabiler geworden, als die iSeries es schon war. Denn nach wie vor gilt, dass die i5 kein fehlertolerantes System ist. Sicher erlauben die mit dem neuen POWER5-Prozessor ausgestatteten Systeme eine partielle Steigerung der Verfügbarkeit dank automatischen Abschaltens eines fehlerhaften Prozessors und automatischen Aktivierens eines Stand-by-Prozessors – falls ein solcher überhaupt vorhanden ist. Es existieren aber weiterhin etliche so genannte Single Points of Failure, die architekturbedingt sind und bei einem Defekt einen Stillstand des gesamten Systems verursachen.“ Grundsätzlich, so Jürg Jelinek weiter, reduzierten sich die Risikofaktoren dadurch aber nicht wesentlich. Die i5 sei insofern nicht gegen alle Ausfälle gefeit, wenn sie auch Welten zuverlässiger als vergleichbare Systeme ist. Die neuen, in i5/OS (V5R3 von vormals OS/400) integrierten Möglichkeiten hinsichtlich Verfügbarkeits-Management würden aber eine weitere granulare Implementierung maßgeschneiderter Verfügbarkeits-Lösungen erlauben: „Wer nun denkt, dass damit die Komplexität reduziert worden ist, der irrt sich. Das Thema Verfügbarkeit ist nach wie vor und zunehmend eine technisch hochanspruchsvolle Disziplin, wenn auch die Versprechen einiger Anbieter das Gegenteil suggerieren. Gefragt sind daher wasserdichte Konzepte und ganzheitliche Lösungen – bestehend aus Technologie, Wissen, Erfahrung und administrativen Maßnahmen, zu denen beispielsweise auch die Simulation von Schadensereignissen gehört.“

Schwächstes Glied entscheidet

Dass solche Simulationen mit der Anzahl der abgedeckten Details an Qualität gewinnen, liegt auf der Hand. Daher geht ab und zu im Kauferinger Rechenzentrum von Toolmaker Software im wahrsten Sinne des Wortes das Licht aus. Toolmaker hat als Teil der ISO9000-Zertifizierung zu den (un)regelmäßigen Aufgaben der IT-Abteilung festgelegt, von Zeit zu Zeit und ohne Ankündigung die Hauptsicherungen herauszudrehen. „Bei Datenverlusten geht es um die Existenz unseres Unternehmens“, bringt Geschäftsführer Josef Grünbichler die Bedeutung einer durchgängigen und fehlerfreien Verfügbarkeit seiner aus iSeries und PC-Servern bestehenden Infrastruktur auf den Punkt. Seit einem unwetterbedingten Stromausfall vor etwa zehn Jahren sorgt neben den USV-Geräten für Server und Clients, die einige Minuten Stromausfall überbrücken und den Server herunterfahren können, auch ein vollautomatisch startendes Diesel-Aggregat für Aufrüstung: „Die Wahrscheinlichkeit eines Plattenfehlers ist zwar genau so hoch wie die eines Stromausfalls, aber ersteren kompensiert man schließlich mit Backup-Systemen, die wiederum eine Stromversorgung benötigen“, lautet die plausible Begründung. „Jederzeitige Verfügbarkeit ist für uns enorm wichtig, schließlich haben wir ein paar Tausend Kunden zu betreuen. Daher sind wir seit Jahren auch auf Bauarbeiten, Unwetter und andere Katastrophen vorbereitet.“

Glaube an Technik ist gut – gesunde Skepsis besser

Und wer seine Sicherheitsvorkehrungen nicht überprüft, dem sei eh nicht zu helfen, so der erfahrene IT-Profi weiter. „Ein Switchover muss immer wieder getestet werden, wenn er im Ernstfall reibungslos funktionieren soll.“ Aus dem (kurz)entschlossenen Herausschrauben der Hauptsicherungen hat man bei Toolmaker immer wieder neue Erkenntnisse gezogen; so beispielsweise, dass auch an die Telefonanlage, Modems, Hubs und Rooter zu denken ist, die unbedingt durch USVs abgesichert sein müssen, und dass ein laufender Dieselmotor zwar selbst zündet, zum (automatischen) Anlassen jedoch unbedingt gut geladene Batterien erforderlich sind.

Wie im „richtigen Leben“

Auszeiten kosten bares Geld – diese schlichte Tatsache ist die beste Motivation, etwas in die Ausfallsicherung zu investieren. Aber es ist irgendwie wie im „richtigen Leben“, erst nach dem Verlust wird häufig klar, was man wirklich zu verlieren hatte. Doch zu spät ist zu spät. Wenn der Ernstfall eintritt, müssen alle Vorkehrungen getroffen worden sein. Der Vorteil im IT-Bereich: Hier lassen sich mit entsprechender Voraussicht Testszenarien simulieren und aus den guten oder weniger guten Ergebnissen Konsequenzen ziehen – ein eindeutiger Vorteil beispielsweise gegenüber Lebensgemeinschaften. In diesem Sinne: Viel Vergnügen bei der Lektüre Ihres Midrange Magazins!

M.W.