Verführerisch ist der Gedanke, dass Hochverfügbarkeit und Sicherheit sich allein durch Technologie sicherstellen ließen. Aber es geht um viel mehr: Menschen, gute Gelegenheiten und Geschäftsprozesse sind in die strategischen Gedanken einzubeziehen – neben der Technologie. Im Blickpunkt der zu vermeidenden Szenarien steht immer der Single Point of Failure. Doch der kann auch durch die Kombination verschiedener Auslöser „geschäftskritisch“ werden. „Rien ne va plus“ – wenn die IT nicht funktioniert, hat das nicht nur Einfluss auf die internen Prozesse. Seit mehr als 35 Millionen Deutsche „online“ sind und auch ihre Einkäufe auf diesem Wege erledigen, erreichen auch die Hochverfügbarkeitsansprüche neue Dimensionen. „Dieser Service ist vorübergehend nicht erreichbar. Bitte versuchen Sie es später noch einmal“ – solche Aussagen sind am Mobiltelefon nervig, im e-Commerce kostet ein „Try again“ Kunden. Und selbst wenn es vor dem Hintergrund dieser Fantasien fast zweitrangig scheint: Auch ein internes „Work again“ kommt die Unternehmen teuer zu stehen.
Da haben wir den Salat
Wenn die Systeme nicht verfügbar sind, ist das für den einen eine Katastrophe, für andere ein Desaster. Deshalb wird viel Zeit und Geld in den Aufbau von Infrastrukturen gesteckt. Hochverfügbarkeitstechnologien wie Clustering gehören zu den ersten Schritten auf dem Weg zur Vermeidung der Single Points of Failure. Desaster Recovery-Konzepte widmen sich meist dem Verlust des gesamten Rechenzentrums. Um für derlei Ausfälle gerüstet zu sein, werden Business Continuity-Pläne entwickelt. Die sollen sicherstellen, dass selbst Desaster nicht in einer Katastrophe enden. All diese Begriffe sind uns wohl bekannt – mehr als vier Jahre ist es her, seit sich quasi jeder mit dem Weltuntergangssynonym Y2K auseinander setzte. Doch seitdem hat sich einiges getan.
Der Kunde ist immer überall
Im internationalen Wettbewerb diktiert das e-Business die Erwartungen an die Hochverfügbarkeit. Die Unternehmen haben verstanden, dass die weltweite Wirtschaft nichts anderes als ein vernetzter Marktplatz ist. Sie wissen auch, dass sie eine verfügbare und optimal leistungsfähige Infrastruktur benötigen, um jederzeit mit diesem Einkaufszentrum verbunden zu sein.
Der Druck lastet am Ende auf den Netzwerkadministratoren. Sie müssen die Verfügbarkeit, das Wohl und die Leistung der Netze und Web-Infrastrukturen nicht nur sicherstellen, sondern garantieren können. Ohne adäquates Management werden selbst die kritischsten Applikationen nutz- und teuerste Systeme wertlos. Doch die Komplexität der Netzwerke steigt: neue Komponenten, neue Anwendungen, neue Protokolle. In diesem Zusammenhang darf auch die „neue Bandbreite“ nicht vergessen werden, damit die umfangreichen Prozesse nicht im Nadelöhr stecken bleiben. Dennoch muss der Admin die Netzwerke verfügbar halten – der Kunde akzeptiert keine Downtime mehr, aus welchem Grund auch immer.
Den Überblick behalten
Das typische Netzwerk vereint in sich eine Vielzahl an Plattformen, Betriebssystemen, Protokollen und Architekturen. Oftmals sehen sich die Administratoren sogar gegensätzlichen Anforderungen gegenüber: Verfügbarkeit- und Leistungsversprechen versus Kostenkontrolle. Sie müssen Sicherheit garantieren und dabei eine zunehmend unübersichtliche Umgebung im Griff haben; sie müssen den Zugang gleichzeitig kontrollieren und erleichtern. Heute sind die Netzwerke oft so verteilt, dass es ohne Monitoring-Tools unmöglich ist, über Fehlerfreiheit oder Disconnection der einzelnen Komponenten zu entscheiden. Falsch konfigurierte Geräte, nicht autorisierte Anwendungen oder auch falsche Bedienung können die Ressourcen erschöpfen. Selbst „Kleinigkeiten“ wie nicht autorisierte Modems können die Verfügbarkeit aus dem Gleichgewicht bringen, sie stellen zudem ein Sicherheitsrisiko dar.
Vor jeder Investition in Lösungen sollte eine Bestandsaufnahme der Einzelkomponenten durchgeführt werden, die kontinuierlich wiederholt werden muss: Wer nicht weiß, welche Geräte er nutzt, wie sie verbunden sind und welche „Verantwortung“ sie tragen, kann sie auch nicht vernünftig managen. Das Ergebnis sind genervte User, enttäuschte Kunden und Umsatzverluste.
Einkaufstour
Die Kosten für Software, Hardware, Infrastruktur und Implementierung sind explodiert. Zwischen 1990 bis 1995 stiegen sie um durchschnittlich 56 Prozent, schnellten dann zwischen 1996 und 2001 um weitere 220 Prozent nach oben, wie Analysten der Investment Technology Group ermittelten. Zwar verblüffen die meisten Einzelkomponenten durch ihre zunehmende Miniaturisierung, dennoch wird immer mehr Platz für „die IT“ benötigt. So mancher hat für jede einzelne Aufgabe einen eigenen Server angeschafft, eine „Unart“, der die IBM weiterhin mit ihren berüchtigten Konsolidierungskampagnen beikommen will.
Spezialangebote, wie wir sie unter anderem aus der Greenstreak II Initiative kennen, winken mit Preisvorteilen. Wer zum Beispiel den eServer i810 als Hochverfügbarkeitsserver nutzen will, kann hier mit deutlichen Preisvorteilen rechnen. Dasselbe gilt für die „Prozessor on Demand“-Aktivierung, sobald mehr als ein Standby-Prozessor aktiviert wird. Das Hinzuschalten von Leistung nach Bedarf erfreut sich wachsender Beliebtheit – und hat sich schon bei so mancher Availability-Krise gerechnet.
Lösungen – hier sind sie
Die in die iSeries quasi eingebaute Hochverfügbarkeit lässt sich durch verschiedene Tools noch deutlich steigern. Alle Lösungen sind im Midrange Solution Finder via www.midrangemagazin.de zugänglich. Dort sind unter anderem Details zu VISUAL Support hinterlegt, das Tool dient zur automatisierten Fehlererkennung, -analyse und -behebung. Es ermöglicht optimierte Verfügbarkeit für iSeries-Applikationen, für zentrale Maschinen und dezentrale Systeme. Als Programm zur Fehlersuche hat sich VISUAL Message Center etabliert: Es überwacht beliebig viele iSeries-Systeme, sowohl im Dialog- als auch im Batch-Betrieb. Warnmeldungen werden automatisch z.B. via e-Mail oder SMS verschickt. Die Lösung ist internetfähig, sodass Fehler von jedem beliebigen Ort aus entdeckt und behoben werden können.
Auch MiMiX für OS/400 nimmt sich der Hochverfügbarkeit an. Die Lösung bietet zentrale Management- und Überwachungsfunktionen, Ausfall- und Katastrophenschutz, standardisierte Disaster-Recovery-Maßnahmen und hilft bei der Bewältigung hoher Transaktionsvolumina. Als „Spieglein“ dient die High Availability Suite – ein System, das Ausfallsicherheit für Daten und Anwendungen in Echtzeit durch Mirroring von iSeries-Objekten und -Datenbanktransaktionen auf ein oder mehrere Recovery-Systeme bietet. DBShadow spiegelt Daten zeitversetzt auf einem zweiten System, schützt also auch vor logischen Problemen wie Programm- oder Anwenderfehlern. Tritt ein Problem auf, wird der letzte korrekte Stand festgestellt und die Spiegeldatenbank mit den entsprechenden Daten hochgefahren. DBMoto dient der Echtzeit-Datenreplikation zwischen iSeries, DB2 UDB, MS SQL Server, Oracle, Sybase, MS Access oder MySQL – durch automatische Spiegelung oder zeitgesteuerte Datenübertragung.
Mit Sicherheit
Die Sicherheitsanforderungen im Mittelstand steigen – bedrohungsgetrieben, wie nicht zuletzt der Siegeszug von „MyDoom“ beweist. Lange Zeit waren Viren und Co. ausschließlich ein PC-Problem – der iSeries wurde Immunität bescheinigt. Seitdem die Maschine fleißig mit anderen Plattformen interagiert, ist aber auch sie angreifbar geworden. Nicht nur das IFS (Integrated File Systems) kann als Türöffner für Infektionsherde verstanden werden.
Auch die Mobilität der User stellt hohe Anforderungen an die Vorstellungskraft der IT-Verantwortlichen: Da dockt der Außendienstler im ungeschützten HotSpot an – und was nun? Das Thema WLAN wird in Sachen Sicherheit künftig nicht nur intern eine Rolle spielen, Virtual Private Networks sind gefragt, sie garantieren das Surfen im sicheren Tunnel. Welche Lösung auch immer implementiert wird, an irgendeinem Punkt muss sich jeder auf die Cleverness seiner User verlassen. Der Mensch spielt also auch in Sachen Hochverfügbarkeit und Security eine große Rolle – größer, als so manchem CIO lieb ist.
M.W.