„Auch Dein Beitrag hat etwas Gutes“, sagt der Lehrer zum Schüler, “und wenn Du nur als schlechtes Beispiel für die anderen dienst” – ein pädagogischer ’Salto rückwärts’, der sich im Rückblick auch auf das Jahr 2000-Problem übertragen lässt. Denn auch Y2K hat etwas gebracht, nämlich die gedankliche Beschäftigung mit einem Leben ohne EDV. Die Hysterie dieser Zeit ist glücklicherweise Vergangenheit. Geblieben ist hingegen die Sensibilität dafür, wie sehr heutzutage die Geschäftsprozesse in irgendeiner Form von der EDV abhängig sind. Für Unternehmen, Organisationen und Behörden gilt gleichermaßen: Ohne IT läuft kaum noch etwas. Diese Tatsache bedingt eine Reihe von Aktivitäten zur Sicherung der Applikationen und Datenbestände sowie zur Gewährleistung des lückenlosen Zugriffs –Hochverfügbarkeit und Security.

Die Systeme verwalten

Ob Betriebssysteme wie OS/400, Linux, Unix und Windows, oder teilweise völlig verschiedene Oberflächen und unendliche Applikationsvielfalt mit den ausgefeiltesten Zugriffsberechtigungen – sowohl über interne Netzwerke als auch remote: Gerade heterogene DV-Landschaften erfordern ein ausgeklügeltes Organisationskonzept, um den harmonischen, aber auch zugleich effizienten Ablauf aller beteiligten Systeme zu sichern. Wer alles im Griff behalten will, erhält von System-Management-Tools wertvolle Unterstützung. Der Netzwerkadministrator kann hiermit von zentraler Stelle aus Fehler beheben, Software auf beliebigen Systemen installieren und aktualisieren, Systemprobleme lösen und im Optimalfall sogar von vornherein vermeiden, aber auch die Software-Benutzung überwachen.

Admin sei wachsam

Zentrale Aufgabe ist das Monitoring zum Erkennen und Protokollieren jeglicher Änderungen an der gesamten Struktur. Dabei erstreckt sich die Überwachung, Dokumentation und Auswertung auch auf elementare Systemdaten wie beispielsweise CPU, RAM und Cache. Auf das Überschreiten von Grenzwerten reagieren die digitalen System-Manager mit detaillierten Warnungen, unter Umständen erfolgen auch automatische, zuvor definierte Gegenmaßnahmen, sei es der Neustart von Applikationen oder auch die Ausführung von Batches. Wenn es gefordert ist, entstehen in Echtzeit komplette Hardware- und Software-Inventare, aus denen die genauen Konfigurationen jedes einzelnen Arbeitsplatzes im Netzwerk ersichtlich sind, ohne dabei die Arbeit der Benutzer zu behindern.

Die Aspekte der SicherheitVor diesem Hintergrund ist das Thema

Sicherheit unter zwei Gesichtspunkten zu sehen. Zum einen sind die Systeme vor unbefugtem Zugriff zu schützen, um sowohl das Ausspähen sensibler Unternehmensdaten als auch deren Manipulation zu verhindern. Zum anderen sichern regelmäßige Datenreplikationen die Anwendungssysteme vor Ausfällen der unterschiedlichsten Art. Dabei ist es unerheblich, ob diese sozusagen ’by accident’ eingetreten sind, also durch Hardwarefehler, Fehlverhalten der Anwender oder – noch extremer – durch Naturkatastrophen und Terroranschläge, oder bewusst hervorgerufen, beispielsweise durch Viren-Attacken. Gemeinsamer Nenner bleibt: Wenn Netzwerke und Rechnersysteme nicht mehr zugreifbar sind, können die Folgen verheerend sein.

Überschätzte Gefahr durch Hacker

Interessanterweise wird die latente Gefahr, Opfer von Hackern zu werden, meistens überschätzt. Denn selten sind diese Angriffe willkürlich, sieht man vielleicht von den Attacken auf Wired LANs ab. Viel eher konzentrieren sich die Hacks auf prominente Opfer, um dadurch selbst entsprechende Publizität zu erlangen, oder aber es bestehen persönliche Gründe wie beispielsweise bei Angriffen durch gekündigte Mitarbeiter. Diese Gefahrenüberschätzung freilich wäre nicht weiter schlimm, denn schließlich kann man ja nicht vorsichtig genug sein. Das Problem ist jedoch die Kehrseite, nämlich die Unterschätzung anderer Risikofaktoren.

Der Mensch, das unbekannte Wesen

Etwa vierzig Prozent aller Datenverluste führen Datenrettungs-Spezialisten auf Bedienfehler zurück. Im Zusammenhang mit dem Faktor Mensch spricht Josef Grünbichler von Toolmaker Software gar von “Sicherheitslücken, die mit OS/400-Bordmitteln nicht zu schließen sind” und rät dringend dazu, unautorisierte Zugriff von innen zu verhindern. Gerade in heterogenen Systemen müsse man heute die Funktionalität vor Fehlbedienungen und Missbrauch durchgängig schützen.

Proaktive Maßnahmen

Letztendlich bleibt es jedoch gleich, an welcher Stelle die Verfügbarkeit der Systeme unterbrochen wird – das Ergebnis zählt, und daher hat der Schutz lückenlos zu sein. Zu diesem Ergebnis kommt auch Hubert Göhler, Geschäftsführer der PentaSafe Security Technologies GmbH. Er plädiert für proaktive Sicherheitsprozesse, wobei Vulnerability- oder zu deutsch Schwachstellenanalysen seiner Meinung nach erst dann effektiv sind, wenn mögliche Probleme regelmäßig analysiert werden: “Meist sind es gerade die unscheinbaren Dinge, die zu großen Problemen führen. Gerade in Zeiten hoher personeller Veränderungen ist das Beispiel Zugriffsberechtigungen zu nennen.” Hier müsse jeder prüfen und für sich entscheiden, ob er mit hohem Aufwand in Eigenregie für eine Absicherung sorgt oder auf entsprechende Tools zurückgreift. “Gerade angesichts enger Personaldecken in den IT-Abteilungen führt der manuelle Weg jedoch leider viel zu oft dazu, diese so wichtigen Aufgaben zu vernachlässigen”, gibt Hubert Göhler zu bedenken.

Ernstfall durchspielen

“In vielen Unternehmen wird die Auswirkung von Systemausfällen schlichtweg unterschätzt”, gibt Heinz-Günter Meser zu bedenken, der bei der KEOS Software Service GmbH die Bereiche Marketing und Vertrieb verantwortet. Dabei sei es im Ergebnis völlig egal, ob Ausnahmevorfälle wie Hagel, Sturm und Blitz zu Ausfällen führen oder ein simpler Plattenfehler. Erst beim Aufspielen der Sicherungen stelle man dann schließlich fest, in wie weit sich ein 24-stündiger Ausfall überhaupt wiederherstellen ließe, denn schließlich laufen die Prozesse unabhängig von der Zäsur auf der IT-Seite im Unternehmen permanent weiter. “Die Geschäftsprozesse haben sich zunehmend internationalisiert und verzahnt, so dass das Abschalten der iSeries zu Service-Zwecken in vielen Fällen ausgeschlossen ist”, so Heinz-Günter Meser weiter. Zu jeder Desaster Recovery-Planung gehöre es daher dazu, die Datenrettung einschließlich der Wiedereinspielung der Sicherungsdaten zu simulieren, um im Fall der Fälle keine bösen Überraschungen zu erleben.

Angeklickt

Produkte und Dienstleistungen zu den Themen Security und Hochverfügbarkeit? Werfen Sie doch einen Blick in Ihren Midrange Solution Finder!

Offen wie ein Scheunentor?

Bösen Überraschungen sollte man auf alle Fälle auch im Bereich Mobile Computing entgegenwirken. Web- und E-Anbindung haben zwar einen ganz entscheidenden Beitrag zur zeit- und ortsunabhängigen Verfügbarkeit der Systeme geleistet; im Gegenzug bringen sie jedoch mit ihren Internet-Clients, der Integration von Mobile Phones, Handhelds und sonstigen mobilen Endgeräten auch eine Vielzahl an potenziellen Sicherheitslücken mit sich, die es zu versiegeln gilt, noch bevor sie überhaupt auftreten können. Um die Hochverfügbarkeit im Web entsprechend abzusichern, existieren die unterschiedlichsten Ansätze. Ein Beispiel hierfür sind Passwords mit temporären Gültigkeitsdaten oder auch Einmal-Zugangscodes, die ihre Gültigkeit analog der vom Online-Banking bekannten TAN-Systeme nach jedem Einloggen verlieren.

Unternehmensstrategische Aufgabe

Die Beschäftigung mit diesem heiklen Thema gehört zunächst zur obersten Pflicht für den IT-Manager. Die starke Abhängigkeit des Unternehmens von der eingesetzten DV, die in aller Regel nicht weniger als die Geschäftsprozesse abbildet, bringt weitere Brisanz ins Spiel. Aus diesem Grund avancieren Hochverfügbarkeit und Security über die Grenzen der IT-Abteilungen hinaus zur Chefsache. In diesem Sinne wünschen wir Ihnen viel Vergnügen bei der Lektüre Ihres Midrange Magzins.