Nicht alle haben es noch selbst erlebt, aber zumindest davon gehört – von der Zeit, als Datenerfassung noch bedeutete, zuerst einen Erfassungsbeleg von Hand auszufüllen und anschließend auf Lochkarten zu übertragen, die dann in der zentralen EDV-Anlage verarbeitet wurden. Das Thema Datenverlust war damals so gut wie unbekannt: Von wichtigen Lochkarten wurden Kopien erstellt, und außerdem waren ja die Erfassungsbelege auch noch da. Die Daten standen also alle redundant zur Verfügung.

Der Grund für diese Vorgehensweise ist einfach: Es war bekannt, wie leicht eine Lochkarte mechanisch beschädigt werden konnte. Auf diese Weise schützte man den wertvollen Datenbestand – der sich im Übrigen zur damaligen Zeit noch als deutlich weniger umfangreich erwies als heute. Auch die Erfassungsbelege wurden abgelegt und nicht sofort vernichtet. Das Vertrauen in die Technik war damals – durchaus berechtigt – anscheinend weitaus geringer.

Auch zu Zeiten der Wechselfestplatten wurden wichtige Disks kopiert und separat gelagert. Der eine oder andere erinnert sich vielleicht noch an das hässliche Geräusch, wenn der Lesekopf dazu überging, die Daten mittels Feinzerspannungstechnik physisch von der Plattenoberfläche zu „lesen“ – ein Ansatz, der leider nie zielführend war.
Heute sind viele der damaligen Probleme gelöst. Über einen Platten-Crash macht man sich eigentlich kaum noch Gedanken; dafür gibt es RAID-Schutz. Es sei denn, man stellt fest, dass die Platte im Notebook überraschenderweise doch keinen RAID-Schutz hat.

Mit anderen Worten: In der heutigen Zeit liegen Datenverlustprobleme nicht mehr primär bei der Hardware. Die Auswahl möglicher Ursachen ist wesentlich breiter geworden. Deshalb soll in diesem Artikel auch nicht einmal mehr das Szenario des Erdbebens, des Großfeuers oder der Überschwemmung an die Wand gemalt werden. Sondern es geht um die zwar weniger spektakulären, aber dafür umso häufigeren kleinen Ursachen für Datenverluste.

Dazu sei zunächst einmal bemerkt, dass die nachfolgende Aufstellung beliebig erweiterbar ist und die Reihenfolge nicht mit der Häufigkeit oder der Wirkung korreliert. Denn sowohl Häufigkeit als auch Wirkung sind individuell zu betrachtende Größen; die Ursache als solche hat jedoch immer ihre Gültigkeit.
Von Datenverlust redet man übrigens immer erst dann, wenn Daten effektiv und unwiederbringlich verloren sind, also keine Zweiterfassung möglich ist. Demnach entsteht also Datenverlust, wenn Daten direkt am Telefon in das System eingegeben werden und danach wieder verloren gehen, denn niemand ist in der Lage, sich alle diese Daten zu merken. Eine ähnliche Konstellation ergibt sich bei Datenaustausch via EDI. Diese Daten tauchen vollautomatisch auf dem System auf. Gehen sie verloren, bevor sie gesichert werden, sind sie nicht nur verloren – der Systemverantwortliche weiß nicht einmal, dass es sie je gab. Ein weiteres Beispiel sind Bestellungen, die direkt via Web-Shop oder zentralem Buchungssystem, beispielsweise im Reisebereich, ausgelöst werden.

Neben dem effektiven Datenverlust besteht aber noch ein weiterer Problemkreis: die Daten-Konsistenz, insbesondere die Daten-Integrität. Immer mehr moderne Applikationen bringen es mit sich, dass sie aufgrund der Integration von Textverarbeitung und Datenspeicherung in Datenbanken Informationen auf verschiedenen Servern und Dateisystemen ablegen. Geht ein Teil dieser Informationen verloren, ist der entsprechende Datenbestand inkonsistent geworden. Eine Konstellation, die oft gravierende Probleme nach sich zieht, da die Applikationen in der Regel nicht darauf programmiert sind, mit inkonsistenten Datenbeständen korrekt zu funktionieren. Das wäre etwa so, als ob man von einem Auto verlangt, trotz Verlust eines Rades und der Hälfte des Motors unverändert weiter zu funktionieren.

Diesen Konstellationen und Anforderungen ist also bei der Wahl einer geeigneten Lösung ebenso Rechnung zu tragen wie den Aspekten Katastrophe oder Totalausfall des Rechenzentrums.
Darüber hinaus gibt es zwei Entwicklungstendenzen, die sich grundsätzlich diametral gegenüberstehen: Auf der einen Seite der Wunsch der Anwender nach mehr Komfort, mehr Funktionen, höherer Integration, mehr Automatisierung und zusätzlichen Informations- und Datenquellen, die nach immer größeren Speichern verlangen, sowie die Forderung nach ständig erweiterten Produktionszeiten – immer häufiger im Bereich von 24 Stunden an 7 Tagen pro Woche – und eine sowohl intern als auch extern permanent zunehmende Vernetzung.
Auf der anderen Seite steht der Wunsch oder fast schon Zwang, konsistente Datensicherungen durchzuführen. Denn am Ende zählt nicht die Datensicherung, sondern die Möglichkeit, einen Datenbestand wiederherstellen zu können! Oder, wie dies einmal sehr treffend von einem EDV-Leiter formuliert wurde: „Eigentlich interessiert mich der Backup gar nicht. Ich will nur eine Garantie, dass ich korrekt zurückspeichern kann, wenn es sein muss!“

Zusammenfassend müssen also folgende Aspekte Berücksichtigung finden:

  • Verteilte Datenhaltung
  • Vernetzung
  • Automatischer Datenaustausch
  • Datenvolumen
  • Betriebszeitenanforderungen

    Fällt nun eine dieser vernetzten Systemkomponenten aus, entsteht praktisch immer ein Datenverlust mit allen Konsequenzen. Entgegen einer weit verbreiteten Meinung ist das größte Problem nämlich nicht die Zeit nach dem Ausfall der Infrastruktur, sondern die Zeit davor! Nach dem Ausfall kann man sich sehr oft mit Umgehungslösungen, Notfallplänen etc. behelfen. Für die Zeit davor nützt dies leider gar nichts.

    Nimmt man alle diese Faktoren zusammen, wird sehr schnell deutlich, dass hier so etwas wie die „eierlegende Wollmilchsau“ gefordert ist. Zum Glück stellt die IT-Industrie auch im Bereich High Availability mittlerweile eine Vielzahl möglicher Lösungsansätze zur Verfügung. Von einigen Gedanken und Ideen sollte man sich aber verabschieden, bevor man sich intensiver mit dem Thema befasst. Denn weder gibt es diese einzige, universelle Lösung, die alle Anforderungen unter einen Hut bringt, noch wird es wohl je den Lösungsansatz geben. Die Lösung muss so individuell gestaltet sein wie das Unternehmen, dessen Anforderungen abgedeckt werden sollen. Und auch hier gilt, dass man mit ein paar Tools möglicherweise etwas „basteln“ kann. Der Preisunterschied zwischen den einzelnen Möglichkeiten entspringt aber nicht der Überheblichkeit einzelner Anbieter, sondern liegt im Gehalt insbesondere der Funktionalität begründet. Da aber der (vermeintlich) billige Ansatz am Ende sehr teuer werden kann, empfiehlt es sich daher, das Preis-/Leistungsverhältnis genau zu betrachten und dann die günstigste, nicht die billigste Lösung zu wählen.

    Die weitest entwickelte Produktpalette für die Realisierung hochstehender Verfügbarkeits-Management-Lösungen kommt vom amerikanischen Hersteller Vision Solutions, Inc. In Irvine, CA, Partner des Ulmer Software und Systemhauses FRITZ & MACZIOL. Unter dem Namen ORION stehen Module für alle relevanten Betriebssysteme und Datenbanken wie i5/OS (OS/400), MS Windows, Linux und AIX zur Verfügung. Sämtliche Umgebungen werden dabei unter einer zentralen, grafischen Management-Oberfläche verwaltet. Unter der gleichen Oberfläche lässt sich auch ein Modul für die Replikation heterogener Datenbanken integrieren, um auch den Anforderungen nach der Verfügbarkeit von Daten in unterschiedlichen Datenbanken gerecht zu werden.

    Als Hardware-basierende Lösungen stehen Replikations-Techniken der Speicher-Subsysteme (PPRC, Metro Mirror) oder aber Replikations-Mechanismen via TCP/IP (Cross Site Mirroring) zur Verfügung. Diese Lösungen sind ausgereift und funktional, erfordern aber im Katastrophenfall oft einen Skript-gesteuerten oder manuellen Eingriff, was in vielen Fällen durchaus ausreichend und tolerierbar ist.
    Auf Basis dieser Produkt-Palette lassen sich integrierte, bestens auf die individuellen Anforderungen abgestimmte Verfügbarkeits-Management-Lösungen bauen, die sich in homogene wie heterogene System-Landschaften optimal einfügen und sich sehr einfach und ohne nennenswerten Mehraufwand bedienen und betreiben lassen. Dabei werden die vielfältigsten Aspekte mit berücksichtigt wie Katastrophen-Vorsorge, 7×24-Stunden-Betrieb, ausgelagerter Backup, Daten-Konsolidierung und -Verteilung und beliebige Kombinationen davon. Der Vorteil für die Anwender liegt dabei darin, dass die geforderten Eigenschaften so abgedeckt werden, dass kein Over-Engineering betrieben werden muss. Daraus ergibt sich ein perfektes Preis-/Leistungs-Verhältnis und die Gewissheit, das Optimum für die Sicherheit des Unternehmens getan zu haben.

    Fachautor: Martin A. Meier