Angetrieben von der unerbittlichen Geschwindigkeitszunahme in der globalen Wirtschaft haben viele Unternehmen den Zugriff auf kritische Informationen erheblich erleichtert und damit ihren Entscheidungsträgern eine neue Ressource offeriert: Business Intelligence (BI). Die möglichst zeitnahe Transparenz zentraler Geschäftsergebnisse und werttreibender Faktoren hat einen Haken: Nicht selten werden Äpfel mit Birnen verglichen. Eine größere Kundennähe zu erzielen und flexibler auf die individuellen Wünsche im Absatzmarkt reagieren zu können, motiviert Unternehmen derzeit ebenso stark zum Aufbau entscheidungsgerechter Informationsstrukturen wie die Chance, sich im Wettbewerb nach vorn zu orientieren. Der Vorteil von BI: Während Daten aus bislang unbekannten Perspektiven betrachtet werden können, eröffnen zeitnahe bereichsübergreifende Analysen neue Marktpotenziale und lassen zugleich das operative Geschäft wesentlich transparenter erscheinen.

Rohdaten umformen

Doch so einfach, wie es scheint, ist es nicht. Um Rohdaten in entscheidungsrelevante Informationen umzumünzen, ist mehr erforderlich als ein bunte Grafiken produzierendes Tool für Endanwender. Ihre Frustrationstoleranz ist ausgereizt. Mussten sie sich über viele Jahre mit Berichten und Auswertungen abfinden, die mit unerträglichem Aufwand und empfindlichen Zeiteinbußen verknüpft waren, stellen sie nach Einführung von modernen Management-Informationssystemen (MIS) oder Decision Support Systemen (DSS) ernüchtert fest: Was die bunten Bildchen und Charts versprechen, ist unseren Anforderungen und Erwartungen überhaupt nicht gewachsen.

Wer tatsächliche Entscheidungserleichterung anstrebt, muss also die gesamte IT-Architektur auf den Datenzugriffs- und Analyseprozess ausrichten. Von punktuellen Spielereien, ohne jegliche Anbindung an operative Systeme, ist dies nicht zu erwarten. In der Regel weisen Unternehmen heterogene Datenlandschaften auf. Für die Einspeisung von Rohdaten in zentral gehaltene DataWarehouse-Systeme oder abteilungsspezifische DataMart-Lösungen stehen zum Beispiel operative Transaktionssysteme (OLTP-Systeme), SAP-Datenbanken, individuell entwickelte Lösungen auf Basis von Microsoft Access, CRM-Anwendungen oder externe Daten aus der Marktforschung zur Verfügung. Neben solchen Quellsystemen existieren zahlreiche Insellösungen, bisher themenbezogen in Fachbereichen (z. B. Projekte in Materialwirtschaft, Planung, CRM) genutzt, die nun ebenfalls in den BI-Kreislauf eingespielt werden sollen. Doch diese Zusammenführung ist ein Kraftakt.

Metadatenmanagement

Voraussetzung für eine konsistente Datenbasis ist das so genannte Metadaten-Management. Zunächst wird ein Datenmodell definiert, etwa ein Star- oder Snowflake-Modell, um logische Zusammenhänge von Datenbanktabellen darzustellen. Snowflake-Strukturen sind komplexer als Star-Gebilde, was zu Leistungseinbußen beiträgt. Auf der anderen Seite lassen sich aber mehr beschreibende Daten zusammenfassen, was die Datenpflege erheblich vereinfacht.

Auf die Datenqualität kommt es an

Auf die Modellierung folgen Extraktion, Homogenisierung und Konvertierung des Datenmaterials aus verschiedensten Datenquellen. Dabei werden Metadaten erzeugt. Abgelegt in einer Repository-Datenbank, beschreiben sie die eigentlichen Daten aus fachlicher und technischer Sicht, also beispielsweise ihre Herkunft, wann sie bereitgestellt worden sind oder welche fachliche Funktion sie besitzen. Besonders wichtig ist die Datenqualität, insbesondere in geschäftlicher Hinsicht. Weist der Datenbestand Konsistenz auf, ist damit zugleich ein hohes Maß an Widerspruchsfreiheit gesichert. Qualität zeigt sich auch in der Vollständigkeit des Datenbestands sowie in der Genauigkeit etwa bei der Anzahl von Nachkommastellen oder bei tagesaktuellen Werten. Schließlich sind Zuverlässigkeit sowie Glaubwürdigkeit ganz wichtige Gradmesser der Datenqualität. Damit Fehlbuchungen, Rücksendungen und daraus resultierende Kosten erst gar nicht entstehen, müssen Zahlen, Namen und Adressen stimmen. Man braucht kein Fachmann zu sein, um ermessen zu können, dass der Teufel im Detail steckt: Ein Geschäftsbrief mit der Anrede “Sehr geehrter Herr Druckerpatronen GmbH & Co. KG” ist mehr als peinlich.

Solche Probleme sind keineswegs exotischer Natur, schließlich lassen sich dafür täglich neue Beispiele finden. Vernachlässigen Unternehmen die Qualität ihrer Daten, geben sie sich nicht nur der Lächerlichkeit preis, vielmehr droht ihnen auch der Verlust von Kapital und Effektivität.

Erhebliche Erleichterung versprechen dagegen standardisierte ETL-Tools. Lösungen wie Cognos DecisionStream automatisieren diese Vorgänge und tragen entscheidend dazu bei, dass Anwender eine einheitliche und unternehmensweite Sicht auf alle Geschäftsdaten gewinnen und Datenchaos von vornherein keine Chance hat. Favorisiert werden diese Werkzeuge in Mainframe- und Unix-Umgebungen, kommen aber auch in Windows-basierten sowie zunehmend in Web-Umgebungen zur Anwendung. Insbesondere Unternehmen der Telecom-Industrie wollen durch “Clickstream”-Analysen die pro Tag auf ihrer Website entstehenden Massendaten auswerten, weshalb sie auf ETL nicht verzichten können.

Dimensionen statt Kennzahlen

ETL mit einem standardisierten Werkzeug sollte frei sein von Restriktionen. Der ETL-Prozessor von Cognos DecisionStream läuft etwa unter HP-UX, Sun Solaris, IBM AIX, Compaq Tru64, Windows NT und Windows 2000. Dabei spielt sich der Transformationsprozess auf einer grafischen Benutzeroberfläche ab. Konzeptionell wird wie bei allen anderen Cognos-Lösungen der dimensionale Ansatz verfolgt. Dabei enthalten Dimensionen Stammdateninformationen, die auf dem Bildschirm einen Zahlenwert ergeben, etwa als Bezeichnung für ein Produkt, das ein Kunde zu einem bestimmten Zeitpunkt gekauft hat. Zwar sind Kennzahlen wichtig, weil sie im Controlling oder Rechnungswesen im Mittelpunkt stehen. Will man aber heterogene Daten zusammenführen, benötigt man gleiche Strukturdaten, wie sie nur von Dimensionen angeboten werden.

In der Praxis eignet sich die Lösung für schnelles Prototyping. Gemeinsam mit Anwendern werden aus der Standard-Oberfläche heraus erste Lösungen entwickelt und dann durch Zugriff auf die im System integrierte Funktionalität verfeinert. Das Werkzeug hilft also Anwendern auf unterschiedlichen Ebenen, ihre Bedürfnisse sofort in überzeugende Lösungen umsetzen zu können, und bietet damit eine Alternative für das zeitaufwendige Verfahren von Ist-Analyse und Soll-Konzept. Dies gilt zumindest für Prototypen, Projektplanung und kleinere Projekte. Bei Großprojekten sind Realisierungskonzept und Grobkonzept unverzichtbar. Leider sind viele Großunternehmen mit dem Problem konfrontiert, dass ihre Fachabteilungen nicht einheitlich argumentieren, sondern eher die DV-Abteilung darum bitten, etwas Interessantes zu präsentieren. Diesen kontraproduktiven Effekt sollte man nicht unterschätzen.

Cognos GmbH

D–60528 Frankfurt

Telefon: (+49) 069/665 60-0

www.cognos.com/de