Im ersten Teil des Beitrags zu Stammdatenmanagement ging es um Nachteile bestehender Praktiken bei digitalen Transformationsprojekten. Der zweite Teil behandelt nun die Frage, wie der Weg zum datengesteuerten Unternehmen gelingen kann.

Mit Hilfe des Konzepts der Datenvirtualisierung und der dazugehörigen Technologien lässt sich das klassische Stammdatenmanagement aus seinem Korsett befreien, so dass MDM seine entscheidende Rolle auf dem Weg zum datengesteuerten Unternehmen spielen kann. Vereinfacht ausgedrückt kann Datenvirtualisierung die Metadaten aus allen Datenquellen und IT-Systemen extrahieren und damit automatisiert den technischen Teil eines Datenkatalogs befüllen.

Im zweiten Schritt kann Datenvirtualisierung über virtuelle Sichten die Daten des Unternehmens über IT-Systeme hinweg in einem einheitlichen und harmonisierten Datenmodell zur Verfügung stellen, auch wenn die Daten in den darunterliegenden IT-Systemen völlig anders aussehen. Diese virtuellen Sichten bilden auch die Grundlage für die fachlichen Beschreibungen des Zieldatenmodells im Datenkatalog.

Darüber hinaus wird Datenvirtualisierung dazu verwendet, transaktionale Daten und zugehörige Masterdaten für die unterschiedlichen Datenkonsumenten zur Verfügung zu stellen. Da die virtuellen Sichten sehr einfach und schnell auf Basis der Metadaten erstellt werden können, ist das Verfahren agil und bestens auch für Self-Service geeignet.

Die Nutzer eines derart weiterentwickelten Stammdatenmanagements müssen für Abfragen und Auswertungen nicht mehr auf die Spezialisten warten, bis diese die Daten aus den verschiedenen Töpfen extrahiert, transformiert und in ein zentrales System geladen haben. Sie können dadurch ihre Abfragen jederzeit vornehmen und erhalten dabei auch Zugriff auf Systeme, mit denen sie nie oder nur selten arbeiten, um einen möglichst umfassenden und vollständigen Blick auf die Daten von Kunden, Produkten, Lieferanten etc. zu bekommen.

Außerdem und ganz wichtig sind die Daten stets aktuell, weil sie direkt aus den Live-Systemen stammen. Das Wichtigste aber ist: Die Anwender müssen keine Datenspezialisten mehr sein – der Schlüssel für unternehmensweite Datenanalysen und eine der zentralen Voraussetzungen für das datengesteuerte Unternehmen.

Doch auch die Datenspezialisten profitieren von der Kombination aus Stammdatenmanagement und Datenvirtualisierung. Denn sie müssen nicht mehr die einzelnen Silos durchforsten, um die für die jeweiligen Abfragen relevanten Datensätze zu identifizieren und für die Analyse aufzubereiten. Dauerte es in der Vergangenheit teilweise mehrere Wochen, bis die Spezialisten eine Bestandsaufnahme der Datenquellen angefertigt und die ETL-Skripte geschrieben und getestet hatten, reduziert Datenvirtualisierung diesen Aufwand auf einen Bruchteil der bisher benötigten Zeit, da es sich im Kern um eine föderierte Suche über die verschiedensten Datenquellen hinweg handelt. Sie gewinnen dadurch wertvolle Zeit, um ihre Kollegen beim Aufsetzen und Verfeinern der Datenabfragen zu helfen.

Einheitliche Dateninfrastruktur für datengesteuerte Unternehmen

Eine Plattform für eine einheitliche Dateninfrastruktur, die Stammdatenmanagement mit Datenvirtualisierung vereint, befreit die Datenanalyse aus ihrem Elfenbeinturm des Spezialistentums und stellt Daten und dazu gehörige Auswertungsmöglichkeiten allen Unternehmensbereichen zur Verfügung.

Außerdem sorgt eine solche Plattform dafür, dass die Daten jeweils aktuell, konsistent und korrekt sind. Sie sorgt somit nicht nur für den Zugang, sondern auch die Qualität der Daten, die beide notwendig sind, damit sich Unternehmen auf der Basis ihrer Daten steuern lassen. Ohne „MDM reloaded“ bleiben die Ziele digitaler Transformationsprojekte unerreichbar.

Zu denn Eigenschaften einer einheitlichen Dateninfrastruktur gehören die folgenden Aspekte:

  • Datenzugriff auf jede Art von Daten: Unabhängig davon, ob es sich um strukturierte oder unstrukturierte Daten handelt, ob um Transaktions- oder Streaming-Daten aus IoT-Systemen, kann eine einheitliche Dateninfrastruktur mit ihnen umgehen.
  • Daten-Governance ohne Kompromisse: Eine einheitliche Dateninfrastruktur sorgt dafür, dass sich Daten mittels Metadaten einfach identifizieren lassen und dass sich sensible personenbezogene Daten oder Kreditkarteninformationen vor unerlaubtem Zugriff schützen lassen.
  • Datenqualität in sechs Dimensionen: Sogar unter Datenprofis herrscht keine letzte Einigkeit über die verschiedenen Dimensionen der Datenqualität. Doch sechs davon werden allgemein anerkannt: Vollständigkeit (die Infrastruktur enthält sämtliche relevanten Daten), Sparsamkeit (die Datensätze liegen nicht öfter als nötig vor), Aktualität (die Daten spiegeln den aktuellen Stand der Dinge wider), Gültigkeit (die Daten gehen mit der definierten Syntax konform), Korrektheit (die Daten beschreiben das reale Objekt oder Ereignis korrekt) sowie Konsistenz (beim Vergleich von zwei oder mehr Datensätzen zu einem Objekt oder Ereignis ergeben sich keine Unterschiede).
  • Eine einheitliche Dateninfrastruktur erlaubt den konsistenten und kontrollierten Datenaustausch zwischen Geschäftsbereichen. Das bedeutet, dass die Daten gleichermaßen für Betrieb, Analysen oder Governance-Zwecke genutzt werden können, ohne Abstriche bei der Korrektheit machen oder sich um unterschiedliche Formate kümmern zu müssen.
  • Eine einheitliche Dateninfrastruktur kommt mit bestehenden Technologien zurecht. Nur wenige Unternehmen und Organisationen sind in der Lage, alle Bestandssysteme durch neue zu ersetzen, in denen Daten entstehen und verarbeitet werden.
  • Eine einheitliche Dateninfrastruktur passt sich an sich verändernde Geschäftsanforderungen an. Die Technik entwickelt sich immer weiter, die Unternehmen agieren in zunehmend digitalisierten Märkten. Die Anpassungsfähigkeit der Dateninfrastruktur ist genauso entscheidend wie die Anpassung der Unternehmen an veränderte Marktbedingungen.

Bob Eve ist Senior Data Management Strategist und Ulrich Hatzinger Manager Technical Solutions Consultants in der Region Central Europe von TIBCO Software.

TIBCO Software