Wenn von digitalen Transformationsprojekten die Rede ist, kann man sich oft nicht des Eindrucks erwehren, dass dabei das Pferd von hinten aufgezäumt wird. Wer jedoch die dafür nötige und weiterentwickelte Disziplin des Stammdatenmanagements nicht beherrscht, kann die hochgesteckten Ziele nicht erreichen.

Wenn es um digitale Transformationsprojekte geht, ist viel von neuen Geschäftsprozessen und -modellen die Rede, die auf der Basis von allgegenwärtigen und alle Bereiche durchdringenden digitalen Daten gesteuert werden. Sicher, die Daten sind in unterschiedlichen Graden bereits vorhanden. Doch um sie im gewünschten Sinne nutzen zu können, sind gewisse Voraussetzungen zu erfüllen, denen die aktuelle Situation in den Unternehmen im Wege steht.

Die meisten Unternehmen betreiben eine Vielzahl an unterschiedlichen IT-Systemen und Datenbankumgebungen mit unterschiedlichen Datenstrukturen und -formaten. Das ist per se nicht schlimm, im Gegenteil, schließlich erfüllen diese unterschiedlichen Systeme und Umgebungen spezifische Aufgaben, zu deren Erledigung sie optimiert wurden. Der Preis dieser Silos ist jedoch, dass der umfassende Überblick auf die Kerndatenbestände zu Kunden, Produkten und Mitarbeitern etc. fehlt. Das verhindert, dass aus den Firmen von heute die datengesteuerten Unternehmen von morgen werden, das Ziel digitaler Transformationsprojekte.

Natürlich wissen die Unternehmen und Entscheider um dieses Problem. Um das eigene Geschäft und Geschäftsmodell zu verstehen und zu optimieren, waren schon immer von den Einzelsilos unabhängige Datenbestände und ihre Analyse notwendig. Aus diesem Grund haben die meisten Unternehmen in der Vergangenheit so genannte Data Stores oder Data Lakes aufgebaut, in die sie die fragmentierten Daten aus den Silos regelmäßig transferieren, um sie zusammenzubringen und dann auswerten zu können.

Daten und ihre Analyse umfassend zugänglich machen

Die bisherige Praxis hat jedoch drei entscheidende Nachteile: Erstens sind dafür aufwändige ETL-Verfahren notwendig, um die Daten aus den Silos herauszuholen („extract“), in das einheitliche Format des Data Stores zu transformieren („transform“) und schließlich dort einzuspielen („load“). Dieser Aufwand bedeutet zweitens, dass Abfragen und Analysen nur in begrenzter Zahl oder nur mit erheblicher zeitlicher Verzögerung an Veränderungen des Geschäfts und seiner Anforderungen angepasst werden können.

Drittens grenzt diese Begrenzung ihrerseits den Kreis der Nutzer ein, der sich folglich auf Spezialisten beschränkt. Die Datenanalyse und die darauf aufbauende Steuerung des Unternehmens bleiben aber so lange ein Wunschtraum, wie sie nicht Teil des Tagesgeschäfts werden und damit auch Fachanwendern aus allen Organisationsbereichen vom Vertriebsmitarbeiter über den After-Sales-Service-Agenten bis zum Compliance-Manager zur Verfügung stehen.

Darum geht es: Unternehmensdaten müssen so gemanagt werden, dass alle Bereiche – der operative Betrieb, Compliance- und Risikomanagement sowie die Spezialisten für Datenanalyse – Zugang zu Datenabfragen und -auswertungen erhalten, ohne dass jedes Mal die IT eingreifen muss. Dass es dabei um wirklich viel geht, lässt sich leichter nachvollziehen, wenn man bedenkt, dass Datenanalysten nach allgemeiner Schätzung rund 80 Prozent ihrer Arbeitszeit allein damit verbringen, redundante Datensätze zu beseitigen, sie zu korrigieren, zu vervollständigen und anzureichern, und damit in einer Qualität bereitzustellen, die den geschäftlichen Anforderungen genügt. Bedenkt man ferner, dass sich in Zukunft ein Großteil der Unternehmensdaten aus IoT-Datenströmen speist, leuchtet es unmittelbar ein, dass die bisherige Praxis für Datenanalysen den Weg in die Zukunft eher versperrt als ebnet.

Datenzugriff, -management und -analyse setzen daher in datengesteuerten Unternehmen einen neuen Ansatz voraus, eine Plattform für eine vereinheitlichte Dateninfrastruktur, die Stammdatenmanagement mit einem virtuellen Zugriff auf Daten aus Silos und IoT-Strömen kombiniert. Unternehmen können damit gemeinsam genutzte Datensätze gewissermaßen zu einem Teil ihrer „Geschäfts-DNA“ machen. Das betrifft erstens die Metadaten – also die Frage, wie sie Dinge definieren: Von Geschäftsbedingungen und Richtlinien über IT-Systeme bis hin zu Modellen und Regeln.

Zweitens betrifft es die Referenzdaten – konkret die Klassifizierung von Dingen wie geografische Regionen, rechtliche Einheiten, Kontenplan sowie Industrienormen. Als Drittes stehen die Stammdaten im Fokus – und damit die Frage, wie sie wichtige Dinge managen: von Kunden, Zulieferern und Mitarbeitern über Produkte und Assets bis hin zu Standorten. Und viertens geht es um transaktionale Daten – also darum, wie Unternehmen auf alle innerhalb verfügbaren Daten zugreifen: alle on-premise oder in der Cloud liegenden Datenquellen, Streams und Anwendungen.

Immer wieder scheitern entsprechende Projekte, weil Unternehmen unter dem Begriff Stammdatenmanagement (Master Data Management, kurz MDM) ausschließlich Tools verstehen und außer Acht lassen, dass sich dahinter auch die gerade beschriebenen Arbeitsabläufe und Verantwortlichkeiten verbergen.

Stammdatenmanagement und Datenkatalog

Systeme für Stammdatenmanagement waren schon immer der Ort, an dem redundante Datensätze ermittelt und beseitigt, fehlerhafte Daten korrigiert und bei Bedarf ergänzt und mit Daten aus anderen Quellen angereichert wurden. Es blieb die Herausforderung, zu verstehen, in welchem System welche Daten gespeichert sind und wie sie dort abgelegt sind. Viele Unternehmen haben sich auf Basis von MDM-Werkzeugen eine Metadata-Management-Verwaltung selbst erstellt. Heute sind Metadata-Management-Werkzeuge oder Datenkataloge als fertige Werkzeuge verfügbar.

Diese Lösungen sorgen nun dafür, dass ein Kunde in allen Systemen immer ein Kunde ist – sowohl was den Inhalt als auch die Nomenklatur betrifft –, und klären damit Fragen wie: Ist ein Kunde ein Unternehmenskunde oder ein Endkonsument? Lautet die Bezeichnung für Kunde unternehmensweit und systemunabhängig Kunde oder Customer oder Konsument?

Als klassisch ist das Stammdatenmanagement zu bezeichnen, wenn es sozusagen eine feste Verdrahtung zu den einzelnen Datentöpfen oder dem zentralen Data Store gibt, so dass Änderungen an den Datensätzen im MDM-System entsprechende Änderungen in den verschiedenen Datentöpfen nach sich ziehen müssen. Das ist jedoch keine technische Frage allein. Vielmehr müssen die Data-Governance-Prozesse und -Rollen zur Anlage und Änderung von Stammdaten im Unternehmen definiert und dann im MDM-Werkzeug umgesetzt werden. Natürlich ändern sich in diesem Zusammenhang Arbeitsabläufe und Verantwortlichkeiten. Hat man nun geprüfte Masterdaten, dann kann man für die Auswertung transaktionale Daten damit zusammenbringen.

Bob Eve, Senior Data Management Strategist, und Ulrich Hatzinger, Manager Technical Solutions Consultants – Central Europe, Tibco Software

Tibco Software