Mitarbeiter aus allen Unternehmensbereichen benötigen aktuelle und aussagekräftige Daten zur Entscheidungsfindung. Daher wird es immer wichtiger, die Datenqualität kontinuierlich zu verbessern, denn schlechte Daten führen zu falschen Entscheidungen. Lösungen für den Self-Service und cloudbasierte Software helfen Organisationen dabei, die erforderlichen Daten schnell bereitzustellen und die Qualität dauerhaft zu sichern.

Eine Umfrage des Finanzdienstleisters Capital One hat gezeigt, dass 38 Prozent der Stellenausschreibungen in den USA „digitale Fähigkeiten“ erfordern. Viele Mitarbeiter benötigen bei ihrer Arbeit einen unkomplizierten Zugriff auf Daten, da sie für ihr Unternehmen faktenbasierte Entscheidungen zu treffen haben. Unternehmen sollten ihre Mitarbeiter daher mit Anwendungen ausstatten, die ein Datenmanagement im Self-Service erlauben – inklusive Lösungen zur Qualitätssicherung.

So werden wichtige Aufgaben zur Verbesserung der Datenqualität in den jeweiligen Fachabteilungen verankert, da dort die Experten sitzen, die auch fachlich bewerten können, ob und wann Daten valide sind. Gleichzeitig benötigen die Mitarbeiter Software-Werkzeuge, um Daten schnell und softwaregestützt zu validieren.

Wer jedoch etwas verbessern möchte, sollte zunächst analysieren, wo sich Fehler einschleichen. In Organisationen finden sich Fehlerquellen über die gesamte Wertschöpfungskette des Datenmanagements hinweg. Das können menschliche Eingabefehler bei der Datenerfassung sein, fehlerhafte Sensordaten oder unvollständige Datenimports bei automatisierten Prozessen.

Aber auch verschiedene Formate von Daten können zu Fehlern führen, im einfachsten Fall bei der Verwendung des Datums in US-amerikanischer oder deutscher Schreibweise sowie bei Unklarheit darüber, ob das metrische oder angloamerikanische Maßsystem zum Einsatz kommen muss. Darüber hinaus führen auch organisatorische Mängel zu Datenfehlern, beispielsweise wenn nicht klar definiert ist, wer für welche Datensätze zuständig ist. Letztlich fallen diese Kriterien je nach Unternehmen individuell aus.

Immer wichtiger: hohe Datenqualität

Verschiedene Studien von Analysten zeigen, dass schlechte Datenqualität Unternehmen viel Geld kostet. IBM geht beispielsweise davon aus, dass in den USA mangelhafte Daten Mehrkosten von umgerechnet rund 2,54 Billionen Euro pro Jahr verursachen. Die Marktanalysten von Gartner beziffern die durchschnittlichen finanziellen Auswirkungen auf umgerechnet 12,7 Millionen Euro pro Unternehmen und Jahr.

Das Wirtschaftsmagazin Harvard Business Review hat sogenannte „hidden data factories“ identifiziert, die für den Mehraufwand verantwortlich sind: In verschiedenen Abteilungen müssen Mitarbeiter die bereits im System vorhandenen Daten auf Faktizität und Konsistenz prüfen. Diese Aufgabe wird zusätzlich zum Tagesgeschäft erledigt, was Stress und unnötige Mehrarbeit für das Team bedeutet. Dies wiederum führt zu neuen fehlerhaften Daten und zusätzlichen Aufwänden – ein echter Teufelskreis.

Das Thema hat aber noch eine andere Dimension, denn es geht auch darum, ein Datensystem zu betreiben, dem Mitarbeiter und Kunden vertrauen können. Ein Negativbeispiel liefert die Automobilindustrie, die die Abgaswerte von Dieselfahrzeugen manipuliert hat. In diesem Fall handelt es sich nicht um ein Problem der Datenqualität, sondern um eine Frage der Ethik, da einige Hersteller das Messsystem mit gefälschten Daten vorsätzlich in die Irre geführt haben.

Wie aber gelingt es Unternehmen, die eigene Datenqualität zu verbessern und eine Datenplattform zu betreiben, der Mitarbeiter, Partner und Kunden vertrauen können? Hierbei helfen Data Governance-Prozesse und die Entwicklung geeigneter Strategien für ein ganzheitliches Datenmanagement. Am Anfang steht jedoch die Definition der Kriterien, die gute Daten ausmachen: Aspekte wie Aktualität, Relevanz, Fehlerfreiheit und Konsistenz spielen je nach Organisation eine zentrale Rolle.

Mit den folgenden Tipps erhalten Unternehmen praktische Anhaltspunkte für das Management der Datenqualität.

1. Ziele klären: Alle am Projekt Beteiligten sollten sich über die Business-Ziele einigen, die mit einer Initiative für eine bessere Datenqualität erreicht werden sollen. Von Sales über Marketing bis zum Management hat jede Organisationseinheit unterschiedliche Erwartungen. Während das Management eher fundierte Analysen mit relevanten und aktuellen Informationen benötigt, ist es für einen Vertriebsmitarbeiter entscheidend, dass Adressdaten korrekt und vollständig vorliegen. In den Bereichen Produktion, Logistik und Warenwirtschaft sind mithin hochaktuelle Daten gefragt, damit Fertigungsprozesse nicht ins Stocken geraten, während sich Service-Mitarbeiter detaillierte 360-Grad-Ansichten über ihre Kunden wünschen.

2. Daten finden und katalogisieren: In vielen Organisationen liegen Daten in unterschiedlichen Formaten vor. Das reicht von Papierakten über Excel-Tabellen und Adressdatenbanken bis hin zu unternehmensweit genutzten Business-Anwendungen. Eine wichtige Aufgabe besteht darin, diese Datenbestände zu lokalisieren und die dort vorhandenen Informationen zu katalogisieren. Erst wenn das Unternehmen weiß, welche Daten in welcher Aktualität und in welchem Format wo liegen, kann ein Prozess zur Verbesserung der Datenqualität geplant werden.

3. Harmonisierung der Daten: Basierend auf der initialen Bestandsaufnahme wird nun ein Abgleich mit dem zu erreichenden Ziel vorgenommen. Daraus können sich vielfältige Aufgaben ergeben, etwa die Standardisierung von Schreibweisen, Datenformaten und Datenstrukturen. Hierbei kommen unter anderem Werkzeuge für Data Preparation und zur Deduplizierung zum Einsatz, um einen harmonisierten Datenbestand zu erhalten, während Lösungen für das Data Profiling dabei helfen, eine Analyse und Bewertung der Datenqualität vorzunehmen.

4. Analyse, Auswertung und Aufbereitung: Wer seine Datenbestände zusammenführt und in einer Cloud, in einem Data Lake oder Data Warehouse aufbereitet, kann dort sehr flexibel verschiedenste Aufgaben zur Datenaufbereitung und Analyse durchführen. Die Cloud hat den entscheidenden Vorteil, dass beinahe unbegrenzte IT-Kapazitäten als Service abrufbar sind. Zudem kann die IT-Organisation den Fachbereichen im Self-Service die benötigten Anwendungen zur Verfügung stellen, wodurch sich die Agilität der Organisation erhöht.

Beispielsweise bietet Talend seine Lösungen für eine Datenintegration und das Datenmanagement auch für den Einsatz in der Cloud an und unterstützt hierfür alle großen Public Cloud-Anbieter. So sind Unternehmen in der Lage, einen zentralen, cloudbasierten Datenpool zu realisieren, auf den alle Abteilungen zugreifen können. Damit werden Aspekte wie Konsistenz der Daten und Vertrauen in die Informationen sichergestellt.

5. Kontinuierliche Prozesse etablieren: Die Datenqualität zu sichern, ist ein kontinuierlicher Prozess. Schließlich werden immer wieder neue Daten erhoben und in die eigenen Systeme integriert. Selbst wenn externe Datenquellen schon hochwertige Daten zur Weiterverarbeitung liefern, ist es dennoch notwendig, die eigenen Datenbestände immer wieder über ein Data Monitoring zu prüfen und zu validieren. Hierfür gibt es ganz unterschiedliche Lösungen, angefangen von Self-Service-Lösungen zur Datenbereinigung über regelbasierte Anwendungen zur Datentransformation bis hin zu selbstlernenden Software-Lösungen, die eigenständig Datenformate überwachen und statistische Anomalien erkennen und korrigieren. Algorithmen für Deep Learning bzw. künstliche Intelligenz sind heute schon in der Lage, viele Aufgaben rund um das Datenmanagement in Big Data-Szenarien zu übernehmen. Wichtig ist jedoch, dass Verantwortlichkeiten für das Datenmanagement benannt werden und entsprechende Prozesse zur Qualitätssicherung fest in den betrieblichen Abläufen verankert sind.

Das Datenqualitätsmanagement ist eine Teamaufgabe, die sich über alle Funktionsbereiche eines Unternehmens hinweg erstreckt. Daher ist es sinnvoll, auch den Mitarbeitern in den Fachbereichen Werkzeuge an die Hand zu geben, um im Self-Service die Datenqualität zu sichern. Es bieten sich insbesondere cloudbasierte Werkzeuge an, die schnell und unkompliziert in den Fachbereichen ausgerollt werden können. So ausgerüstet, gelingt es Unternehmen, ihre Datenqualität schrittweise zu verbessern und den Wert ihrer Daten zu steigern.