Daten erscheinen oft nur als kleines Rädchen im Business-Getriebe. Allerdings sind sie elementar dafür, dass die „Maschinen“ problemlos weiterlaufen. Denn inkorrekte Daten sind Sand im Getriebe der Geschäftsprozesse: Sie schaffen Unzuverlässigkeit – und dies sorgt für Mehrkosten. So können falsche, fehlerhafte, veraltete und doppelte Kundendaten dazu führen, dass Kunden nicht eindeutig identifiziert werden können. Die Folgen davon sind vielfältig: Eine falsche Ansprache beispielsweise kann zum Vertrauensverlust seitens der Kunden führen, ins Leere laufende Mailings treiben Marketing-Kosten in die Höhe und nicht eindeutig zugeordnete Vertragsdaten verursachen einen fehlerhaften Kundenservice. Es entstehen Brüche in sonst eingespielten Prozessen, die wiederum zu schlechten Kundenerfahrungen führen.

Auf der einen Seite gibt es ständig Änderungen der Kundendaten auf der Seite der Kunden selbst. Laut einer Studie ziehen in Deutschland pro Jahr mehr als 9 Millionen Menschen – zum Teil sogar mehrfach – um. Hinzu kommen beispielsweise noch Namensänderungen durch Hochzeiten und Scheidungen, oder von Straßen- und sogar Ortsnamen. Und auch eine Anpassung der Bankverbindungen oder Vertragsvereinbarungen kann schnell dazu führen, dass es zu einer einzigen Person mehrere digitale Identitäten gibt, die Unterschiede in den Datensätzen aufweisen.

Darüber hinaus besteht eine große Herausforderung bei Unternehmen aktuell noch darin, dass die Daten in Silos vorliegen. Eine IDC-Studie aus dem Vorjahr ergab, dass Unternehmen im Schnitt 23 Datensilos vorhalten – das sind quasi ideale Voraussetzungen für die Entstehung von doppelten oder Mehrfach-Datensätzen. Im Moment gehen wir davon aus, dass Datenbestände in Unternehmen teilweise bis zu 50 Prozent Dubletten enthalten. Und selbst bei gut gepflegten Datenbeständen sind im Schnitt meist noch 5 Prozent redundante Datensätze vorhanden. Das kann sich zu einem erheblichen Risiko entwickeln, etwa wenn Absatz und Umsatz auf Basis unbereinigter Datenbestände geplant werden.

Grundsätzlich können Dubletten schnell entstehen – sei es durch einen Zahlendreher oder durch eine unterschiedliche Schreibweise, wie etwa bei „Maier“ und „Meier“. Unterschiedliche Dateneingaben entstehen vor allem dadurch, dass Menschen diese Eingaben machen – da sind „Fehler“ unvermeidbar. Deshalb ist es wichtig, dass eine passende Technologie im Hintergrund Hilfestellung leistet, um die Nutzer bei der Eingabe korrekter Daten und der Dublettenvermeidung zu unterstützen. Es kann zum Beispiel schon helfen, wenn die Nutzer die Möglichkeit haben, Daten unterstützt durch eine Autovervollständigung einzutragen. Dabei werden mögliche Vorschläge für Eingabeergänzungen ausgespielt. Eine weitere Option, um korrekte, qualitativ hochwertige Daten zu erzielen, ist eine Adressvalidierung. Mittels einer Dublettenprüfung lassen sich zudem doppelt oder mehrfach vorhandene Datensätze in Beständen fehlertolerant aufspüren.

Einmal angelegte Datensätze können kaum dauerhaft als aktuell gelten, sondern sie altern mit der Zeit. Genau aus diesem Grund ist es für Unternehmen extrem wichtig, die Daten kontinuierlich zu pflegen und auf Aktualität und Vollständigkeit zu überprüfen.

Migration als Chance für mehr Datenqualität

Hinzu kommen diverse „Anlässe“, bei denen falsche, unverlässliche Daten auf Unternehmensseite zu besonderen Schwierigkeiten führen können, wie etwa die Fusion zweier Unternehmen, die Konsolidierung von Kundendaten aus unterschiedlichen Systemen und Datenquellen oder die Migration von Daten aufgrund einer Aktualisierung oder eines Wechsels eines IT-Systems.
Letzteres steht für SAP-nutzende Unternehmen nun bis spätestens 2030 an, denn dann endet der Support für die bisherigen ERP-Lösungen des Herstellers. Alle SAP-Nutzer kommen dann nicht umhin, eine Migration zu SAP S/4HANA anzupacken.

Wie eine von Uniserv beauftragte Befragung von 122 SAP-Verantwortlichen in deutschen Unternehmen aus dem letzten Jahr jedoch zeigt, hat mehr als jedes fünfte Unternehmen (22 Prozent) noch keine Entscheidung über die Systemablösung getroffen. Doch Anwender müssen sich dieser Herausforderung schnellstmöglich stellen, um ihre Systeme weiter zielführend nutzen zu können. Denn durch eine Änderung des Datenmodells ist eine Eins-zu-Eins-Übertragung der Daten vom alten System auf SAP S/4HANA nicht ohne weiteres möglich und die Datenmigration entsprechend komplex.

Egal welche Migrationsstrategie das Unternehmen aber letztlich wählt, wichtig ist: Die Qualität der Quelldaten muss stimmen. Es droht sonst die Gefahr, den Kardinalfehler „crap in/crap out“ zu begehen: Gelangen veraltete, fehlerhafte oder unvollständige Daten in das neue System, kann mit SAP S/4HANA das volle Potenzial nicht ausgeschöpft und digitale Geschäftsprozesse nicht in Echtzeit abgebildet werden.

Die sorgfältige Vorbereitung und Überarbeitung und damit Sicherung der Datenqualität vor der Migration ist von erheblicher Bedeutung für die erfolgreiche Nutzung. In der Phase der Vorbereitung vor der Migration sollten Unternehmen die Qualität ihrer Daten optimieren und sichern, etwa mithilfe professioneller Tools, die eine fehlertolerante, automatisierte Prüfung auf Korrektheit, Aktualität, Eindeutigkeit und Vollständigkeit übernehmen. Kommt das Thema ‚Datenqualität‘ frühzeitig auf die Agenda, können Prozesse dauerhaft weitreichend automatisiert und vereinfacht werden.

Die Sicherung und Pflege der Datenqualität muss fester Bestandteil der Migrationsstrategie sein und als kontinuierlicher Prozess darüber hinaus verstanden werden. Dann können Unternehmen nachhaltig den Wert aus den Daten und Systemen schöpfen. Richtig umgesetzt, birgt die Migration also wertvolle Chancen für das weitere Datenmanagement und kann sogar Kosten sparen.

Matthias Förg ist Head of Sales bei Uniserv und verantwortet den weltweiten Vertrieb der Uniserv-Lösungen für Datenqualität und Kundendatenmanagement.

Uniserv