Big Data und Data Analytics gehören zu den Kernthemen, mit denen sich Unternehmen heute im Rahmen der Digitalisierung ihrer Geschäftsmodelle auseinandersetzen. Externe Unterstützung in der Vorbereitungs- und Aufbauphase hilft Unternehmen, schnell und zielgerichtet eigene Strukturen aufzubauen, um Daten zur Wertschöpfung nutzen zu können.
Big Data ist inzwischen für die Mehrheit der Unternehmen ein relevantes Thema, denn Datenanalyse wird zunehmend als wichtiger Beitrag zur Wertschöpfung gesehen. Wer es versteht, mit Hilfe von Data Analytics aus großen Datenmengen Erkenntnisse abzuleiten, kann bessere Entscheidungen treffen und Risiken frühzeitig erkennen. Effizientere datengetriebene Lösungen in Produktion, Supply Chain Management und Logistik sowie weit genauere, personalisierte Kundenansprachen verhelfen Unternehmen zum Wettbewerbsvorteil. In einer Erhebung von Bitkom Research und KPMG gaben 36 Prozent der Befragten an, Big Data bereits zu nutzen, weitere 42 Prozent planten die Einführung oder diskutierten darüber.
Doch wo liegen die Herausforderungen beim Einsatz von Data Analytics, und in welchen Phasen und für welche Aufgaben sollten sich Unternehmen Hilfe suchen? Technisch ist es kein Problem mehr, große Datenmengen sicher zu speichern und in hoher Geschwindigkeit auszuwerten. In riesigen Data Lakes lassen sich selbst unstrukturierte oder polystrukturierte Daten auf Vorrat zur späteren Auswertung ablegen. Unternehmen können also selbst alle notwendigen Informationen wie Bewegungs-, Transaktions- und Maschinendaten erfassen. Zur Speicherung und Analyse stehen Tools wie etwa Hadoop, Spark, R etc. als Open-Source-Anwendungen zur Verfügung.
In der eingangs erwähnten Studie wurde auch untersucht, für welche Aufgaben externe Partner eingeschaltet werden: Die Datensammlung erledigen 82 Prozent der Befragten vollständig intern; bei der Speicherung, Aufbereitung und Visualisierung liegt der Anteil der internen Leistung jeweils über 60 Prozent. Mehr Hilfe brauchen die befragten Unternehmen aber bei der Vorbereitung: Für Aufbau und Design von Datensystemen greifen rund 60 Prozent auf externe Unterstützung zurück.
Der erste Schritt: Passende Big-Data-Anwendungen finden
Erfahrungsgemäß haben Unternehmen, wenn sie nach Beratung und Unterstützung für Big Data fragen, noch gar keine konkrete Anwendung im Fokus. Um wirklich Nutzen aus der Datenanalyse ziehen zu können, ist es jedoch entscheidend, jeweils zum Unternehmen passende und erfolgversprechende Anwendungen zu finden. Die erste Aufgabe ist es also herauszufinden, welche Erkenntnisse aus Datenanalysen dem Unternehmen mit seinem spezifischen Geschäftsmodell helfen würden. Für viele Unternehmen ist gerade das sehr schwierig und unübersichtlich, da die Technologie noch neu ist und auch die Spezialisten im eigenen Hause fehlen. Werden bereits in dieser frühen Phase externe Berater und Partner, wie beispielsweise SPECTRUM AG, eingeschaltet, lassen sich Fehler vermeiden, und wertvolle Zeit lässt sich sparen.
Dabei hat sich ein Stufenmodell bewährt: Nach einem Überblick zu den Möglichkeiten von Data Analytics und einer gemeinsamen Ideensammlung, meist mit der Führungsebene, sucht man in Workshops mit den einzelnen Fachbereichen nach konkreten Fragestellungen. Dabei wird auch überprüft, in welcher Qualität die Daten vorliegen und ob es sich tatsächlich um Fragestellungen für Data Analytics handelt. In der Regel verbleiben dann vier bis fünf Anwendungen.
Häufige Fragestellungen sind zum Beispiel:
- Analysen zur Optimierung der Customer Journey
- Next Best Offer: Basierend auf Daten zu bisherigen Einkäufen können Angebote ermittelt werden, die für bestehende Kunden mit hoher Wahrscheinlichkeit auch interessant sind.
- Reduzieren der Kundenabwanderung (Churn Reduce): Hier gilt es zunächst zu analysieren, welche Kunden mit hoher Wahrscheinlichkeit demnächst kündigen wollen, um nur dieser Zielgruppe neue oder erweiterte Angebote zu unterbreiten.
- Aufdecken von Betrugsversuchen: Es geht darum, neue Muster zu finden, aber auch darum, bestehende Annahmen zu überprüfen.
- Prozessoptimierung: Mit Hilfe von Datenaufzeichnungen lassen sich Abweichungen vom eigentlichen Prozess aufdecken. Vorgänge dauern zum Beispiel in der Realität länger als in der Planung vorgesehen, wenn an bestimmten Stellen regelmäßig Rückfragen notwendig werden. Basierend auf der Datenanalyse können dann die Prozesse so angepasst werden, dass die benötigten Informationen parallel erhoben werden und rechtzeitig vorliegen.
Use Case und Pilotprojekt
Im nächsten Schritt wählt man aus den so identifizierten Fragestellungen einen Use Case zur Durchführung eines Pilotprojekts. Im Falle einer Versicherung zum Beispiel sollte als Pilotanwendung eine effizientere Methode zur Rechnungsüberprüfung entwickelt werden. Die Ausgangssituation: Im Rahmen der Zusammenarbeit mit zahlreichen Partnerfirmen fielen jährlich über 1,5 Millionen Einzelrechnungen an, und nicht alle davon waren richtig ausgestellt. Da eine Überprüfung aller Rechnungen aufgrund der Datenmenge nicht umsetzbar war, wurden neben einer Standardprüfung einiger typischer Fehlerquellen manuell etwa zwölf Prozent der Rechnungen nach dem Zufallsprinzip ausgewählt.
Letztlich erwiesen sich nur etwa 1,2 der so untersuchten Fälle als fehlerhaft. Der Aufwand war also im Vergleich zum Ergebnis zu hoch. Im Data-Analytics-Pilotprojekt sollte das Zufallsprinzip durch einen datenbasierten Algorithmus ersetzt werden, sodass bei gleichem Aufwand eine höhere Trefferquote erreicht würde. Die Berater analysierten dazu die Daten nach mehreren Kriterien wie Sparten, Regionen, Vertragsausprägungen und Informationen der Partnerfirmen. Im Ergebnis wurde ein komplexes mathematisches Modell entwickelt, um Rechnungen zur manuellen Überprüfung herauszufiltern. Von diesen erwiesen sich etwa 40 Prozent als fehlerhaft.
Aufbau der eigenen Data-Analytics-Infrastruktur
Hat sich ein Unternehmen – meist nach einem erfolgreichen Pilotprojekt – entschlossen, Data Analytics fest in sein Geschäftsmodell zu integrieren, so bietet sich als nächster Schritt der Aufbau einer Lab-Factory-Struktur an. Die Trennung in diese zwei Bereiche ist wichtig, da beide unterschiedliche Aufgaben haben: Im Labor geht es darum, verschiedene Fragestellungen zu untersuchen und auch zu experimentieren. Dazu sollten alle Daten und Tools schnell verfügbar und für alle Beteiligten direkt zugänglich sein. Nach erfolgreichen Tests, zum Beispiel in Form eines Prototypen, werden geeignete Anwendungen zur Umsetzung in die Factory bzw. Produktion übergeben. Hier kommt es dann vor allem auf stabile und effiziente Prozesse, Datensicherheit und Skalierbarkeit an.
Parallel ist die Aufgabe zu lösen, wer das neue Aufgabenfeld künftig betreut. In größeren Unternehmen geht die Entwicklung bereits dahin, dass Chief Data Officers (CDO) berufen werden. In jedem Fall muss ein Team aufgebaut werden. Da Data Scientists derzeit zu den gefragtesten Spezialisten gehören und schwer zu finden sind, wird es in den meisten Fällen auf eine Kombination aus dem Gewinnen neuer Fachkräfte und dem Upskilling der eigenen Mitarbeiter hinauslaufen. Auch hier kann ein Unternehmen wie die SPECTRUM AG durch Fachkräftebeschaffung, ergänzendes Training und spezielle Upskilling-Initiativen wirkungsvoll unterstützen.
Letztlich wird das Unternehmen nach gründlicher Vorbereitung und externer Unterstützung bei der Vorbereitung und dem Aufbau eines Data-Analytics-Systems in der Lage sein, die Datennutzung selbstständig weiterzuentwickeln und diese auch für eine künftige Wertschöpfung gewinnbringend einzusetzen.