Noch zu Beginn dieses Jahres schien es so, als entspanne sich die Lage auf internationaler Ebene und ein kollektives Aufatmen zeichnete sich ab. Lange hat es jedoch nicht gedauert, bis die traurige Realität an die Tür geklopft und Unternehmen weltweit auf den Boden der Tatsachen zurückgeholt hat. Aufgrund der aktuellen Wirtschaftslage hinterfragen Unternehmen fast jeder Branche, welche Investitionen sinnvoll sind und getätigt werden sollten.
Die Folgen für die Technologiebranche sind spürbar: Venture Capital-Finanzierungen gehen zurück, Digitalisierungsstrategien geraten ins Stocken und vielerorts verhindern neue Regularien und mangelnde Datenkompetenz ein erneutes Wachstum. Um datengesteuerten Unternehmen in dieser unsicheren Zeit den richtigen Weg zu weisen, hat man bei Qlik fünf Schlüsseltrends skizziert, die für das Jahr 2023 besonders wichtig werden.
In unsicheren Zeiten ist es umso wichtiger, den Fokus auf jene Lösungen, Strukturen und Prozesse zu legen, die einen Weg aus der Krise aufzeigen. Bei so viel Innovationsdruck ist es schwierig, die adäquaten Maßnahmen zu identifizieren. Eines steht jedoch fest: Die sich rasant verändernden Bedingungen erfordern schnelle und zielgerichtete Entscheidungsfindungsprozesse sowie die Integration von isolierten und distribuierten Datensätzen, um ein Gesamtbild aller Variablen in Echtzeit sehen zu können. Ohne dieses setzen Unternehmen ihren künftigen Erfolg aufs Spiel.
Investitionen in abgeleitete und synthetische Daten
Wenn die letzten Jahre etwas verdeutlicht haben, dann ist es die Bedeutung der Risikovorhersage und des Risikomanagements. Vor COVID-19 standen beispielsweise nicht genügend reale Daten über Pandemien zur Verfügung, um sich auf eine solche Krise vorzubereiten. Synthetische Daten, also Daten die künstlich generiert werden und nicht auf realen Messungen oder Datenerhebungen beruhen, schließen diese Lücke.
Darüber hinaus können auf Grundlage von Modellen, die auf synthetischen Daten basieren, genauere Ergebnisse erzielt werden. Darauf deuten neue Forschungsergebnisse hin. Zudem entfallen dadurch Bedenken in Bezug auf Datenschutz, Urheberrecht und Ethik, die mit realen Daten verbunden sind. Abgeleitete Daten ermöglichen es wiederum, Daten für verschiedene Zwecke zu verwenden und erlauben die Planung verschiedener Szenarien, die für die Vorbereitung auf zukünftige Probleme und Krisen erforderlich ist.
KI dringt tiefer in die Daten-Pipeline ein
Aktuell stellen viele Unternehmen Neueinstellungen zurück oder bauen gar Stellen ab. Ein Umstand, der die durch den Fachkräftemangel ohnehin angespannte Personaldecke weiter belastet. Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind in der Lage, aufwändige Vorgänge im Bereich der Datenaufbereitung zu automatisieren.
Indem KI tiefer in die Datenpipeline eingebracht wird, noch bevor eine Anwendung oder ein Dashboard erstellt wurde, lässt sich der Zeitaufwand für die Datenvorbereitung reduzieren und Ressourcen können in die Datenanalyse gesteckt werden. Aktuell fallen weniger als 20 Prozent der Zeit auf ebendiese, während mehr als 80 Prozent für die Suche nach geeigneten Daten, deren Aufbereitung sowie deren Verwaltung aufgewendet werden.
Auf diese Weise könnten sich Datenfachkräfte darauf konzentrieren, gemeinsam durch ausführliche Analyse neue und wertvolle Erkenntnisse zu gewinnen und einen bedeutenden Mehrwert für ihr Unternehmen zu generieren.
Natural Language Processing (NLP) macht dem Menschen Konkurrenz
Viele Unternehmen nutzen bereits seit einiger Zeit Sprach-KI in ihrer Grundform. So ist die Interaktion mit einem Chatbot im Kundenservice schon fast alltäglich. Schätzungen zufolge wird die Beliebtheit der Sprachbots in den kommenden Jahren um weitere 18 Prozent zunehmen. Parallel befinden sich mehrere neue Technologie-Modelle in der Entwicklung, die wesentlich leistungsfähiger sind als alles, was aktuell auf dem Markt ist.
Wohin die Entwicklung führt, lässt sich nur erahnen. Sicher ist jedoch, dass NLP enorme Auswirkungen auf die Art und Weise haben wird, wie Informationen abgefragt, interpretiert oder berichtet werden. Durch NLP sind nicht nur solche Daten leichter auffindbar, nach denen aktiv gesucht wird, sondern es kommen auch Daten zum Vorschein, an die bei der Suche noch gar nicht gedacht wurde.
Entschärfung von Lieferkettenunterbrechungen durch Echtzeitdaten
Die Nachwirkungen von COVID-19 und die anhaltenden globalen Konflikte beeinträchtigen noch immer die Lieferketten. Wer in den letzten Jahren versucht hat, ein neues Auto oder einen Computer zu kaufen, weiß, wie schwerwiegend die Lieferketten beeinträchtigt wurden. Es gibt keine Anzeichen dafür, dass sich die Lage in den nächsten Jahren entspannen wird. Somit bleibt auch die Notwendigkeit bestehen, schnell auf alle Eventualitäten reagieren oder diesen idealerweise vorausschauend entgegenwirken zu können.
Potenzielle Störfaktoren müssen erkannt werden, bevor sie entstehen. Der Schlüssel hierzu ist die Möglichkeit, Daten in Echtzeit und im jeweiligen Kontext zu analysieren. So ist es nicht verwunderlich, dass laut IDC bis 2027 sechzig Prozent der Ausgaben im Bereich Datenerfassung und -bewegung auf Lösungen fallen, die Simulationen, Optimierungen und Empfehlungen in Echtzeit ermöglichen.
„X-Fabric“ verbindet Data Governance
Investitionen in Daten und Analysen haben sich aufgrund der Pandemie immens beschleunigt – ein Trend, der sich auch weiterhin fortsetzen wird. So planen laut einer aktuellen Studie rund 93 Prozent der befragten Unternehmen, ihre Ausgaben in diesen Bereichen weiter zu erhöhen. Sich schnell verändernde Regularien zum Datenschutz sowie zur Verteilung, Diversität und Dynamik von Daten bremsen Unternehmen dabei aus, den größtmöglichen Wettbewerbsvorteil aus den Daten zu generieren.
Besonders herausfordernd ist dies in einer fragmentierten Welt, in der Data Governance zunehmend komplexer wird. Um das volle Datenpotenzial ausschöpfen zu können, ist der verbesserte Zugriff auf Daten, deren Bewegung in Echtzeit sowie eine fortschrittliche Transformation zwischen Quellen und Systemen im gesamten Unternehmen von entscheidender Bedeutung. Aus diesem Grund setzen immer mehr Unternehmen auf eine „X-Fabric“.
Dabei handelt es sich um eine Datenstruktur, die neben verteilten Daten auch Applikationen, BI-Dashboards und Algorithmen durch Kataloge und Cloud-Datenintegrationslösungen verknüpft. Dies ist eine entscheidende Komponente in der modernen verteilten Umgebung für jedes Unternehmen, das mit Gewissheit handeln und dem Prinzip einer Connected Governance folgen möchte. Derzeit sind diese Methoden jedoch noch weniger ausgereift als eine Methodik, die nur verteilte Datensätze durch semantische Modelle miteinander verbindet.
Die gute Nachricht ist, dass wir infolge der letzten Jahre besser als je zuvor darauf vorbereitet sind, mit aufkommenden Widrigkeiten umzugehen. Daten- und Analyseexperten müssen sich auf eine stärkere Fragmentierung durch disparate Datenzentren, unterbrochene Lieferketten, einen ständigen Innovationsbedarf und erschwerten Zugang zu qualifizierten Arbeitskräften einstellen. Um im richtigen Moment reagieren und alle Eventualitäten antizipieren zu können, wird diese Fähigkeit in einer krisengebeutelten Welt zur Kernkompetenz.
Alexander Klaus ist Senior Director DACH/ Southern EMEA Marketing bei QlikTech.