Der Siegeszug der KI scheint derzeit kaum aufzuhalten. Mehr und mehr konkrete Projekte werden in die Praxis umgesetzt und zeigen beeindruckende Produktivitäts- und Effizienzgewinne. Doch gleichzeitig offenbart die wachsende Erfahrung auch: Wer beim Einsatz von KI kein grundlegendes Verständnis von ihrer Funktionsweise entwickelt, läuft schnell Gefahr, ungeeignete Trainingsdaten zu nutzen oder Ergebnisse falsch zu interpretieren. Das kann den Nutzen der Technologie schmälern oder im schlimmsten Fall gar zunichtemachen. Für KI-Interessenten gilt es daher, sich wichtige Funktionsweisen zu vergegenwärtigen, um Stolperfallen von vornherein zu umgehen und für eine bestmögliche Qualität der Ergebnisse zu sorgen.

Jede KI-Anwendung ist immer nur so gut wie ihre Trainingsdaten. Aus diesen leitet sie die zentralen Regeln ab, mit denen sie anschließend im Produktivbetrieb ihre Ergebnisse gewinnt. Dabei besteht jedoch gleich zu Beginn eines KI-Einsatzes die Gefahr, dass sich die KI quasi zu gut an ihre Trainingsdaten anpasst und statistische Abweichungen und Ausreißer als Regeln in ihr Modell übernimmt, „Overfitting“ genannt.

Ein Beispiel: In einem Unternehmen sollen eingehende Dokumente von einer künstlichen Intelligenz mithilfe von Textverständnis analysiert und automatisch in die richtige Kategorie (Auftrag, Reklamation, Rechnung, …) eingeteilt werden. Dazu wird die KI zunächst mithilfe tausender Test-Mails trainiert. Befinden sich unter diesen jedoch beispielsweise nur wenige Stornoaufträge, könnte die KI fälschlicherweise annehmen, dass Storni ohnehin nur sehr selten auftreten, und dies als Regel übernehmen.

Die Folge wäre, dass der Algorithmus in Situationen, in denen tatsächlich viele Stornoaufträge eingehen, nur einen Bruchteil von diesen korrekt identifiziert. Um das zu vermeiden, gilt es, Trainingsdaten sorgfältig auszuwählen und beispielsweise für ein ausgewogenes Verhältnis aller wichtigen Kriterien zu sorgen, die eine KI beachten soll.

Auch KI liebt Workarounds

In ähnlicher Weise sind Störfaktoren in den Trainingsdaten zu eliminieren. Diese können ebenfalls zur Folge haben, dass falsche Regeln gelernt werden und die KI in der Praxis auf einem anderen Weg zu ihrem Ergebnis kommt, als das vom Anwender beabsichtigt wurde. Ein Beispiel aus dem Bereich der Bildanalyse kann das verdeutlichen: Ein KI-Algorithmus sollte Flugzeuge auf Fotos erkennen und wurde hierzu mit umfassenden Trainingsdaten gespeist.

Eine technische Ergänzung brachte die KI schließlich dazu, die Bereiche der Fotos zu markieren, an denen sie ihre Entscheidung hauptsächlich festmachte. Es zeigte sich: Es waren vor allem die Wolken, an denen die KI Flugzeuge identifizierte sowie ein spezielles Wasserzeichen, das auf vielen Testdaten vorhanden war. Solche „Workarounds“ der KI müssen die Unternehmen in der Praxis auf jeden Fall vermeiden – ebenfalls durch genaue, kritische Betrachtung der Testdaten –, um sicherzustellen, dass die KI auch tatsächlich das untersucht, was sie untersuchen soll.

Ergebnisse auf die Goldwaage legen

Schließlich sollten Anwender auch bei der Interpretation der Ergebnisse einer KI stets ihre technische Funktionsweise im Hinterkopf behalten, denn die Resultate basieren immer nur auf Wahrscheinlichkeiten. Geht es beispielsweise darum, einen handgeschriebenen Text zu erkennen, liefert eine künstliche Intelligenz nicht per se für jeden erkannten Buchstaben ein definitives Ergebnis („Das ist der Buchstabe A“). Vielmehr gibt eine KI Wahrscheinlichkeiten aus: „Zu 95 Prozent ist dies ein A. Zu 4 Prozent ist dies ein B, zu 0,01 Prozent ist dies ein H“, etc.

Ist sich die KI in einem Fall zu 95 Prozent sicher, das richtige Ergebnis gefunden zu haben, mag der technische Hintergrund trivial erscheinen. Komplizierter wird die Situation allerdings in Fällen, in denen beispielsweise ein unsauber geschriebener Buchstabe nur noch zu 58 Prozent als A erkannt wird, zu 45 Prozent jedoch auch ein H sein könnte. In einem solchen Fall kann es besser sein, eine Fehlermeldung ausgeben zu lassen, anstatt eine unsichere Vermutung als echtes Ergebnis darzustellen.

Auch der Trainer wird trainiert

Die Beispiele zeigen: Wer frühzeitig einen Blick hinter die KI-Kulissen wirft, verfügt über bessere Möglichkeiten, potenzielle Probleme im Voraus zu vermeiden. Dennoch ist kein KI-Projekt wie das andere. Welche Stolperfallen konkret in einem Szenario lauern, zeigt sich oft erst im tatsächlichen Verlauf des Projekts. Umso wichtiger ist es, ein Grundverständnis von der Funktionsweise künstlicher Intelligenz zu haben, um bei Schwierigkeiten leichter die richtige Fährte zur Lösung zu finden.

Am Ende wird sich ein iterativer Prozess ergeben: Wie die KI durch ihren Einsatz kontinuierlich lernt, werden auch die KI-Trainer und -Anwender immer wieder auf Verbesserungen und neue Erkenntnisse stoßen, durch die sich die Technologie genauer justieren und optimieren lässt – sodass die Qualität der Ergebnisse mit steigender Erfahrung immer weiter zunimmt.

Christian Leopoldseder ist Managing Director Austria der Asseco Solutions.

Asseco Solutions