Die Verheißungen künstlicher Intelligenz (KI) sind zahlreich und vielversprechend. Doch damit sie nicht an begründeten Bedenken und unbegründeten Ängsten scheitern, muss diese Technologie vollständig transparent werden.

Künstliche Intelligenz hat sich merklich von den phantastischen Vorstellungen in Filmen und Science-Fiction weiterentwickelt. Durch reale Anwendungen wie Chatbots und Kaufempfehlungen ist sie ein erfahrbarer Teil unseres Lebens geworden. Doch – wie so oft bei neuen und sich noch in der Entstehung befindlichen Technologien – neigen wir Menschen dazu, durch eine Phase skeptischen Beäugens, sozial befeuerten Misstrauens und zögerlicher sowie begrenzter Anwendung zu gehen, ehe wir eine größere und tiefergehende Verbreitung akzeptieren und als selbstverständlich betrachten.

KI kann im Bereich intelligenter Betriebsprozesse einen Quantensprung nach vorne bedeuten, indem sie Geschäftsprozesse profitabler macht und eine verbesserte Kundenerfahrung liefert – vorausgesetzt, sie wird sorgfältig umgesetzt, bereitgestellt und integriert. Dadurch wird eine neue Ebene der „Nutzerintimität“ erreicht, auf der Geschäftssysteme neu aufgebaut und ganze Versorgungsketten erweitert, weiterentwickelt und verbessert werden.

Allerdings müssen Unternehmen in Anbetracht der vorhandenen Skepsis gegenüber künstlicher Intelligenz – und teilweise auch Angst vor einer „Machtübernahme durch Roboter“ – einen Weg finden, KI so einzuführen, dass die Menschen künstlicher Intelligenz vertrauen, weil sie getestet, nicht manipulierbar und vor allem transparent ist.

Der Weg geht klar in Richtung transparente KI

Die Verantwortung, diese neue KI-Ära zu ermöglichen, liegt nicht nur bei Unternehmenslenkern, sondern bei allen interessierten Parteien und Beteiligten, die von den vielen Vorteile schnellerer, intelligenterer Systeme profitieren wollen. Mittlerweile verfolgen auch Staaten das Ziel, ein neues Niveau an Vertrauenswürdigkeit und Transparenz zu erreichen, das sich hoffentlich als effektiv und robust erweist.

Auch wenn er momentan lediglich als Entwurf vorliegt, wird der „European Union Artificial Intelligence Act (EU AI Act)“ aufgrund der Natur internationaler Geschäftsbeziehungen aller Voraussicht nach Auswirkungen auf Unternehmen sowohl innerhalb als auch außerhalb der europäischen Union haben. In seinem Kern besteht der EU AI Act darauf, dass der Mensch die Kontrolle über die KI-Innovation und -Governance behält. Um die Effizienz von KI und maschinellem Lernen (ML) gewinnbringend für Systeme, Dienste und Produkte einzusetzen, muss die menschliche Entscheidungsfindung die Basis der durch KI genutzten Logik und Algorithmen sein und zuverlässig bleiben. Diese menschenzentrierte KI ist notwendig, um den Schutz der Privatsphäre, der menschlichen Ethik und der Unternehmens-Compliance sicherzustellen.

Zur menschlichen Handlungskompetenz und Aufsicht sagen die Autoren des EU AI Act: „KI-Systeme sollten Menschen unterstützen, indem sie ihnen erlauben, informierte Entscheidungen zu treffen und ihre grundlegenden Rechte zu stärken. Gleichzeitig braucht es angemessene Aufsichtsmechanismen durch Ansätze, bei denen der Mensch Teil von KI-Prozessen ist („human in the loop“), sie gleichzeitig überwacht und kontrolliert („human on the loop“) sowie steuert („human in command“).“
Ähnlich wie die Europäische Datenschutz-Grundverordnung (EU-DSGVO) könnte die Einführung des EU AI Act dauern, aber wie die EU-DSGVO wird er Folgen für die Unternehmen haben. Der EU AI Act wird höchstwahrscheinlich strikte Vorgaben dazu machen, wie und wo empfindliche Strafen bei Nichteinhaltung verhängt werden.

Transparenz beginnt mit Auditierbarkeit

Es steht fest, dass es Vertrauen braucht, um von den Vorteilen von KI profitieren zu können. Daher ist klar, dass die besten KI-Systeme die transparentesten und am einfachsten zu auditierbaren sein werden. Das sind solche Systeme, die sich durch Nachvollziehbarkeit und Erklärbarkeit auszeichnen, und damit klare Kommunikationskanäle für die Veranschaulichung, Klärung und Genehmigung der KI-Modelle ermöglichen, auf denen sie aufbauen. Wenn wir eine freie und vollständige Sicht auf die Algorithmen und ML-Prozesse haben, die zur Funktion eines KI-Modells beitragen, gelangen wir auch zu transparenten Prozessen, Tools, Daten und „Akteuren“ (mathematischen Datenverarbeitungsmodellen), die an der Herstellung des kompletten KI-Prozesses selbst beteiligt sind.

Die am leichtesten zu auditierenden (und damit transparentesten) KI-Prozesse sind diejenigen, die klar und verständlich genug dokumentiert sind, dass Auditoren darauf zugreifen und diese verwenden können. Ein KI-Auditor sollte in der Lage sein, eine solche Dokumentation zu nutzen und stets dieselben Resultate zu erzielen, auch wenn er eine bestimmte KI-Methode zusammen mit einem anderen Data-Science-Team anwendet. In vielerlei Hinsicht lässt sich hier von Reverse Engineering sprechen, dazu konzipiert, zu prüfen und zuverlässig zu bestätigen, ob der geforderte Grad an Transparenz tatsächlich erreicht wird.

Herkunft der KI-Modelle nachvollziehen

Um echte Transparenz und Vertrauen in KI-Systeme zu schaffen, müssen wir ihre Herkunft verstehen – das heißt die Kette an Verbindungen zwischen jeglichen ML-Modellen, die von einer KI genutzt werden, und all den Komponenten, aus denen sie geschaffen wurde. Die Entstehungsgeschichte eines Modells nachzuvollziehen gestaltet sich ohne robuste, skalierbare Prozesse für den Betrieb dieser Modelle schwieriger – und das liegt typischerweise an der Zahl der daran beteiligten Komponenten, die oftmals groß, dynamisch und schwer nachzuverfolgen sein kann.

Sowohl Vertrauenswürdigkeit, als auch Transparenz lassen sich mit robusten, skalierbaren Prozessen für das Management und den Betrieb der Modelle erreichen. ModelOps, also die Entwicklung und Verwaltung von ML-Modellen, die KI-Initiativen unterstützen, sind der Schlüssel für die Operationalisierung von KI. Allerdings lassen sich diese Prozesse oft nur schwer skalieren und ihre Skalierung kann sogar Probleme nach sich ziehen. Unternehmen müssen deshalb mit Bedacht und Sorgfalt mit ihren Data-Science- und IT-Teams zusammenarbeiten, um deren je eigenen Herausforderungen im Umgang mit den Modellen zu verstehen.

In der Praxis bedeutet robuste Transparenz eine Mischung aus angemessener Offenlegung, Dokumentation und Technologie. Technisch präziser ausgedrückt sind es Data Fabrics und Tools zur Operationalisierung von Modellen, die durch lückenlose Änderungsprotokolle Datentransparenz jederzeit nachvollziehbar und einsehbar machen. Mithilfe dieser Informationen und des Zugriffs darauf lassen sich die Aktionen eines KI-Modells nachverfolgen und nachvollziehen. Genau diese Aktionen sind der Mechanismus einer transparenten KI, der sich erst in seiner Anwendung offenbart.

Diese Nachverfolgbarkeit von Daten und Modellen zusammen mit angemessener Offenlegung und Dokumentation hilft dabei, die genutzten Daten, die getroffenen Entscheidungen sowie die Auswirkungen dieser Entscheidungen innerhalb eines ganzen Unternehmens transparenter zu machen. In keinem Fall können Unternehmen von Kunden und Partnern (genauso wenig wie von ihren eigenen Mitarbeitern) erwarten, dass sie sich auf Unternehmenssysteme einlassen – geschweige denn ihnen vertrauen –, die mit KI-gesteuerten Entscheidungen arbeiten, solange diese nicht den beschriebenen Grad an Transparenz aufweisen.

Eine bessere (transparentere) Welt

Wirtschaft und Gesellschaft sind heute in der beneidenswerten Lage, KI und ML zu nutzen, um viele Bereiche unseres Lebens zu verbessern. In den letzten beiden Jahren wurden Impfstoffe als Antwort auf die Pandemie mit noch nie dagewesener Schnelligkeit entwickelt und produziert. Dieses und viele andere Beispiele veranschaulichen, wie sich KI und ML nutzen lassen, um so viel mehr in ungleich kürzerer Zeit und mit so viel höherer Genauigkeit als jemals zuvor zu erreichen.

Es gilt, diese Entwicklungen weiter voranzutreiben, aber nur innerhalb der Grenzen aller regulatorischen Vorgaben, die Nutzer, Experten und Gesetzgeber festlegen und einführen werden. Dieser Rahmen allein schafft das nötige Vertrauen, KI anzuwenden und von ihren zahlreichen belegten Vorteilen – eine beeindruckend positive Kundenerfahrung, medizinische Durchbrüche, operative Exzellenz und viele mehr – zu profitieren.

Lori Witzel ist Director of Research for Analytics and Data Management bei TIBCO.

TIBCO