Digitale KI-Ethik kann Datenerkenntnisse nur verbessern, Analysen müssen über den reinen Erkenntnisgewinn hinausgehen und Teil von Entscheidungen und Handlungen werden – diese Aussagen trifft Michael O’Connell, Chief Analytics Officer bei TIBCO.

Das Geschäftsklima ändert sich heutzutage schnell und erfordert eine höhere Echtzeittransparenz und aktuelle Empfehlungen auf der Basis von Daten und Analysen. Um in einer Welt nach der Pandemie zu überleben, müssen Unternehmen in der Lage sein, auf Basis der ihnen zur Verfügung stehenden Daten vorherzusagen, was als Nächstes passieren wird.

Außerdem müssen sie Entscheidungen und Handlungen systematischer fällen und ausführen. Mit Hilfe von Prozessen, um die Auswirkungen von Entscheidungen und Aktivitäten zu messen und Lücken im Entscheidungsfindungsprozess zu beseitigen, können sie sich besser auf ihre Kernaufgaben konzentrieren.

Politische Entscheidungsträger beschäftigen sich momentan mit den Herausforderungen KI-gesteuerter Entscheidungen, zum Beispiel in selbstfahrenden Autos und medizinischen Implantaten. Kongressausschüsse beraten darüber, wie Social-Media-Plattformen reguliert werden können, um Falschmeldungen, Hassbotschaften und die Rekrutierung von Terroristen zu reduzieren. Diese politischen Themen werden üblicherweise durch eine ethische Brille betrachtet und führen zu Forderungen nach einer verantwortungsvollen, fairen, transparenten und haftbaren KI.

Wir werden 2022 mehr KI-Startups sehen, die auf ethische KI und Tools fokussiert sein werden. Damit werden sich KI-Anwendungen regulieren lassen, indem sie Industriestandards wie die der Robotics Industry Association und des IEEE folgen. Während so mancher der Meinung ist, dass dies die Innovationsfähigkeit einschränken wird, ist eher ein gegenteiliger Effekt zu erwarten: Ethische KI wird in dem Maße zu besseren Datenerkenntnissen führen, wie Unternehmen dafür sorgen müssen, dass alle von Daten gespeiste Algorithmen ohne diskriminierende Verzerrungen in den Ergebnissen, vertrauenswürdig und sauber sind.

Anomalie-Erkennung strahlt auf neue Anwendungen aus

Anomalie-Erkennung kombiniert mit Ursachenanalyse und auf dieser Basis optimierten Maßnahmen strahlt auf viele Anwendungsbereiche aus und passt sich daran an. Die Anwendung dieser Methoden auf billige und gängige Datenquellen, wie beispielsweise Tondateien (MP3s) in KI-Szenarien am Edge, schafft einen Mehrwert.

Dies eröffnet – gepaart mit komplexeren Analysetechniken wie beispielsweise dem langen Kurzzeitgedächtnis (LSTM) – neue Anwendungsbereiche wie etwa Cyber Security Analytics.

Menschenzentrierte KI (HCAI) ist im Kommen

KI hat das Potenzial, sowohl Träume als auch Albträume wahr zu machen, wenn Maschinen und automatisierte Software die Kontrolle übernehmen. Die menschenzentrierte KI (HCAI) hingegen zielt darauf ab, menschliche Fähigkeiten zu verstärken und so Menschen und Software in die Lage zu versetzen, Großes zu schaffen. Zum Beispiel kann das menschliche Gehirn ganze Bilder, die das Auge wahrnimmt, in weniger als 13 Millisekunden verarbeiten. Die Kombination dieser menschlichen Fähigkeit mit KI und maschinellem Lernen eröffnet neue Räume für adaptive Systeme für maschinelles Lernen.

HCAI beinhaltet die Erstellung verlässlicher und transparenter Systeme auf Basis solider Software-Engineering-Verfahren – beispielsweise Test-Software für die Überprüfung von KI-Algorithmen. Dafür eignen sich visuelle Tools für die Anomalie-Erkennung und Testdatenbanken, um diskriminierende Ergebnisverzerrungen in Trainingsdatensätzen für maschinelles Lernen zu vermeiden.

Die Aufzeichnung von Aktivitäten bedeutet dabei einen großen Fortschritt, da dies eine retrospektive Analyse von Fehlern und Beinahe-Fehlern erlaubt. Ein weiteres zentrales Merkmal ist eine sich selbst erklärende KI, um KI-Entscheidungen zu verstehen und unfaire oder inkorrekte Entscheidungen adressieren zu können.

ModelOps bleibt brandaktuell

Die Arbeit von zuhause aus hat während der Pandemie die Zusammenarbeit zwischen Teams von Datenwissenschaftlern, DevOps- und ModelOps-Entwicklern gefördert, um datenwissenschaftliche Anwendungen schneller in Produktion zu bringen. Daraus resultiert ein größerer Fokus darauf, Ad-hoc-Prozesse in kontrollierte Abläufe umzuwandeln – für das Management von Low-Code- und Code-first-Komponenten, von Prozessen für Verbindungen zwischen Datenflüssen und Modellen sowie von Regeln, Aktionen und Entscheidungen. Die kontinuierliche Analyse von Modellen im Praxiseinsatz bildet im kommenden Jahr ebenfalls einen Schwerpunkt, um den ROI einer datenwissenschaftlichen Anwendung sowie der Anpassung und des Neuaufbaus von Modellen zu bewerten.

ML-Ingenieure sind nun mitten im Geschehen: Sie konfigurieren Bereitstellungsszenarios in hybriden Cloud-Umgebungen und arbeiten dabei mit Datenwissenschaftlern, Dateningenieuren, Geschäftsanwendern sowie DevOps-, AppDev- und Design-Teams zusammen.

Michael O’Connell, Chief Analytics Officer bei TIBCO.

TIBCO