Im Rahmen der IFS Unleashed 2024 in Orlando hatte unser freier Redakteur Markus Glaser, von der edvberatung.litters, die Gelegenheit mit Bob De Caux, dem VP of Automation und Chief AI Officer bei IFS, über die Zukunft von Künstlicher Intelligenz (KI) und Maschinellem Lernen zu sprechen.
Mit der Plattform IFS Cloud bietet das Unternehmen eine einheitliche, KI-gestützte Lösung, die Unternehmen hilft, komplexe Anforderungen zu bewältigen und Geschäftsprozesse zu optimieren. IFS legt besonderen Wert auf Kundenzufriedenheit und Business-Transformation durch Innovationen.
Bob De Caux, ein führender Experte auf dem Gebiet der KI und Simulation komplexer Systeme, leitet bei IFS eine weltweit ausgerichtete Initiative, um diese Technologien in Softwareprodukte zu integrieren und deren Effektivität in verschiedenen Branchen zu steigern. In diesem persönlichen Interview gibt er Einblicke in die neuesten Entwicklungen im Bereich der Automatisierung, die Auswirkungen auf Unternehmen und die nächste Generation innovativer Lösungen.
Lassen Sie uns mit einer Beobachtung beginnen, die mir während des Gesprächs über IFS Cloud aufgefallen ist. Gibt es eine Möglichkeit, Künstliche Intelligenz auch On-Premisess zu integrieren? Wird diese Option derzeit von Ihnen unterstützt?
Wir haben uns dazu entschlossen, unsere KI-Dienste auf einer Shared-Services-Plattform anzubieten, um zu vermeiden, all diese Dienste für jeden Kunden individuell bereitstellen zu müssen. Und diese gemeinsame Plattform in der Cloud funktioniert sehr gut. Unsere Cloud-Kunden können darauf zugreifen und wir können es entsprechend skalieren. Das funktioniert alles reibungslos.
Mit unserer Anfang 2025 erscheinenden Version bieten wir, für Kunden, die On-Premises arbeiten, die Option ein hybrides Modell zu nutzen. Sie haben dann die Möglichkeit die KI-Dienste in der Cloud zu verwenden. Dadurch können sie auf große Sprachmodelle und ähnliche Technologien zugreifen. In der Zukunft planen wir die KI vollständig On-Premises verfügbar zu machen. Besonders für einige Kunden aus dem Verteidigungsbereich und regulierten Industrien wird dies wichtig sein. Momentan ist es allerdings schwierig, große Sprachmodelle vollständig On-Premises zu betreiben. Da allerdings kleinere Sprachmodelle entwickelt werden, schauen wir uns Möglichkeiten an, diese Modelle auch On-Premises bereitzustellen. Wir hoffen, ein Niveau zu erreichen, bei dem wir eine Reihe von KI-Funktionen auch On-Premises anbieten können. Aber das hybride Modell steht unseren Kunden ebenfalls zur Verfügung.
Ich bin selbst Softwareentwickler und arbeite ebenfalls mit KI. Es gibt bestimmte Modelle, die einfach besser geeignet oder spezifisch trainiert sind, um präzisere Antworten auf bestimmte Anfragen zu geben. Werden alle Probleme mit demselben Modell bearbeitet oder besteht die Möglichkeit, z. B. auf ein Modell umzuschalten, das speziell für die Forschung trainiert ist?
Ja, es gibt eine Umschaltmöglichkeit. Die Plattform ist so aufgebaut, dass sie in mittelfristiger Hinsicht LLM-agnostisch ist. Die Nutzeroberfläche – unser Co-Pilot-Interface – mit der die Kunden interagieren, bietet viel Kontext. Wir berücksichtigen nicht nur die gestellte Frage, sondern auch, wo sie sich im Produkt befinden, worüber sie sprechen, welche Assets sie bearbeiten, etc. Diese Informationen ziehen wir als kontextuelle Daten hinzu, wandeln sie in Eingabeaufforderungen um und pflegen sie in eine Bibliothek ein. Diese Eingabeaufforderungen funktionieren derzeit sehr gut mit vielen der gängigen LLMs, zukünftig werden wir aber sicher mehr branchenspezifische LLMs sehen. Wir haben das System so ausgelegt, dass wir diese Eingaben an die benötigten LLM-Dienste weiterleiten können.
Momentan bauen wir kein eigenes LLM. Wir sind der Meinung, dass wir die bestehende Sprachtechnologie über die Daten unserer Kunden gut einsetzen können, und das funktioniert sehr effektiv.
In der Präsentation heute Morgen kamen Szenarien zur Sprache, in denen die KI berechnen kann, wie viele Arbeitsschichten benötigt werden, um beispielsweise eine bestimmte Aufgabe zu erfüllen, also Vorhersageszenarien. Wer erstellt diese Szenarien? Werden sie alle von IFS erstellt oder gibt es auch die Möglichkeit, dass der Kunde diese selbst erstellt?
Die Simulationsfähigkeit ist so konzipiert, dass sie eine Vielzahl von Szenarien abdecken kann. Es handelt sich um ein Simulations-Framework, welches hauptsächlich auf die Ressourcenzuweisung und deren Optimierung ausgerichtet ist. Die Daten, die es verarbeiten kann, können aber beliebige sein. Natürlich möchten wir es dem Kunden so einfach wie möglich machen, Szenario basierte Daten in die Simulations-Engine zu laden, ohne viel Arbeit zu investieren. Z. B. im Notfallmanagement bei Wetterereignissen: Man möchte die Auswirkungen eines Sturms mithilfe von GIS-Daten simulieren und so einen Arbeitsfluss oder eine Reihe von Aufgaben erstellen, die die Techniker dann abarbeiten und mit Ressourcen abdecken müssten.
Derzeit können Kunden beliebige Daten hochladen, um solche Szenarien darzustellen. Wir möchten das weiterentwickeln, sodass sie diese Szenarien grafisch simulieren können, und dies würde dann automatisch in die Engine übertragen.
Wir sehen auch viele Synergien mit Copperleaf und deren Herangehensweise an Simulationen. Es gibt viele Überschneidungen mit unserer Software. Unsererseits ist vorstellbar einige dieser in Copperleaf generierten Szenarien in das Ressourcenzuweisungstool einfließen zu lassen. Es geht also darum, es für den Nutzer einfacher zu machen. Aber zu deiner speziellen Frage: Ja, sie können jedes beliebige Szenario simulieren, das sie möchten.
Ist geplant, die Szenarien KI-basiert erstellen zu lassen?
Wir erkunden definitiv viele Möglichkeiten, indem wir abstrakte Fragen von Nutzern verwenden, also generative KI einsetzen. Es könnte etwa so aussehen, dass jemand überlegt, seine Aktivitäten nach Deutschland auszudehnen. Wir verwenden KI, um solche Fragen in eine Abfolge von Schritten zu übersetzen, die sie dann durchlaufen würden. Daraus könnten Arbeitsaufgabenpakete erstellt werden, und dann könnte man planen, wie man diese Aufgaben mit Ressourcen abdeckt. Der generative KI-Ansatz, mit dem wir die Geschäftskonzepte dessen, was sie erreichen wollen, in etwas umsetzen, das sie simulieren können, ist ein Bereich, den wir aktiv untersuchen.
Derzeit basiert euer KI-Co-Pilot auf einer Freitexteingabe, bei der die Nutzer ihre Anfragen frei formulieren können. Ist die Qualität der Ergebnisse daher nicht stark von der Erfahrung und dem Wissen des Nutzers abhängig? Gibt es Pläne, eine benutzerfreundliche Oberfläche zu entwickeln, die den Prozess der Erstellung von Eingabeaufforderungen erleichtert?
Diese Möglichkeit ist bereits vorhanden. Wir nennen es das „Assistant Framework“. In verschiedenen Teilen des Produkts erfassen wir effektiv den Kontext, in dem der Kunde eine Frage stellt, und bieten so eine Art Autovervollständigungsdienst an oder fragen nach, ob er über ein bestimmtes Asset spricht, und solche Dinge.
Das Prompt-Engineering ist nicht darauf ausgelegt, vom Benutzer gesteuert zu werden. Wir haben eine Reihe von Diensten unter dem Co-Pilot, die den Kontext aufnehmen und ihn in unsere vordefinierten Prompt-Vorlagen einfügen, bevor er das LLM-Modell erreicht. So können Kunden eine Unterhaltung führen und versuchen, sie in eine bestimmte Richtung zu lenken, basierend auf ihren eigenen Daten. Aber einen Großteil des Prompt-Engineerings für die spezifischen kontextuellen Situationen, in denen sie sich befinden, übernehmen wir. Wir möchten nicht, dass der Kunde das selbst machen muss. Deshalb ist es so wichtig, den Kontext der Person, die die Frage stellt, zu erfassen: Wo befindet sie sich im Produkt? Was hat sie vorher gemacht? Das alles fließt in unsere Prompts ein.
In Bezug auf die Sicherheit der Prompts, unternehmt ihr da etwas Spezielles? Beispielsweise, um zu überprüfen, ob der Benutzer überhaupt die Berechtigung hat, wie etwa beim Abrufen von Finanzdaten oder anderen eingeschränkten Informationen. Wie geht ihr mit solchen Dingen um?
Ja, das tun wir. Wir haben alle Zugriffsrechte auf Daten, die wir seit Langem in unserer Software haben, in unserem Standard-Datenbankmodell implementiert. Mit dem Co-Pilot ermöglichen wir es unseren Kunden, leichter auf strukturierte Daten zuzugreifen und gezielt Fragen zu den tabellarischen Informationen zu stellen, die sie einsehen. Dabei gelten die gleichen Zugriffsrechte wie bei der normalen Nutzung des Produkts, sodass alle Antworten nur auf Datensätzen basieren, die für sie sichtbar sind.
Für unstrukturierte Daten haben wir ebenfalls Zugriffs- und Benutzerrechte, die auf das Dokumentenmanagementsystemangewendet werden, sodass nur diejenigen, die Zugriff haben, diese Daten einsehen können. Die Indizes, die die Suche und die LLMs unterstützen, sind ebenfalls zugriffsberechtigt.
Das heißt, die Daten werden gefiltert, bevor sie überhaupt in die KI gelangen?
Das ist korrekt, ja, das ist ein wichtiger Bestandteil des Zugriffsmanagements.
Die IFS-Cloud wird von vielen Kunden gleichzeitig genutzt. Wie wird in diesem Fall sichergestellt, dass meine Daten bei einem möglichen Datenleck nicht betroffen sind? Besteht die Gefahr, dass ein Angreifer, der Zugriff auf die Cloud erhält, auf sämtliche Unternehmensdaten aller Kunden zugreifen könnte?
Nein, weil die Daten nicht vollständig an die KI-Dienste übertragen werden. Das Sicherheitsframework der IFS-Cloud und die kundenindividuelle Einrichtung bleiben bestehen.
Wir betreiben die Dienste auf einer Shared-Services-Plattform, also mehr im Multi-Tenant-Modell, aber wir kopieren nicht alle Kundendaten in diese geteilten Dienste, sodass alle Sicherheitsvorkehrungen erhalten bleiben. Die Interaktionen mit dem Service sind so gestaltet, dass möglichst wenig Daten verwendet werden – rein berechnungsbasiert, ohne Speicherung. Der Zugriff bleibt somit weiterhin für jeden Kunden getrennt.
Sie haben zuvor erwähnt, dass innerhalb einer Benutzersitzung der Kontext fortgeführt wird. Bedeutet dies, dass der Kontext bei der nächsten Anfrage innerhalb desselben Kontexts mitgegeben wird, ohne dass eine Speicherung in der Cloud erforderlich ist?
Das ist richtig. Wir greifen auf die Gesprächshistorie auf der Cloud-Seite zu, bevor sie ans Ende gelangt.
Christian Pedersen (Chief Product Officer bei IFS) hat gesagt, dass insbesondere für die Kunden im Verteidigungsbereich die 100-prozentige Genauigkeit der Ausgaben des LLMs entscheidend ist. Laut ihm muss sichergestellt sein, dass die Antworten völlig korrekt sind. Aufgrund der Natur von Vektordatenbanken und LLMs klingt das jedoch unmöglich. Was unternehmen Sie, um diesem Versprechen gerecht zu werden?
Das ist eine gute Frage. Ich denke, es geht dabei um das Konzept der „Daten-Assets“ und nennen wir sie „Atomare Daten-Assets“.
Atomare Daten-Assets?
Genau. Im Bereich Luftfahrtverteidigung sind viele Datenpunkte tatsächlich freigegeben und authentifiziert, und es gibt eine bestimmte Datenebene, die nicht verletzt, nicht paraphrasiert und nicht verändert werden darf. Dieser Kontext ist unveränderlich, und so wird er in unserer strukturellen
Datenbank gespeichert.
Wenn wir also mit diesen „unveränderlichen Datenstücken“ arbeiten, stehen sie dem LLM nicht zur Verfügung, um sie zu paraphrasieren oder allgemeiner zu gestalten. LLMs sind sehr gut darin, Informationen zusammenzuführen und auf eine Antwort zu verdichten, aber bei bestimmten Datenstücken können sie das nicht tun, ohne die „Atomarität“ dieser Stücke zu brechen. Sie können diese Stücke aggregieren, aber sie dürfen das signierte Stück nicht verändern. Natürlich kann dies die Effektivität in einigen Bereichen einschränken, insbesondere wenn wir untersuchen, wie man z. B. Katalogsuchen für Teile durchführt. Es gibt sehr tiefe Hierarchien von Assets mit Freigabepunkten in jeder Hierarchie, aber wir haben dennoch festgestellt, dass wir das Suchen und Bereitstellen dieser Informationen für Benutzer erheblich erleichtern können, indem wir viele unstrukturierte Daten zusammenführen, die noch nicht so kontextualisiert sind, und den Co-Piloten darauf anwenden.
Es gibt eine bestimmte Ebene, bei der wir nach der Freigabe der Daten nichts mehr verändern möchten, aber in dieser Branche gibt es viele andere Anwendungsfälle. Also ja, wir müssen sehr vorsichtig sein, wie wir es gestalten, aber es gibt ein Grundprinzip, wie wir ALD (Automated Logical Deduction) implementieren.
Das Erkennen von Mustern in großen Datenmengen gehört zu den zentralen Stärken von Large Language Models (LLMs). Dennoch zeigen aktuelle Forschungen – beispielsweise zu Übertraining in der KI oder zu Vektordatenbanken –, dass eine Überdimensionierung der Daten ab einem gewissen Punkt die Qualität der Ergebnisse negativ beeinflussen kann.
Wie stellen Sie sicher, dass es nicht zu einer solchen Überdimensionierung kommt, und wie gewährleisten Sie die Qualität der generierten Antworten?
Wir entwickeln das ständig weiter, indem wir Vektorsuche und einige gängigere Suchtechniken verwenden und herausfinden, welcher Kontext nützlich ist, um bessere Antworten zu liefern, und welche Teile weniger hilfreich sind.
Ich denke, jeder erkundet noch, wie man das Beste daraus herausholt, oder? Ich finde es sehr wichtig, dass wir das nicht zu weit treiben, insbesondere in unseren branchenspezifischen Lösungen, in denen wir mit Daten sehr vorsichtig sein müssen. Es mag in manchen Branchen eine etwas langsamere Akzeptanz geben, aber aus der Perspektive der Forschung und Entwicklung betreiben wir viel Forschung weniger über die LLMs selbst, sondern wie wir unsere Daten speichern, wie wir am effizientesten darauf zugreifen und die Anwendungsfälle darauf aufbauen können. Es gibt viele „Low-Hanging Fruits“, bei denen wir sehr zuversichtlich sind, dass wir Mehrwert schaffen können. Die wirklich interessanten und komplexeren Bereiche für uns sind dabei insbesondere die strukturierten Daten und die Beziehungen innerhalb der Tabellen und wie ein LLM darüber verwendet wird.
Wir arbeiten viel mit Microsoft zusammen – sie haben das selbst noch nicht vollständig gelöst. Ich denke, da liegt noch ein langer Weg vor uns. Und ich kann sehen, dass sich dies in den nächsten ein bis zwei Jahren stark weiterentwickeln wird, sodass die Antworten immer besser werden. Dennoch sind wir zuversichtlich, dass wir bereits jetzt Mehrwert bieten können, ohne die Integrität unserer Lösung zu gefährden.
Aus der Perspektive eines Entwicklers: Welche spezifischen KI-Technologien würden Sie empfehlen oder selbst einsetzen? Welche Ansätze halten Sie für besonders zukunftsträchtig und lohnenswert, um sich darauf zu fokussieren?
KI-Technologie? Es ist eine Mischung. Sie haben die sechs Klassen von KI gesehen, die wir
haben, die grob in generative KI und prädiktive KI unterteilt sind, einschließlich Optimierung und Simulation.
Im Bereich der Anomalie-Erkennung, also bei der Arbeit mit Zeitreihen und sehr großen Datenmengen, haben wir eine interessante Entwicklung festgestellt. Früher basierte das sehr stark auf Maschinellem Lernen, also darauf, dass man eine große Anzahl historischer Beispiele benötigt, in denen etwas ausgefallen oder schiefgelaufen ist.
Wir sehen jetzt eine Verschiebung hin zu tiefen neuronalen Netzen (Deep Neural Networks) und Autoencodern, die den Kontext viel schneller erfassen. Man verbindet sie mit einem Sensor, stellt das normale Verhalten fest, und dann läuft das System und eine Anomalie wird zu einer Abweichung davon. Warum das nützlich für uns ist? Es bringt schneller Mehrwert für unsere Kunden. Wir konzentrieren uns immer darauf, was die Schmerzpunkte unserer Kunden sind. Und wenn wir diese neuen technologischen Fortschritte sehen, fragen wir uns, wie wir das tatsächlich in die Techniken integrieren können, die wir sehen.
Die Anomalie-Erkennung und Optimierung, speziell in großem Maßstab: Einige unserer Kunden versuchen, Hunderttausende von Technikern in einem ganzen Land zu optimieren. Das kann man nicht mit einem einzigen Algorithmus machen. Wir müssen effektive Wege finden, diese Probleme aufzubrechen und die Informationen für sie aufzubereiten. Auf Ihre Frage bezogen würde ich sagen, dass die Benutzererfahrung, die mit der KI einhergeht, derzeit der interessanteste Aspekt ist. Die KI-Algorithmen selbst entwickeln sich sehr schnell weiter. Vieles wird zur Massenware. Wie man das zurück an den Benutzer bringt und die Komplexität entfernt, sodass es einfach zu verstehen ist – das ist wirklich der interessante Aspekt dabei.
Eine abschließende Frage: Sie haben erwähnt, dass Sie den Benutzerkontext erfassen, um präzisere Antworten liefern zu können. Wie gehen Sie dabei auf die individuellen Nutzer ein? Berücksichtigen Sie unterschiedliche Personas?
Darüber hinaus gibt es auch unternehmensspezifische Anforderungen, etwa besondere Datenmuster oder spezifische Kundenprofile. Wie importieren und nutzen Sie diese Daten? Kommen dabei spezielle Lernalgorithmen oder KI-Technologien zum Einsatz, um Benutzerprofile zu analysieren und die generierten Inhalte entsprechend anzupassen?
Auch das entwickelt sich noch, und wir sind noch nicht am Endstadium. Im Moment erfassen wir eine beträchtliche Menge an Kontext innerhalb der Seiten, bei denen wir sicher sind, dass unsere Benutzer versuchen, bestimmte Dinge zu erreichen. Ein Beispiel: Im Asset-Management mit FMECA-Analysen (Failure Modes, Effects, and Criticality Analysis) wissen wir, welche Art von Aufgaben sie erledigen und dass sie immer bestimmte Assets betrachten oder darüber sprechen werden. Und wir kennen die Art von Personas, die auf diesen Seiten aktiv sind. Daher machen wir uns im Moment weniger Sorgen darum, den Benutzerkontext zurückzuverfolgen, sondern konzentrieren uns viel mehr auf den Kontext dessen, was sie gerade betrachten.
Mit IFS Home geht es viel mehr um die Personalisierung und das personalisierte Erlebnis. Dort werden wir beginnen, mehr von diesem Kontext zurückzuverfolgen. Wie wir die individuellen Benutzerinformationen mit dem Kontext des Softwarebereichs, eventuellen Datenbeschränkungen und allem, was Sie angesprochen haben, kombinieren, wird definitiv ein wichtiger Bestandteil des Maschinellen Lernens sein, das im Hintergrund abläuft. Wir haben unsere ersten Schritte in diesem Bereich im Jahr 2024 und in der Version „24R2“ gemacht und werden das 2025 weiter ausbauen.
Vielen Dank.
Das war wirklich gut, danke. Es war das bisher technischste Interview!