Viele Mitarbeitende nutzen im Arbeitsalltag öffentliche KI-Dienste. Dabei riskieren sie Datenabflüsse und schöpfen das Potenzial von generativer KI nicht aus. Unternehmen sollten deshalb eine kontrollierte, vertrauenswürdige und nutzerfreundliche KI-Plattform einführen. Das geht auch ohne aufwändige Eigenentwicklungen.
E-Mails formulieren, Texte verbessern, Dokumente zusammenfassen, Impulse für Konzepte einholen, Bilder generieren: Mitarbeitende nutzen generative KI inzwischen an vielen Stellen, um alltägliche Aufgaben einfacher zu gestalten und schneller auszuführen. Dabei greifen sie häufig auf öffentliche Dienste wie ChatGPT oder Perplexity zurück. Für die Unternehmen ist es riskant, wenn Mitarbeitende interne Dokumente hochladen oder in ihre Prompts vertrauliche Informationen eingeben. Damit riskieren sie den Abfluss sensibler Daten, denn Anbieter dieser Dienste trainieren mit den Eingaben ihre KI-Modelle weiter und in Prompts enthaltene Informationen könnten in den Antworten anderer, unternehmensfremder Nutzerinnen und Nutzer auftauchen.
Selbst wenn keine sensiblen Daten im Spiel sind oder vertrauliche Informationen vorher anonymisiert werden, können die Mitarbeitenden das Potenzial der generativen KI unter Umständen nicht voll ausschöpfen, da für optimale Ergebnisse effizientes Prompting erforderlich ist. Dafür braucht es aber Expertenwissen, über das nicht alle verfügen und das sich aus Zeitgründen auch nicht alle aneignen können. Darüber hinaus können allgemeine Tools wie ChatGPT und Perplexity zwar normale Sprache sehr gut verarbeiten, stoßen aber bei spezialisierten Aufgaben wie der Prüfung technischer Dokumentationen oder der Umformulierung von Vertragsklauseln an ihre Grenzen, weil sie nicht über das nötige fachliche Know-how verfügen. Das erforderliche Domänenwissen muss den Tools bei jeder Anfrage mitgegeben werden – etwa durch das Hochladen von Dokumenten, das Einfügen von Hintergrundinformationen in den Prompt oder die Bereitstellung von Richtlinien und Beispielen.
Unternehmen können auf vorgefertigte Tools zurückgreifen
Um diese Defizite bei Datenschutz und Nutzungsqualität zu beseitigen, haben Unternehmen natürlich die Möglichkeit, eigene, kontrollierte KI-Plattformen aufzubauen, die auf einer sicheren Infrastruktur betrieben werden, internes Wissen einbinden und eine nutzerfreundliche Oberfläche bieten, die Prompting automatisch unterstützt oder sogar ganz überflüssig macht. Damit sind aber oft aufwändige Eigenentwicklungen und komplexe Integrationen verbunden. Um das zu vermeiden, können sie auf vorgefertigte Tools zurückgreifen, die sich einfach installieren und flexibel anpassen lassen.
Ein solches Tool bringt zahlreiche vordefinierte Micro-Apps für die Kommunikation, die Erstellung von Inhalten, Analyse und Reporting, Übersetzung und Lokalisierung oder mehr Meeting-Produktivität mit. Dazu zählen etwa Anwendungen für die Generierung von E-Mails, den Wechsel der Tonalität von Texten, , Social-Post-Entwürfe, Präsentations-Skizzen, Excel-Quick-Insights, Vertragsrisiko-Scans, Bild-Analysen, mehrsprachige Übersetzungen und Terminologie-Checks oder die Erzeugung von Meeting-Protokollen und To-Do-Listen. Mit diesen Apps müssen die Nutzenden nicht mehr prompten, sondern lediglich vorgegebene Felder ausfüllen, um das gewünschte Ergebnis zu erhalten – für die Generierung einer E-Mail etwa den Empfänger, den Betreff, den stichpunktartigen Inhalt und die erforderliche Tonalität. Power User können zudem selbst eigene, auf das Unternehmen maßgeschneiderte, Micro-Apps erstellen und wenn erforderlich, vorhandene Unternehmens-Glossare, Formulare oder Workflows einbinden.
Welche LLMs zum Einsatz kommen, steht den Unternehmen frei. Je nach Datenschutz- und Compliance-Anforderungen können sie On-Premises- oder Cloud-Sprachmodelle nutzen. Auch eine Kombination mehrerer Modelle ist möglich. Alle verfügbaren und freigegebenen LLMs können hinterlegt und dann einfach über ein Menü für jeden Use Case individuell ausgewählt werden. Das ermöglicht es den Unternehmen, das Tool in der eigenen IT-Umgebung und mit kontrollierten Cloud-Modellen sicher zu nutzen und ihre Richtlinien zu erfüllen.
Bestandteil eines smarten Informationsmanagements
Idealerweise ist das Tool dabei in eine integrierte Komplettlösung für smartes Informationsmanagement eingebunden. Diese kombiniert Enterprise Search mit generativer KI und bietet neben dem besagten Tool noch weitreichendere Möglichkeiten. So sorgt sie mit ihren Suchtechnologien dafür, dass Mitarbeitende benötigte Informationen in den Dateien, Dokumenten oder Mails ihres Unternehmens schnell und unkompliziert finden. Mit einer RAG-Architektur (Retrieval Augmented Generation) ermöglicht sie Nutzenden zudem einen sicheren Chat mit organisationseigenen Daten. Im Rahmen dieser Architektur holt es sich bei Fragen mithilfe der Suchtechnologien die erforderlichen Inhalte automatisch rechtegeprüft und nutzt dann Sprachmodelle lediglich zur Generierung der Antworten. Mit einem solchen Gesamtsystem steht Mitarbeitenden eine durchgängige und sichere Plattform für effiziente Suche, wissensbasierte Antworten aus organisationseigenen Daten und die schnelle und unkomplizierte Erledigung alltäglicher wissensbasierter Aufgaben zur Verfügung.
Ein Beitrag von Franz Kögl, Vorstand bei IntraFind in München, einem Spezialisten für Enterprise Search und KI.
Weitere Information zu IntraFind finden Sie hier.
