Der Erfolg von ChatGPT setzt Unternehmen zunehmend unter Druck, ihre eigenen Systeme ebenfalls mit generativer KI zu erweitern. Aber wie können sie die neuen Module einführen, ohne Sicherheitslücken entstehen zu lassen? Schließlich dürfen keine sensiblen Informationen in externen Datenpools landen und damit die DSGVO-Compliance gefährden. Dies gelingt nur, indem man langsam, kontrolliert und achtsam vorgeht.
Lösungen auf Basis von generativer KI übersetzen komplexe technische Informationen sekundenschnell in natürliche Sprache. Zur Nutzung sind keine Fachkenntnisse nötig wie bei traditionellen KI-Konzepten. Die Anwender sprechen im Dialog sozusagen direkt mit ihren Daten.
Für Unternehmen bietet diese Technologie enorme Chancen. Laut einer Umfrage von Deloitte unter weltweit 143 CEOs wollen 79 Prozent in generative KI investieren, weil sie sich Effizienzvorteile erhoffen. Dementsprechend wird früher oder später jedes IT-Team vor der Frage stehen, wie es generative KI-Lösungen einsetzt.
Anwendungsbeispiele bei Backup und Recovery
Als erster Use Case bieten sich häufig IT- und Geschäftsprozesse an, die viele manuelle Abläufe erfordern und sich häufig wiederholen. Zum Beispiel kann KI bei der Sicherung und Wiederherstellung von Daten nicht nur repetitive Prozesse übernehmen, sondern gleichzeitig auch IT- und Sicherheitsteams über wichtige Ereignisse informieren. Auf Sprachmodellen basierende Lösungen wie ChatGPT ermöglichen dabei den Nutzern eine einfache Interaktion mit anderen zugrunde liegenden KI-Mechanismen. Diese können etwa:
- Standardprozesse automatisieren. Ein Backup-Administrator muss alle fehlgeschlagenen Vorgänge prüfen, neu planen und starten. KI kann diese Prozesse automatisieren. Anhand eines Schwellenwerts oder der Priorität der Maschine und der darauf gespeicherten Daten lässt sich festlegen, wie oft der neu gestartete Prozess fehlschlagen darf, bis der Administrator benachrichtigt wird und über einen manuellen Eingriff entscheidet.
- Informationen sammeln. KI kann die Ursachen für fehlgeschlagene Backup-Prozesse automatisch erkennen und melden sowie proaktiv die nächsten Schritte empfehlen – oder sogar selbstständig durchführen. Dies spart möglicherweise viele Stunden Zeit.
- Workloads priorisieren. Den besten Zeitpunkt für die Planung (oder Neuplanung) von Backups kann KI ebenfalls ermitteln und den Prozess auf Basis verschiedener Kriterien automatisieren. Wenn beispielsweise am Ende jedes Tages eine Kopie des Workload-Backups auch auf Band geschrieben wird, weiß die KI: Das neue Backup muss zu einem bestimmten Zeitpunkt fertig sein. Auf diese Weise hilft sie, das Risiko eines unerwarteten Datenverlusts einzudämmen.
- Wichtige Daten sichern. Große Datenmengen lassen sich durch KI schnell analysieren. Dies unterstützt IT- und Sicherheitsteams dabei, den Inhalt und damit den Wert der Daten richtig einzuschätzen. KI stuft bei Bedarf Daten und Workloads nach ihrem geschäftlichen Wert ein und priorisiert viele nachgelagerte Aufgaben. Dies beginnt schon bei der Ereigniskorrelation. Kopien der wichtigsten klassifizierten Daten lassen sich automatisch in einen virtuellen Cyber-Tresor verschieben. Dieser ist physisch von der restlichen Infrastruktur getrennt und enthält eine unveränderliche Kopie der Daten.
- Proaktive Prävention gewährleisten. KI kann die Statusdaten der Maschinen und deren Zustand ermitteln. Wenn Hardware-Komponenten ausfallen, leitet KI proaktiv Workloads auf andere Systeme um oder weist das Backup-System an, die betroffenen virtuellen Maschinen auf anderer Hardware wiederherzustellen. Das vermeidet Datenverlust und Ausfälle.
Schnelligkeit vs. Sicherheit
Die Einführung einer solchen Lösung erweist sich aber häufig als komplexe Aufgabe. Die Innovationszyklen bei KI sind enorm kurz, so dass fast täglich neue Konzepte und Lösungen veröffentlicht werden. Inzwischen hat jeder große Hardware- und Software-Anbieter KI-Funktionen in seine Produkte eingebaut und entwickelt diese ständig weiter. Dadurch geht IT-Teams die Marktübersicht verloren und heute eingeführte Lösungen können sich morgen schon als veraltet erweisen – wenn eine noch bessere Anwendung zur Verfügung steht.
Übernehmen IT-Teams aber zu schnell neue KI-Lösungen, öffnen sie damit oft unbewusst Sicherheitslücken. So hat die Firma Endor Labs bei Open-Source-Paketen im KI-Technologie-Stack herausgefunden, dass mehr als die Hälfte der Projektreferenzen Schwachstellen in ihren Manifest-Files aufweisen. Nur fünf Monate nach Veröffentlichung wird die ChatGPT API von mehr als 900 „npm“- und „PyPI“-Packages mit diversen Problem-Domains verwendet. Selbst von Herstellern gut getestete KI-Lösungen können bei einer zu hektischen Installation die Sicherheit gefährden, etwa aufgrund falscher Konfiguration.
Wie lässt sich also das Potenzial dieser Technologien frühzeitig nutzen, ohne dass neue Lücken entstehen? Dies gelingt nur, wenn sich IT-Teams nicht unter Zeitdruck setzen lassen, sondern langsam, kontrolliert und sehr aufmerksam vorgehen.
Das konkrete Vorgehen
Im ersten Schritt sollten sie mögliche Einsatzszenarien ermitteln, die mit relativ wenig Aufwand einen hohen Nutzen versprechen. Anschließend ist zu klären, welche generativen KI-Optionen es dafür gibt. Die Kandidaten sind daraufhin zu untersuchen, welche Daten sie im Detail verwenden, auf welche internen und externen Datenquellen sie zugreifen und mit welchen Systemen sie ihr Wissen teilen. Denn bestimmte KI-Module geben interne Daten automatisch an externe Server weiter, die zum Teil außerhalb der EU stehen. Dies kann einen klaren Verstoß gegen die DSGVO darstellen. Einige Unternehmen wurden schon davon überrascht.
Eine weitere Gefahr für die DSGVO-Compliance stellt die Eingabe von sensiblen und personenbezogenen Daten in weltweit verteilte KI-Lösungen durch die Mitarbeitenden dar. Im April dieses Jahres haben beispielsweise Ingenieure bei Samsung Firmengeheimnisse in ChatGPT hochgeladen und sie damit zum Lernstoff einer globalen KI gemacht. Dies ist auch im Hinblick auf den Schutz des geistigen Eigentums der Worst Case.
Einige Hersteller verfolgen jedoch KI-Ansätze, die per Definition auf die eigene Umgebung beschränkt sind. Zudem legen sie offen, wie die Lösungen arbeiten. So können IT-Teams das Risiko genau bewerten und einen möglichen externen Datenaustausch ausschließen. Die KI ist in sich geschlossen und lässt sich schrittweise hochkontrolliert einführen. Dabei lässt sich jeweils sehr selektiv auswählen, welche internen Systeme und Datenquellen die KI-Module aktiv untersuchen, um die Nutzung sensibler Daten strikt zu verhindern.
Auch Backup-Daten durchsuchen
Großes Potenzial bieten dabei KI-Lösungen, die neben den Produktivdaten auch die Backup-Daten durchsuchen. Das ermöglicht zum Beispiel der Suchassistent Cohesity Gaia, der dazu RAG (Retrieval Augmented Generation) und LLMs (große Sprachmodelle) nutzt.
LLMs dienen zur Verarbeitung natürlicher Sprache und Erzeugung textbasierter Inhalte. Sie werden dazu mit riesigen Mengen von Textdaten trainiert. RAG kombiniert die Vorteile von klassischen Retrieval-basierten und neuen generativen Ansätzen, um die Qualität der Texterstellung zu verbessern. Dazu gehören die Beantwortung von Fragen, Zusammenfassungen und Konversations-KI. RAG-Modelle vereinen auch die Stärken von LLMs mit der Fähigkeit, Informationen aus mehreren Quellen abzurufen. Das ermöglicht fundiertere, vielfältigere und relevantere Antworten und bietet einen effizienteren Ansatz zur Feinabstimmung dieser Modelle.
Den konkreten Mehrwert zeigt als Beispiel die Ursachenermittlung für einen Kostenanstieg in einer Region. Bislang müssen dazu Verantwortliche über klassische Suchanfragen Dutzende alter Rechnungen auffinden, prüfen und miteinander vergleichen. Das kann Stunden, Tage oder Wochen dauern. Stattdessen fragen sie nun einfach den KI-Assistenten: „Warum sind die Kosten in dieser Region gestiegen?“ Die Lösung zieht automatisch die relevanten Informationen aus den gespeicherten Produktiv- und Backup-Daten, analysiert sie und beantwortet die Frage in leicht verständlicher Form.
Zeit zum Lernen lassen
Sobald KI-Module aktiv geschaltet sind, sollte ein Mitglied des IT-Teams immer für längere Zeit ihre Arbeitsweisen und Ergebnisse kontrollieren. KI wird immer bessere und genauere Resultate liefern, je länger sie im Einsatz ist und je mehr Daten und Muster sie in der individuellen Umgebung des Unternehmens erfasst hat. In der Anfangszeit sind daher Fehler zu erwarten, die jedoch im Laufe der Zeit immer weniger und kleiner werden sollten.
Dies gilt umso stärker, je komplexer die Aufgaben sind. Dagegen schlagen KI-Module bei einfachen Standardaufgaben oft schon sofort die richtigen Maßnahmen vor. Beispielsweise sollen alle Anfragen von IP-Adressen aus verdächtigen geographischen Regionen von einer Firewall geblockt werden. Hier empfiehlt die KI meist schon im ersten Anlauf die richtigen Regeln und ein Mitglied der IT muss diese nur noch freigeben. Selbst bei solch simplen Vorgängen muss immer ein Mensch die finale Entscheidung treffen, da die KI grundsätzlich immer Fehler machen kann.
Solche klaren Einsatzszenarien, in denen KI sehr schnell die Arbeitslast durch einfache oder sich wiederholende Prozesse reduzieren kann, lassen sich in vielen anderen Bereichen der IT finden. Je klüger die KI wird, desto kritischere Entscheidungen kann sie dann vorbereiten. Indem sie etwa die tägliche Informationsflut bei Geschäftsprozessen oder Security-Meldungen vorsortiert, hilft sie IT-Teams dabei, massiv Zeit zu sparen und sich auf die wichtigen Vorgänge zu konzentrieren.
Schließlich erzeugen IT-Umgebungen heute jeden Tag viele Petabytes an Logging-Daten, in denen Hinweise zu unterschiedlichen Sicherheits- oder Performance-relevanten Themen versteckt sind. Die meisten Unternehmen werten 80 Prozent dieser Meldungen überhaupt nicht aus, weil es wegen der enormen Datenmenge nicht auf sinnvolle Weise anders geht. Mit KI können IT-Teams per Spracheingabe diese Informationen auf übersichtliche Weise erhalten. So stellen sie Anfragen wie: „Zeige mir alle Systeme mit diesem Patch Level und dieser Schwachstelle“, ohne ein einziges Script zu schreiben. Die umfassenden, aufbereiteten Informationen ermöglichen fundiertere und schnellere Entscheidungen.
Bei Bedarf externe Quellen einbinden
Eine komplette Abschottung nach außen ist aber nicht immer sinnvoll. Vor allem KI-Module aus dem Security-Bereich müssen oft externe Updates einpflegen – sei es über neue Angriffsmethoden, Schwachstellen oder Patches. Doch sollten Verantwortliche hier genau prüfen, welche Informationen nach außen gehen und welche Daten zurückfließen. Kein CISO wird akzeptieren, dass Details zur eigenen Netzstruktur oder zum aktuellen Patch-Status in externen KI-Engines landen.
Daher empfiehlt es sich, in einem Pilotprojekt testweise zu analysieren, welche Daten tatsächlich wohin übertragen werden. Etablierte Hersteller können ihren Kunden im Detail zeigen, welche Informationen sie einpflegen und ob es Wege für den Kunden gibt, bestimmte Elemente von vornherein herauszufiltern. Jeden einzelnen Input zu untersuchen, wird im Alltag aufgrund der Menge an Updates für die KI-Module wohl unmöglich sein. Es lässt sich aber eine KI-Kontrollinstanz entwickeln, die ihrerseits den Input und Output der eingesetzten KI-Lösungen aus Sicherheitsperspektive kontrolliert.
Vom Restrisiko sollten sich IT-Teams nicht abschrecken lassen, denn das Potenzial in sich geschlossener KI-Lösungen im eigenen Netzwerk ist enorm. Jeder Unternehmensbereich wird davon profitieren und es lassen sich automatisch Synergien nutzen. Wenn sich etwa die HR-KI mit der Security-KI und der Inventory-KI darüber austauscht, dass ein Mitarbeiter aus der Finanzabteilung über sein Smartphone auf Forschungsserver zugreift, geht eine korrelierte Warnmeldung an das Sicherheitsteam. So lässt sich ein möglicher Insider-Angriff sofort stoppen, noch bevor größerer Schaden entsteht.
Fazit
KI kann die enorme Belastung von IT- und Sicherheitsteams deutlich reduzieren, indem sie repetitive und aufwändige Arbeitsschritte übernimmt. Sie liefert umfassende Berichte und schlägt auf verständliche Weise konkrete Schritte vor. So erhalten Betriebs- und Sicherheitsteams übersichtliche Informationen für die anstehenden Aufgaben. Entsprechend leistet KI auch einen enormen Beitrag für eine höhere Widerstandsfähigkeit gegenüber internen und externen Cyberangriffen, die sich aufgrund ihrer Menge und schnellen Weiterentwicklung nur schwer bis unmöglich durch manuelle Analysen alleine verhindern lassen.
Ein Kommentar von Mark Molyneux, EMEA CTO von Cohesity.