Es wird immer klarer, dass Unternehmen, welche die technologischen Fortschritte im Bereich künstlicher Intelligenz (KI) und maschinellem Lernen (ML) ignorieren, am Ende ihre eigene Wettbewerbsfähigkeit aufs Spiel setzen. Bei nachgewiesenen Produktivitätssteigerungen von über 60 Prozent horcht wohl jeder auf. Dennoch kann der Einsatz von KI auch unerwünschte Folgen haben. Vor allem sicherheitsrelevante Aspekte sind regelmäßig Thema. Wie also lässt sich die Leistungsfähigkeit neuer KI/ML-Tools nutzen, ohne die Cybersicherheit zu gefährden?

Oberflächlich betrachtet handelt es sich bei KI und ML einfach um Statistik im großen Stil: Alle KI-Modelle stützen sich auf Daten, um entsprechend statistischer Methodik Ergebnisse für ihren Schwerpunktbereich zu generieren. Um genau diese Datennutzung ranken sich jedoch zugleich die meisten Risiken – insbesondere, wenn es sich um vertrauliche oder sensible Informationen handelt. Unternehmen, die externe KI/ML-Tools verwenden, laufen Gefahr, dass der Anbieter die Daten zum Trainieren seiner eigenen Algorithmen verwendet und dabei möglicherweise versehentlich geistiges Eigentum preisgibt oder stiehlt. Außerdem kann ein KI-Tool, das auf mangelhafte Daten zurückgreift, auch nur ungenaue Ergebnisse liefern. Glücklicherweise sind viele Anwendungen in dieser Hinsicht heute schon recht leistungsfähig. Zudem können sie unter Berücksichtigung einiger Vorsichtsmaßnahmen sicher eingesetzt werden.

 

Tipp 1: Nicht vergessen: Bei kostenlosen Angeboten ist der Nutzer das Produkt

Bei kostenlosen KI-Programmen oder -Diensten kann man davon ausgehen, dass sie bereitgestellte Daten weiterverwenden. Viele frühe Modelle, darunter ChatGPT, verfolgen ein Nutzungsmodell, das dem von Social-Media-Plattformen wie Facebook und Tik Tok ähnelt. Nutzer zahlen eben nicht mit harter Währung für die Inanspruchnahme der Dienste, sondern mit ihren privaten Daten, die die Plattformen zur gezielten Werbung und zur Monetarisierung nutzen. In ähnlicher Weise kann ein kostenloser KI-Dienst Daten von Geräten sammeln und Eingabeaufforderungen speichern, um diese zum Trainieren seines Modells zu verwenden. Auf den ersten Blick erscheint das nicht bösartig, aber Nutzer können sich niemals sicher sein, ob und wie ein KI-Dienst ihre Daten anderweitig zu Geld macht. Noch relevanter ist die Tatsache, dass Bedrohungsakteure, denen ein erfolgreicher Angriff auf den KI-Anbieter gelingt, auch Zugang zu sensiblen Daten der Anwender erhalten könnten.

 

Tipp 2: Juristische Unterstützung hinzuziehen

Der beste Weg, um herauszufinden, wie ein KI-Tool oder -Dienst mit Daten umgeht, ist die aufmerksame Lektüre der Endnutzer-Lizenzvereinbarung, des Rahmenvertrags für Dienstleistungen, der Geschäftsbedingungen und der Datenschutzrichtlinien des Anbieters. Hierbei handelt es sich um lange und komplexe Dokumente. Zudem wird meist nur äußerst kryptisch beschrieben, wie der Anbieter tatsächlich mit Daten umgeht. An dieser Stelle kommt die Rechtsabteilung der Unternehmen ins Spiel. Die Verantwortlichen dort kennen die gesetzlichen Bestimmungen zum Schutz sensibler Daten – einschließlich personenbezogener Daten (Personally Identifying Information – PII). Sie können die einschlägigen Dokumente kompetent interpretieren und darauf aufmerksam machen, wenn bestimmte Klauseln mit einem Risiko im Hinblick auf die Datennutzung einhergehen. Ein Datenschutzbeauftragter, der auf GDPR, CCPA oder andere Datenschutzbestimmungen spezialisiert ist, kann ebenfalls bei der Überprüfung dieser Vereinbarungen helfen.

 

Tipp 3: Interne Daten schützen

Ein vordergründiges Risiko beim Einsatz externer KI-Tools besteht darin, dass ein Mitarbeiter – absichtlich oder unabsichtlich – sensible oder vertrauliche Daten mit der Anwendung teilt und einem Missbrauch dieser Informationen damit Tür und Tor öffnet. Um diese Gefahr einzudämmen, müssen Unternehmen sicherstellen, dass das Least-Privilege-Prinzip konsequent angewendet wird, also Mitarbeitende nur Zugang zu den für ihre Aufgabe absolut notwendigen Daten erhalten. Leider ist dies in manchen Unternehmen nicht stichhaltig geregelt und in nicht wenigen Fällen haben Mitarbeiter sogar komplett uneingeschränkte Zugriffsrechte auf Firmendaten. Kommt das Least-Privilege-Prinzip zum Tragen, minimiert sich automatisch die Datenmenge, die der einzelne Mitarbeiter im Zuge von KI ausspielen könnte. Das Gefahr, dass sensible Informationen ungewollt nach außen dringen, ist deutlich kleiner.

 

Tipp 4: Einstellungen kontrollieren und in mehr Datenschutz investieren

Unabhängig davon, ob KI-Tools oder -Dienste kostenlos oder kostenpflichtig sind, verfügen sie für gewöhnlich über datenschutzspezifische Einstellungsoptionen. Bei einigen Anwendungen lässt sich beispielsweise festlegen, dass Prompts und weitere Eingabedaten nicht gespeichert werden. Es lohnt sich also, genauer hinzusehen: Nach gründlicher Prüfung können Standardeinstellungen bereits in der Gratis-Variante meist deutlich granularer angepasst werden. Dennoch gilt: Kostenlose Tools behalten sich in der Regel das Recht vor, Daten zu verwenden. Dagegen versprechen kostenpflichtige Unternehmensversionen der KI-Programme auch in sicherheitsrelevanter Hinsicht mehr Möglichkeiten. Hier gibt es oft erweiterte Funktionalitäten zu Datenausschluss und Segmentierung – für mehr Privatsphäre und Sicherheit.

 

Tipp 5: Sicherheitsvorkehrungen von Anbietern und Anwendungen checken

Der Entscheidung für den Einsatz einer neuen Software oder die Zusammenarbeit mit einem neuen Dienstleistungspartner sollte grundsätzlich immer die sicherheitsspezifische Bewertung des jeweiligen Anbieters und damit zusammenhängender Lieferketten vorausgehen. Die stets wiederkehrenden Schlagzeilen zu Schwachstellen von digitalen Wertschöpfungsketten sind ein eindeutiges Indiz dafür, dass hier Fallstricke für die eigene Unternehmenssicherheit lauern. Aus diesem Grund sind Produkte und Prozesse für das Risikomanagement in Bezug auf Drittanbieter (Third-Party Risk Management – TPRM) von essenzieller Bedeutung. Haben Unternehmen kein formelles TPRM-Verfahren, sollten sie dringend eines einführen – gerade für den Einsatz von KI-Tools und -Dienstleistungspartnern ist dieser Schritt außerordentlich ratsam.

 

Tipp 6: Lokal eingerichtete Open-Source-KI-Frameworks und -Werkzeuge nutzen

Natürlich ist es bequem, via Internet auf kostenlose und benutzerfreundliche externe KI-Tools zurückzugreifen. Doch gerade in deren allseitiger und jederzeitiger Zugänglichkeit liegen die meisten Risiken. Eine Alternative dazu bieten KI-Frameworks und -Tools, die sich in den eigenen Reihen aufsetzen und weiterentwickeln lassen. Ein solches Vorgehen erfordert ganz klar mehr Arbeit sowie besonderes KI-Fachwissen und Erfahrung. Daher ist es am Ende vor allem eine Kapazitäts- und Ressourcenfrage. Unter Datenschutzgesichtspunkten ist ein interner Ansatz aber definitiv die bessere Lösung.

 

Tipp 7: KI-Nutzung im Unternehmen im Blick behalten

Unternehmen haben manchmal wenig Kontrolle und Überblick, welche Assets, SaaS-Dienste oder Datenspeicher von ihrer Belegschaft genutzt werden. Durch die zunehmende Verfügbarkeit von Cloud- und Webdiensten ist der konkrete Einsatz meist nur schwer nachzuvollziehen. KI-basierte SaaS-Angebote bilden hier keine Ausnahme. Dennoch sollten Organisationen jederzeit darüber im Bilde sein, welche externen Angebote wie, in welchem Umfang und mit welchen Daten auf Mitarbeiterseite Verwendung finden. Eine entsprechende Dokumentation bringt hier Klarheit und nur, wer alle internen und externen KI-Tools identifiziert, kann Risiken adäquat einschätzen.

 

Tipp 8: KI-Richtlinie erstellen und Risikobewusstsein schärfen

Richtlinien sind das Fundament von IT-Sicherheit. Die Risiken, denen Unternehmen ausgesetzt sind, sind dabei stets abhängig von den individuellen Handlungsschwerpunkten und Anforderungen sowie den verwendeten Daten. Für Organisationen, die ausschließlich mit öffentlich zugänglichen Informationen arbeiten, stellt die gemeinsame Nutzung dieser Daten möglicherweise kaum ein Risiko dar, was auch eine weniger restriktive KI-Richtlinie rechtfertigt. Wenn die Aufgabe einer Institution jedoch darin besteht, die Atomgeheimnisse eines Landes kontrollieren, sollten für die Verwendung von Daten in externen KI-Tools deutlich strengere Regeln gelten. Letztendlich müssen Unternehmen eine KI-Richtlinie erarbeiten, die passgenau auf die eigenen Bedürfnisse zugeschnitten ist. Ist diese Richtlinie erstellt, gilt es sicherzustellen, dass jeder Mitarbeitende sie auch kennt. Ebenso sollten die mit KI-Tools verbundenen Risiken regelmäßig kommuniziert und ein entsprechendes Bewusstsein geschaffen werden.

 

Abschließend lässt sich festhalten: Der Einsatz von KI- und ML-Technologien verspricht immense Vorteile, birgt jedoch auch Risiken. Die gute Nachricht ist, dass KI und ML wie alle anderen Technologien sicher genutzt werden können – wenn bestimmte Voraussetzungen beachtet werden.

Corey Nachreiner ist Chief Security Officer bei WatchGuard Technologies.

Hier geht’s zur Website von Watchguard.