KI bietet Unternehmen zahlreiche Optionen, um deren wirtschaftlichen Erfolg zu erhöhen. Im Hinblick auf die Cybersicherheit sollte jedoch auch die Architektur der eingesetzten KI selbst mit Berücksichtigung finden – so zeigt es eine aktuelle Analyse von Trend Micro anhand von DeepSeek-R1. Ein Kommentar von Richard Werner, Security Advisor bei Trend Micro.
Künstliche Intelligenz (KI) verändert die Geschäftsprozesse. Daneben bringt sie jedoch ebenso neue, hochkomplexe Sicherheitsrisiken mit sich. Ein aktuelles Beispiel dafür ist das chinesische KI-Modell DeepSeek-R1. Dieses arbeitet mit sogenannten Chain-of-Thought (CoT) Reasoning. Mit der Methode soll die Nachvollziehbarkeit von KI-Entscheidungen verbessert werden, da sie Denkschritte explizit offenlegt. Doch genau hier liegt die Schwachstelle: Die aktuelle Trend Micro-Analyse zeigt, dass Angreifer diese Transparenz für gezielte Prompt-Attacken missbrauchen können.
Gezielt formulierte Anfragen geben einiges preis
Nach Richard Werner, Security Advisor bei Trend Micro, ist es durch gezielt formulierte Anfragen Cyberkriminellen möglich System-Prompts offenzulegen, Sicherheitsmechanismen zu umgehen oder sich unberechtigten Zugriff auf sensible Daten zu verschaffen. Dabei sei besonders besorgniserregend, dass in Tests der Erfolg solcher Angriffe in den Kategorien sensitive Datenexfiltration und unsichere Ausgabeerzeugung besonders hoch gewesen sei.

„Dies zeigt, dass Unternehmen, die generative KI einsetzen, nicht nur klassische Cybergefahren bedenken müssen, sondern auch neue Angriffsmethoden, die sich durch KI-spezifische Architekturen ergeben.“ – so Werner.
Was bedeutet das für Unternehmen?
- KI-Modelle müssen sicherheitsorientiert entwickelt werden: Transparenz ist wichtig, darf aber keine Einladung für Angreifer sein.
- Regelmäßiges Red-Teaming ist unverzichtbar: Unternehmen sollten KI-Systeme kontinuierlich auf Schwachstellen testen – ähnlich wie bei klassischen IT-Security Audits.
- Prompt-Härtung als neue Disziplin: Sicherheitsmechanismen, die KI-Modelle gegen manipulative Eingaben absichern, müssen Standard werden.
Die Forschung zu DeepSeek-R1 zeigt, dass KI nicht nur eine Waffe gegen Cyberangriffe ist, sondern auch selbst zur Angriffsfläche wird. Unternehmen, die KI-Technologien nutzen, müssen diese proaktiv absichern – bevor Cyberkriminelle es tun.
