ChatGPT hat sich als transformative Kraft herauskristallisiert und wird oft als Wunderwerkzeug im aktuellen Technologiezyklus angesehen. Skeptiker dagegen stellen die Intelligenz von ChatGPT in Frage und bescheinigen dem Chatbot von OpenAI lediglich einen kurzen Ritt auf der Begeisterungswelle, wie es schon NFTs und der Blockchain prophezeit wurde. Wer Künstliche Intelligenz (KI) jedoch schon einmal genutzt hat, sei es zur Erstellung von Texten oder zur Forschung, weiß, dass KI-basierte Tools wochenlange Projekte in eine Angelegenheit von Stunden verwandeln können.
Hinter der Begeisterung, der Skepsis und dem Potential verbirgt sich jedoch die unweigerliche Tatsache, dass KI auch für bösartige Zwecke, wie der Generierung von schadhaftem Code oder Phishing-Mails, missbraucht wird. Doch ChatGPT kann nicht nur Malware erzeugen, sondern diese auch dekonstruieren.
In praktischen Tests hat Check Point Research ChatGPT mit der komplizierten Aufgabe der Malware-Analyse konfrontiert. Dabei zeigt sich: Trotz der präzisen Zusammensetzung von Sprache und Inhalten offenbart der KI-basierte Chatbot, dass Wissen nicht mit Verständnis gleichzusetzen ist.
Die Stärken von ChatGPT: Sprache und Wissen
Die Stärke von ChatGPT liegt in seiner verbalen Schärfe, der präzisen Auswahl der am passenden Wörter und deren Platzierung in der Texterzeugung. Daran zeigt sich jedoch auch: ChatGPT arbeitet rein verbal. Seine gesamte Leistung beruht auf der Fähigkeit, zu entscheiden, welches Wort an welcher Stelle in der Antwort am besten geeignet ist.
Dies ist einer der wichtigsten Aspekte, die es über ChatGPT zu verstehen gilt: Viele seiner Verhaltensweisen sind in gewisser Weise dieser einen Eigenschaft nachgelagert. Eine der unmittelbaren Auswirkungen davon ist, dass ChatGPT den Zugang zu einem riesigen Wissensfundus hat. Wenn jemand zu irgendeinem Zeitpunkt in der Geschichte die Frage beantwortet hat und die Antwort in die Trainingsdaten von GPT eingespeist wurde, kann ChatGPT diese Antwort reproduzieren.
Zum Test haben wir ChatGPT einen Bericht über den Verschlüsselungstrojaner GandCrab vorgelegt. GandCrab ist eine ehemalige RaaS (Ransomware-as-a-Service), die von 2018 bis 2019 eine der meistgefragten Ransomware-Familien war und auf Privatpersonen und Unternehmen zielte, die Microsoft Windows nutzten. Legt man ChatGPT einen Bericht über die GandCrab-Ransomware vor, ruft es mühelos Informationen ab und war dabei sogar in der Lage, diese aus einer Suche per Google Scholar zu ziehen.
Komplexe in kompakte Informationen verwandeln
Durch sein Netz von Wortassoziationen hat der Chatbot zudem ein feines Gespür für Grammatik und den Unterschied zwischen wesentlichen und nebensächlichen Informationen. Eine der Aufgaben, bei denen ChatGPT am zuverlässigsten arbeitet, ist die Erstellung einer Zusammenfassung bei Eingaben, die für das menschliche Gehirn zu umfangreich zu prozessieren sind. Wenn man ChatGPT zum Beispiel einen Teil eines sehr langen API-Aufrufprotokolls, das von einer Malware erzeugt wurde, vorlegt und bittet, das Protokoll zusammenzufassen, liefert es die folgende nützliche Ausgabe:
„Die Malware scheint stark mit der Windows-API zu interagieren und verschiedene Operationen durchzuführen, wie z. B. Dateioperationen, Speicherverwaltung, Privilegien-Erweiterung, Laden von Bibliotheken und vor allem kryptografische Operationen.“
Kluft zwischen Wissen und Handeln
ChatGPT weist jedoch gleichzeitig eine bemerkenswerte Lücke zwischen Wissen und Handeln auf, die an die Lernstrategie erinnert, Wissen stur auswendig zu lernen, ohne es zu verstehen. Dies offenbarte sich, als wir ChatGPT mit Aufgaben zur Malware-Analyse konfrontierten und offenkundig wurde, dass die Ursache des Problems für den Chatbot darin lag, das Wesen der Informationen zu verstehen.
Diese Zweiteilung, bestehend aus dem Zugang zu Informationen und dem Verständnis ihrer Bedeutung, stellt eine Herausforderung dar, die ein tieferes Verständnis von Zusammenhängen erfordern. Auch bei der Triage – der Identifizierung gutartiger oder bösartiger Binärdateien – stieß die KI an ihre Grenzen.
Zudem: Obwohl ChatGPT ein künstliches Konstrukt ist, erscheinen viele der Herausforderungen, denen sich die Anwendungen bei der Malware-Analyse gegenübersieht, seltsam menschlich. Die Sicherheitsforscher haben dabei diverse Bereiche identifiziert, in denen ChatGPT Defizite aufweist: eine Lücke zwischen Wissen und Handeln, eine Obergrenze des logischen Denkens, Losgelöstheit vom Fachwissen und mangelhafte Fähigkeit, zielgerichtet zu arbeiten.
Überwindung von Herausforderungen
Angesichts dieser Herausforderungen hat CPR nach Abhilfemaßnahmen gesucht, um die Fähigkeiten von ChatGPT bei der Malware-Analyse zu verbessern. Ein Proof-of-Concept mit einer stark manipulierten Eingabeaufforderung zeigte die Verbesserungen der Fähigkeit von ChatGPT, einen Analysten während der Triage zu unterstützen. In dieser Demo wurde ersichtlich, wie der KI-basierte Chatbot bei den Triage-Aufgaben abschneidet:
Dieser Versuch, ChatGPT in die Malware-Analyse einzubinden, zeigt die Schwächen der Generativen KI deutlich und unterstreicht mal wieder, dass Wissen nicht gleichzusetzen ist mit Verständnis. ChatGPT weiß viel im Sinne eines Menschen, der viel auswendig gelernt hat und wie ein wandelndes Lexikon wirkt, aber es versteht wenig von den Zusammenhängen hinter den Informationen.
Während seine verbale Schärfe und sein umfangreicher Wissensfundus damit unbestreitbare Vorteile sind, stellt die Kluft zwischen Wissen und Handeln ein Hindernis dar. Die Erforschung von Abhilfemaßnahmen muss daher Teil der laufenden Bemühungen sein, um die Anwendbarkeit von ChatGPT oder ähnlichen LLMs bei komplexen Aufgaben zu verbessern. Diese Versuche eröffnen neue Wege für Fortschritte bei der Synergie zwischen künstlicher Intelligenz und IT-Sicherheit.
Thomas Boele ist Regional Director Sales Engineering für die Region CER/DACH bei Checkpoint Software Technologies.