Künstliche Intelligenz hat zwar das Potenzial zu einer transformativen Technologie, die unser tägliches Leben erheblich beeinflussen kann – allerdings nur mit entsprechenden Verboten und Vorschriften, die den ethischen Einsatz und die verantwortungsvolle Entwicklung sicherstellen. Zu dieser Einschätzung kommen Experten von der Threat Intelligence-Abteilung von Check Point Software Technologies Ltd., Check Point Research (CPR).

KI hat ihr Potenzial bereits unter Beweis gestellt und besitzt die Möglichkeit, viele Bereiche wie das Gesundheitswesen, das Finanzwesen, das Transportwesen und vieles mehr zu revolutionieren. Sie kann mühsame Aufgaben automatisieren, die Effizienz steigern und Informationen liefern, die bisher nicht möglich waren. KI könnte auch dabei helfen, komplexe Probleme zu lösen, bessere Entscheidungen zu treffen, menschliche Fehler zu reduzieren oder gefährliche Aufgaben wie die Entschärfung einer Bombe, Flüge ins All oder die Erforschung der Ozeane zu bewältigen.

Gleichzeitig gibt es aber auch einen massiven Einsatz von KI-Technologien zur Entwicklung von Cyber-Bedrohungen. Über einen solchen Missbrauch von KI wurde in den Medien häufig berichtet, so etwa über ChatGPT, das von Cyber-Kriminellen für die Entwicklung von Malware genutzt wird.

Insgesamt ist die Entwicklung der KI keine vorübergehende Modeerscheinung, aber es bleibt abzuwarten, inwieweit sie positive oder negative Auswirkungen auf die Gesellschaft haben wird. Und obwohl es KI schon lange gibt, wird das Jahr 2023 in den Köpfen wohl als das „Jahr der KI“ in Erinnerung bleiben. Allerdings herrscht nach wie vor ein großer Hype um die Technologie. Einige Unternehmen reagieren dabei möglicherweise über, daher solle man realistische Erwartungen an die Technologie haben und KI nicht als automatisches Allheilmittel für alle Probleme der Welt ansehen.

Oft ist von Bedenken zu hören, ob KI sich den menschlichen Fähigkeiten annähern oder sie sogar übertreffen wird. Vorhersagen darüber, wie fortgeschritten KI sein wird, sind schwierig, aber es gibt bereits mehrere Kategorien. Die derzeitige KI wird als enge oder „schwache“ KI (ANI – Artificial Narrow Intelligence) bezeichnet. Die allgemeine KI (AGI – Artificial General Intelligence) sollte wie das menschliche Gehirn funktionieren und wie ein Mensch denken, lernen und Aufgaben lösen können. Die letzte Kategorie ist die künstliche Superintelligenz (ASI – Artificial Super Intelligence), bei der es sich im Grunde um Maschinen handelt, die intelligenter sind als wir.

Wenn die künstliche Intelligenz die Stufe der AGI erreicht, besteht die Gefahr, dass sie eigenständig agiert und zu einer Bedrohung für die Menschheit werden könnte. Deshalb müsse man daran arbeiten, die Ziele und Werte der KI mit denen der Menschen in Einklang zu bringen.

Um die mit fortgeschrittener KI verbundenen Risiken zu mindern, ist es wichtig, dass Regierungen, Unternehmen und Aufsichtsbehörden zusammenarbeiten, um robuste Sicherheitsmechanismen zu entwickeln, ethische Grundsätze festzulegen und die Transparenz und Rechenschaftspflicht bei der KI-Entwicklung zu fördern. Derzeit existiert nur ein Minimum an Regeln und Vorschriften. Zwar gibt es Vorschläge wie das KI-Gesetz, aber keiner davon wurde verabschiedet, und im Wesentlichen wird bisher alles durch den ethischen Kompass der Nutzer und Entwickler bestimmt. Je nach Art der KI sollten Unternehmen, die KI-Systeme entwickeln und freigeben, zumindest Mindeststandards wie Datenschutz, Fairness, Erklärbarkeit oder Barrierefreiheit sicherstellen.

KI in den Händen von Cyber-Kriminellen

Leider kann KI auch von Cyber-Kriminellen eingesetzt werden, um deren Angriffe zu verfeinern, automatisch Schwachstellen zu erkennen, gezielte Phishing-Kampagnen zu erstellen, Social Engineering zu betreiben oder fortschrittliche Malware zu entwickeln, die ihren Code ändern kann, um sich der Erkennung zu entziehen. KI kann ebenso dafür missbraucht werden, um überzeugende Audio- und Videofälschungen zu erstellen, die für politische Manipulationen, falsche Beweise in Strafprozessen oder zum Austricksen von Nutzern verwendet werden können.

Aber auch bei der Abwehr von Cyber-Angriffen ist KI ein wichtiges Hilfsmittel. Check Point setzt beispielsweise mehr als 70 verschiedene Tools zur Analyse von Bedrohungen und zum Schutz vor Angriffen ein, mehr als 40 davon sind KI-basiert. Diese Technologien helfen bei der Verhaltensanalyse, indem sie große Mengen an Bedrohungsdaten aus einer Vielzahl von Quellen, einschließlich des Darknets, analysieren. Das erleichtert die Erkennung von Zero-Day-Schwachstellen oder das automatisierte Patchen von Sicherheitslücken.

In letzter Zeit wurden auch verschiedene Verbote und Einschränkungen für KI diskutiert. Im Fall von ChatGPT beziehen sich die Bedenken hauptsächlich auf den Datenschutz, da es bereits zu Datenlecks gekommen ist, und auch die Altersgrenze der Nutzer wird nicht angesprochen. Die Sperrung ähnlicher Dienste hat jedoch nur eine begrenzte Wirkung, da gewieftere Nutzer die Sperre z. B. durch die Verwendung eines VPN umgehen können und zudem ein reger Handel mit gestohlenen Premium-Konten besteht. Das Problem ist, dass die meisten Nutzer nicht wissen, dass die in ChatGPT eingegebenen sensiblen Informationen sehr wertvoll sind, wenn sie nach außen dringen, und für gezielte Marketingzwecke verwendet werden könnten. Wir sprechen hier von potenzieller sozialer Manipulation in einem noch nie dagewesenen Ausmaß.

Die Auswirkungen der KI auf die Gesellschaft werden davon abhängen, wie diese Technologie weiterentwickelt und genutzt wird. Es wird jedoch unabdinglich sein, die potenziellen Vorteile und Risiken abzuwägen und gleichzeitig dafür zu sorgen, dass die KI auf verantwortungsvolle, ethische und für die Gesellschaft nützliche Weise entwickelt wird.

Marco Eggerling ist CISO EMEA bei Check Point Software.

Check Point