Künstliche Intelligenz (KI) – Fluch oder Segen? Wie KI die IT-Security bei Banken verstärken kann

Ein Gastbeitrag von Christian Nern und Julian Krautwald 6 min Lesedauer

Anbieter zum Thema

Die Gefahr durch Cyberkriminalität ist im vergangenen Jahr weiter gestiegen. Auch, weil künstliche Intelligenz die Angriffsaktivitäten immens verstärkt. Umgekehrt bietet die Technologie jedoch auch Potenzial für die Cyberabwehr. Deshalb stellt sich die Frage: Ist KI Fluch oder Segen für die IT-Sicherheit? Christian Nern, Partner, und Julian Krautwald, Senior Manager bei KPMG, haben die Antwort.

Während sich Banken und Versicherungen höchstens auf Produktebene mit KI befassen, sie bei der IT-Sicherheit aber nur stiefmütterlich behandeln, haben Kriminelle jene Lücken längst identifiziert und nutzen sie.(Bild:  scaliger - stock.adobe.com)
Während sich Banken und Versicherungen höchstens auf Produktebene mit KI befassen, sie bei der IT-Sicherheit aber nur stiefmütterlich behandeln, haben Kriminelle jene Lücken längst identifiziert und nutzen sie.
(Bild: scaliger - stock.adobe.com)

Das „Bundeslagebild Cybercrime“ gleicht einem Eisberg. Neun von zehn Straftaten werden nicht zur Anzeige gebracht, schätzt Innenministerin Nancy Faeser. Der jährliche Report des Bundeskriminalamts (BKA) macht also nur die Spitze sichtbar. Der Rest passiert im Verborgenen – unter der Wasseroberfläche. Da besorgt es umso mehr, dass die Gefahr durch Internetkriminalität im vergangenen Jahr erneut gestiegen ist. Zwar sei die Zahl der Straftaten aus dem Inland um etwa zwei Prozent gesunken. Die Summe jener Angriffe, die aus dem Ausland oder von unbekannten Orten aus erfolgte, hat sich dagegen um fast 30 Prozent erhöht.

Die Ursache für den Anstieg lässt sich allen voran durch den Krieg gegen die Ukraine begründen. So hat sich laut IT-Branchenverband Bitkom die Zahl der aus Russland gemessenen Angriffe innerhalb von nur zwei Jahren verdoppelt. Beinahe jede zweite Attacke kann laut BKA dorthin zurückverfolgt werden. Die Täter haben es dabei insbesondere auf kritische Infrastruktur abgesehen. Neben Verwaltungen, Hochschulen oder Krankenhäusern rücken deshalb auch Finanzunternehmen immer häufiger ins Fadenkreuz der Hacker.

Ein zweites Problem: Die Kriminellen profitieren dabei immer stärker vom technischen Fortschritt. Künstliche Intelligenz (KI) hat ihnen das Leben gehörig erleichtert. Mithilfe von KI-Tools, insbesondere Large Language Models (LLMs) wie jenes, das dem Chatbot von ChatGPT zugrunde liegt, können sie in Sekundenschnelle effiziente Codes schreiben. Auf der anderen Seite kann die Technologie aber auch Unternehmen bei der Cyberabwehr helfen, indem sie Anomalien oder Schwachstellen identifiziert und darauf reagiert. Daher ist die fortschreitende Entwicklung der KI für die IT-Security ein zweischneidiges Schwert. Aber ist sie nun Fluch oder Segen?

Mehr Effizienz für die Cyberattacke

Zum einen hat sie die Bedrohungslage durch Internetkriminalität grundlegend verändert. Das zeigt sich vor allem durch die Qualität und Effektivität von Phishing-Kampagnen, die sich durch generative KI gravierend erhöht haben. So können Kriminelle fingierte, aber dafür täuschend echt aussehende E-Mails mithilfe von KI nicht nur in Windeseile erstellen, sondern auch noch in großer Anzahl automatisiert und dadurch zur selben Zeit versenden. Das bedeutet weniger Aufwand und mehr Ertrag – ergo: mehr Effizienz für die Cyberattacke.

Neben solch naheliegenden Use Cases bietet die Technologie jedoch auch viel tiefergehende Vorteile. Zum Beispiel, indem sie eigentlich für die Cyberabwehr entwickelte LLMs kapert und für die eigenen Ziele missbraucht. Penetrationstests sind hier als Beispiel zu nennen. Die Tests sind dazu konzipiert, um Schwachstellen in den IT-Systemen zu identifizieren und zu melden. Früher mussten Kriminelle Offensive-Security-Wissen mitbringen, um einen Payload zu schreiben, der die gefundenen Schwachstellen ausnutzt. Heute könnten sie eine KI, die auf Penetrationtesting ausgelegt ist, einfach darum bitten, einen Code zu schreiben, der die gefundene Schwachstelle ausnutzt – und brauchen dafür noch nicht einmal Programmierkenntnisse.

Auf der anderen Seite können sich Hacker die fehlenden Coding-Kenntnisse ihrer Anwender zunutze machen. Indem sie die Trainingsdaten einer generativen KI so manipulieren, dass sie fehlerhafte Codezeilen generiert. Angenommen ein Mitarbeiter im Bereich IT-Sicherheit einer Bank möchte mithilfe von generativer KI eine Schwachstelle in einer Anwendung beheben und promptet dem Chat-Bot, den entsprechenden Code dafür zu erstellen. Der Hacker könnte die Ausgabe der KI jedoch derart fingieren, dass ihm der Bot eine Hintertür in den Code hineinschreibt. Der Mitarbeiter würde den Code samt Schlupfloch nichtsahnend in die Anwendung einbauen, statt sie zu reparieren, und der Kriminelle könnte die Sicherheitslücke ausnutzen.

Anomalien erkennen und lernen

Eine ganz andere Dimension erreicht diese Art der Cyberkriminalität, wenn sie in der Cloud stattfindet. Hier, wo nicht nur ein Kernbankensystem, eine Kundendatenbank oder ein Meldewesen angedockt ist, sondern wo gleich tausende von Unternehmen betroffen sind, wenn sich ein fehlerhafter Code einschleicht, ist der Schaden ungleich größer. Umso wichtiger ist es, die IT-Security resilienter gegen KI-Attacken aufzustellen.

Die gute Nachricht: Auch hier kann Künstliche Intelligenz und insbesondere generative KI ein probates Mittel sein. Zum Beispiel bei der Erkennung von Anomalien, wie es innerhalb einiger SIEM-Tools schon gang und gäbe ist. SIEM steht für Security Information and Event Management. Diese Tools monitoren die IT-Security ganzheitlich, indem sie alle relevanten Daten an zentraler Stelle sammeln und mittels gezielter Analyse darin Muster erkennen, die auf Sicherheitsvorfälle schließen lassen – sogenannte Anomalien. KI erhöht die Effizienz dieser Tools enorm, weil sie die Erkennungsrate exorbitant steigert. Das liegt unter anderem daran, dass sie aus Ereignissen der Vergangenheit lernt und daraus Schlüsse für künftige Vorfälle ziehen kann. Beispiel: Wenn sich ein Mitarbeiter immer zwischen 9 und 17 Uhr ins System einloggt, wird die KI misstrauisch, wenn er das plötzlich um 2 Uhr nachts tut. Herkömmliche SIEM-Tools können das in diesem Umfang kaum leisten.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Prompts fürs Playbook

Zwar kann KI nicht jeden Angriff verhindern. Aber sie kann auch dann noch eingreifen, wenn er bereits erfolgt ist, und dabei helfen, die Systeme zu schützen. Natürlich ist die automatisierte Reaktion auf derartige Vorfälle nichts Neues. In der Incident Response wird sie mithilfe von sogenannten Playbooks umgesetzt. Darin ist etwa niedergeschrieben, mit welchen Maßnahmen die IT-Security reagiert, wenn sie infiltriert wurde. Egal ob dabei Systeme isoliert werden, weil sie von einem Virus befallen sind, oder ob eine E-Mail automatisiert an Mitarbeiter versendet wird, um sie vor einem Trojaner zu warnen. KI kann diese Mechanismen aber auf eine neue Stufe heben – indem sie nicht nur manuell aufgesetzte Prozesse automatisiert auslöst, sondern aus Vorfällen der Vergangenheit lernt, die Prozesse optimiert und in einem neuen Playbook zusammenfasst.

Diese Informationen helfen also nicht nur bei Reaktionen auf bestehende Angriffe, sondern sie können auch Erkenntnisse über neue Attacken liefern. Und mit der Hilfe von KI können Unternehmen genau die Funktion institutionalisieren – zum Beispiel über sogenannte Threat Modeling Chatbots. Diese können dann zum Beispiel im Rahmen der Softwareentwicklung eingesetzt werden: Wann immer eine neue Anwendung geschrieben wurde, können diese Bots sie dahingehend untersuchen, welche Bedrohungen auf die IT-Systeme mit ihnen einhergehen könnten. Dafür werden sie mit bestehenden Dokumentationen gefüttert und per Prompt darum gebeten, sie zu analysieren und ein Bedrohungsszenario zu formulieren. Die Ergebnisse können dann zum Beispiel wiederum ins SIEM-Tool eingespeist werden um die Detektion zu optimieren. Während ein Mensch mit Bordmitteln dafür enorm viel Zeit benötigen würde, erledigt die KI all das in wenigen Sekunden.

Weniger Handarbeit, mehr Qualitätssicherung

Beispiele wie diese zeigen, dass Künstliche Intelligenz die Arbeitsweise der IT-Security komplett verändern wird. Während die Technologie die Handarbeit vom Menschen übernimmt, weil sie diese viel schneller und viel präziser erledigen kann, wird es die humane Instanz vor allem in der Qualitätssicherung umso stärker brauchen. Dadurch werden Mitarbeiter künftig weniger programmieren und dafür häufiger kontrollieren.

Aber darauf müssen sich insbesondere Finanzunternehmen noch einstellen. Hier wird die Transformation stark von der Regulatorik getrieben. DORA (Digital Operational Resilience Act) oder der AI-Act der EU sind nur zwei Beispiele dafür. Allerdings entwickeln Unternehmen ihre Modelle aktuell noch viel zu losgelöst von den regulatorischen Rahmenbedingungen – und von der IT-Security. Diesen Schritt sind die Hacker ihren Opfern aktuell voraus. Denn während sich Banken und Versicherungen auf der Produktebene mit KI befassen, die Sicherheit dabei oft aber nur stiefmütterlich behandeln, haben Kriminelle jene Lücken längst identifiziert und nutzen sie. Und solange das so bleibt, wird der Eisberg unter der Wasseroberfläche weiter unentdeckt wachsen.

Zu den Autoren

Christian Nern ist Partner und Head of Security bei KPMG im Bereich Financial Services in München. Vor seiner Tätigkeit bei KPMG hat der Diplom-Kaufmann 25 Jahre lang in exponierten Leadership-Positionen verschiedener Bereiche in der IT-Industrie gearbeitet.

Julian Krautwald ist Senior Manager bei KPMG im Bereich Financial Services und verfügt über langjährige Berufserfahrung in Beratungs- und Implementierungs­projekten rund um das Thema Informationssicherheit.

(ID:50104420)