Die Gefahr durch Cyberkriminalität ist im vergangenen Jahr weiter gestiegen. Auch, weil künstliche Intelligenz die Angriffsaktivitäten immens verstärkt. Umgekehrt bietet die Technologie jedoch auch Potenzial für die Cyberabwehr. Deshalb stellt sich die Frage: Ist KI Fluch oder Segen für die IT-Sicherheit? Christian Nern, Partner, und Julian Krautwald, Senior Manager bei KPMG, haben die Antwort.
Während sich Banken und Versicherungen höchstens auf Produktebene mit KI befassen, sie bei der IT-Sicherheit aber nur stiefmütterlich behandeln, haben Kriminelle jene Lücken längst identifiziert und nutzen sie.
(Bild: scaliger - stock.adobe.com)
Das „Bundeslagebild Cybercrime“ gleicht einem Eisberg. Neun von zehn Straftaten werden nicht zur Anzeige gebracht, schätzt Innenministerin Nancy Faeser. Der jährliche Report des Bundeskriminalamts (BKA) macht also nur die Spitze sichtbar. Der Rest passiert im Verborgenen – unter der Wasseroberfläche. Da besorgt es umso mehr, dass die Gefahr durch Internetkriminalität im vergangenen Jahr erneut gestiegen ist. Zwar sei die Zahl der Straftaten aus dem Inland um etwa zwei Prozent gesunken. Die Summe jener Angriffe, die aus dem Ausland oder von unbekannten Orten aus erfolgte, hat sich dagegen um fast 30 Prozent erhöht.
Die Ursache für den Anstieg lässt sich allen voran durch den Krieg gegen die Ukraine begründen. So hat sich laut IT-Branchenverband Bitkom die Zahl der aus Russland gemessenen Angriffe innerhalb von nur zwei Jahren verdoppelt. Beinahe jede zweite Attacke kann laut BKA dorthin zurückverfolgt werden. Die Täter haben es dabei insbesondere auf kritische Infrastruktur abgesehen. Neben Verwaltungen, Hochschulen oder Krankenhäusern rücken deshalb auch Finanzunternehmen immer häufiger ins Fadenkreuz der Hacker.
Ein zweites Problem: Die Kriminellen profitieren dabei immer stärker vom technischen Fortschritt. Künstliche Intelligenz (KI) hat ihnen das Leben gehörig erleichtert. Mithilfe von KI-Tools, insbesondere Large Language Models (LLMs) wie jenes, das dem Chatbot von ChatGPT zugrunde liegt, können sie in Sekundenschnelle effiziente Codes schreiben. Auf der anderen Seite kann die Technologie aber auch Unternehmen bei der Cyberabwehr helfen, indem sie Anomalien oder Schwachstellen identifiziert und darauf reagiert. Daher ist die fortschreitende Entwicklung der KI für die IT-Security ein zweischneidiges Schwert. Aber ist sie nun Fluch oder Segen?
Zum einen hat sie die Bedrohungslage durch Internetkriminalität grundlegend verändert. Das zeigt sich vor allem durch die Qualität und Effektivität von Phishing-Kampagnen, die sich durch generative KI gravierend erhöht haben. So können Kriminelle fingierte, aber dafür täuschend echt aussehende E-Mails mithilfe von KI nicht nur in Windeseile erstellen, sondern auch noch in großer Anzahl automatisiert und dadurch zur selben Zeit versenden. Das bedeutet weniger Aufwand und mehr Ertrag – ergo: mehr Effizienz für die Cyberattacke.
Neben solch naheliegenden Use Cases bietet die Technologie jedoch auch viel tiefergehende Vorteile. Zum Beispiel, indem sie eigentlich für die Cyberabwehr entwickelte LLMs kapert und für die eigenen Ziele missbraucht. Penetrationstests sind hier als Beispiel zu nennen. Die Tests sind dazu konzipiert, um Schwachstellen in den IT-Systemen zu identifizieren und zu melden. Früher mussten Kriminelle Offensive-Security-Wissen mitbringen, um einen Payload zu schreiben, der die gefundenen Schwachstellen ausnutzt. Heute könnten sie eine KI, die auf Penetrationtesting ausgelegt ist, einfach darum bitten, einen Code zu schreiben, der die gefundene Schwachstelle ausnutzt – und brauchen dafür noch nicht einmal Programmierkenntnisse.
Auf der anderen Seite können sich Hacker die fehlenden Coding-Kenntnisse ihrer Anwender zunutze machen. Indem sie die Trainingsdaten einer generativen KI so manipulieren, dass sie fehlerhafte Codezeilen generiert. Angenommen ein Mitarbeiter im Bereich IT-Sicherheit einer Bank möchte mithilfe von generativer KI eine Schwachstelle in einer Anwendung beheben und promptet dem Chat-Bot, den entsprechenden Code dafür zu erstellen. Der Hacker könnte die Ausgabe der KI jedoch derart fingieren, dass ihm der Bot eine Hintertür in den Code hineinschreibt. Der Mitarbeiter würde den Code samt Schlupfloch nichtsahnend in die Anwendung einbauen, statt sie zu reparieren, und der Kriminelle könnte die Sicherheitslücke ausnutzen.
Anomalien erkennen und lernen
Eine ganz andere Dimension erreicht diese Art der Cyberkriminalität, wenn sie in der Cloud stattfindet. Hier, wo nicht nur ein Kernbankensystem, eine Kundendatenbank oder ein Meldewesen angedockt ist, sondern wo gleich tausende von Unternehmen betroffen sind, wenn sich ein fehlerhafter Code einschleicht, ist der Schaden ungleich größer. Umso wichtiger ist es, die IT-Security resilienter gegen KI-Attacken aufzustellen.
Die gute Nachricht: Auch hier kann Künstliche Intelligenz und insbesondere generative KI ein probates Mittel sein. Zum Beispiel bei der Erkennung von Anomalien, wie es innerhalb einiger SIEM-Tools schon gang und gäbe ist. SIEM steht für Security Information and Event Management. Diese Tools monitoren die IT-Security ganzheitlich, indem sie alle relevanten Daten an zentraler Stelle sammeln und mittels gezielter Analyse darin Muster erkennen, die auf Sicherheitsvorfälle schließen lassen – sogenannte Anomalien. KI erhöht die Effizienz dieser Tools enorm, weil sie die Erkennungsrate exorbitant steigert. Das liegt unter anderem daran, dass sie aus Ereignissen der Vergangenheit lernt und daraus Schlüsse für künftige Vorfälle ziehen kann. Beispiel: Wenn sich ein Mitarbeiter immer zwischen 9 und 17 Uhr ins System einloggt, wird die KI misstrauisch, wenn er das plötzlich um 2 Uhr nachts tut. Herkömmliche SIEM-Tools können das in diesem Umfang kaum leisten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Zwar kann KI nicht jeden Angriff verhindern. Aber sie kann auch dann noch eingreifen, wenn er bereits erfolgt ist, und dabei helfen, die Systeme zu schützen. Natürlich ist die automatisierte Reaktion auf derartige Vorfälle nichts Neues. In der Incident Response wird sie mithilfe von sogenannten Playbooks umgesetzt. Darin ist etwa niedergeschrieben, mit welchen Maßnahmen die IT-Security reagiert, wenn sie infiltriert wurde. Egal ob dabei Systeme isoliert werden, weil sie von einem Virus befallen sind, oder ob eine E-Mail automatisiert an Mitarbeiter versendet wird, um sie vor einem Trojaner zu warnen. KI kann diese Mechanismen aber auf eine neue Stufe heben – indem sie nicht nur manuell aufgesetzte Prozesse automatisiert auslöst, sondern aus Vorfällen der Vergangenheit lernt, die Prozesse optimiert und in einem neuen Playbook zusammenfasst.
Diese Informationen helfen also nicht nur bei Reaktionen auf bestehende Angriffe, sondern sie können auch Erkenntnisse über neue Attacken liefern. Und mit der Hilfe von KI können Unternehmen genau die Funktion institutionalisieren – zum Beispiel über sogenannte Threat Modeling Chatbots. Diese können dann zum Beispiel im Rahmen der Softwareentwicklung eingesetzt werden: Wann immer eine neue Anwendung geschrieben wurde, können diese Bots sie dahingehend untersuchen, welche Bedrohungen auf die IT-Systeme mit ihnen einhergehen könnten. Dafür werden sie mit bestehenden Dokumentationen gefüttert und per Prompt darum gebeten, sie zu analysieren und ein Bedrohungsszenario zu formulieren. Die Ergebnisse können dann zum Beispiel wiederum ins SIEM-Tool eingespeist werden um die Detektion zu optimieren. Während ein Mensch mit Bordmitteln dafür enorm viel Zeit benötigen würde, erledigt die KI all das in wenigen Sekunden.
Weniger Handarbeit, mehr Qualitätssicherung
Beispiele wie diese zeigen, dass Künstliche Intelligenz die Arbeitsweise der IT-Security komplett verändern wird. Während die Technologie die Handarbeit vom Menschen übernimmt, weil sie diese viel schneller und viel präziser erledigen kann, wird es die humane Instanz vor allem in der Qualitätssicherung umso stärker brauchen. Dadurch werden Mitarbeiter künftig weniger programmieren und dafür häufiger kontrollieren.
Aber darauf müssen sich insbesondere Finanzunternehmen noch einstellen. Hier wird die Transformation stark von der Regulatorik getrieben. DORA (Digital Operational Resilience Act) oder der AI-Act der EU sind nur zwei Beispiele dafür. Allerdings entwickeln Unternehmen ihre Modelle aktuell noch viel zu losgelöst von den regulatorischen Rahmenbedingungen – und von der IT-Security. Diesen Schritt sind die Hacker ihren Opfern aktuell voraus. Denn während sich Banken und Versicherungen auf der Produktebene mit KI befassen, die Sicherheit dabei oft aber nur stiefmütterlich behandeln, haben Kriminelle jene Lücken längst identifiziert und nutzen sie. Und solange das so bleibt, wird der Eisberg unter der Wasseroberfläche weiter unentdeckt wachsen.
Zu den Autoren
Christian Nern ist Partner und Head of Security bei KPMG im Bereich Financial Services in München. Vor seiner Tätigkeit bei KPMG hat der Diplom-Kaufmann 25 Jahre lang in exponierten Leadership-Positionen verschiedener Bereiche in der IT-Industrie gearbeitet.
Julian Krautwald ist Senior Manager bei KPMG im Bereich Financial Services und verfügt über langjährige Berufserfahrung in Beratungs- und Implementierungsprojekten rund um das Thema Informationssicherheit.