Die Cybersicherheitslage spitzt sich weiter zu. Angriffe werden durch Künstliche Intelligenz (KI) einfacher und raffinierter. Gleichzeitig ist KI ein wirksames Instrument zur Angriffsabwehr – unter der Voraussetzung, dass sie sicher integriert ist. Wie können Unternehmen dieses Potenzial nutzen, gesetzliche Auflagen erfüllen und sicherstellen, dass die Einführung von KI nicht zum Risiko wird?
KI eröffnet neue und vielfältige Möglichkeiten, auch bei der Erkennung und Abwehr von Bedrohungen, sie öffnet aber auch neue Angriffsvektoren.
(Bild: Sutthiphong - stock.adobe.com)
KI bietet branchenübergreifend viele Vorteile, von neuen generativen Modellen und verbesserten Kundeninteraktionen durch Chatbots bis hin zu proaktiver Analyse, Betrugserkennung und vielem mehr. Neben den Vorteilen gibt es jedoch Herausforderungen, die vor allem die IT-Sicherheit betreffen. Angreifer machen sich KI zunutze, um Angriffe zu automatisieren und zu personalisieren, täuschend echte Phishing-Seiten zu erstellen und gefälschte E-Mails überzeugender zu gestalten.
KI gewinnt immer mehr an Bedeutung – und damit auch der Sicherheitsaspekt
Gleichzeitig werden Unternehmen immer abhängiger von KI-basierten Systemen, die selbst zum Risiko werden können. Die Schwachstellen großer Sprachmodelle (Large Language Models, LLMs) und deren mögliche Manipulation durch Angreifer zählen zu den aufkommenden Bedrohungen, die Sicherheitsverantwortlichen in den kommenden Jahren Kopfzerbrechen bereiten werden. So nutzen Cyberkriminelle Schwächen in den Trainingsdaten aus oder führen Modell-Exfiltrationen durch, bei denen sie die Logik eines Modells kopieren, um es für eigene Zwecke zu missbrauchen.
Ein zentrales Risiko ist auch das so genannte Data Poisoning, das gezielte "Vergiften" der Trainingsdaten, die zur Entwicklung und Verbesserung von KI-Modellen verwendet werden. Das dient dem Zweck, die maschinellen Lernprozesse der KI zu beeinflussen, damit die Modelle fehlerhafte Ergebnisse liefern. Während des Model Inferencing (der Prozess, bei dem ein trainiertes Machine-Learning-Modell verwendet wird, um Vorhersagen oder Entscheidungen auf der Grundlage neuer, zuvor ungesehener Daten zu treffen) und der Live-Nutzung können Angreifer Prompts manipulieren, um Leitplanken zu umgehen und Modelle dazu zu bringen, unerwünschte und sicherheitskritische Ergebnisse zu liefern.
Sicherheitsanforderungen und Vertrauensbildung bei KI-Systemen
Unternehmen müssen ihre Sicherheitsfähigkeiten erweitern, um sich gegen Angriffe auf ihre KI-basierten Systeme zu wappnen. Während der Planungs- und Implementierungsphase müssen sie das Thema Sicherheit von Anfang an mitdenken. Das gilt insbesondere für die Sicherstellung der Integrität von Trainingsdaten und Modellen. Ein häufiger Fehler besteht darin, Sicherheitsvorkehrungen auf die finale Einsatzumgebung zu beschränken. Das Projekt OWASP (Open Worldwide Application Security Project) Top 10 for LLM Applications hat zum Ziel, Unternehmen über die potenziellen Sicherheitsrisiken beim Einsatz und der Verwaltung von LLMs aufzuklären.
Unternehmen müssen das Vertrauen in ihre KI-Technologien stärken und ihre Zuverlässigkeit gewährleisten, um ihre KI-Projekte zum Erfolg zu führen. Das erfordert Transparenz bei KI-Systemen, etwa durch den Einsatz von automatisierten Transaktionsanalysetools. Gleichzeitig führt das wachsende Bewusstsein für die Risiken von KI zu starker Regulierung, wie bereits heute im EU AI Act, dem KI-Gesetz der Europäischen Union. Neben Kundenvertrauen und Image riskieren Unternehmen folglich auch Sanktionen, wenn sie gegen Vorgaben des Gesetzgebers zur sicheren Nutzung von KI verstoßen.
Absicherung der KI-Pipeline über den gesamten Lebenszyklus
Die Sicherheit von KI-Systemen ist ein fortlaufender Prozess, der über den gesamten Lebenszyklus hinweg berücksichtigt werden muss – von der Datenerfassung über das Modelltraining bis hin zur Inferenz und dem Live-Einsatz. Jede Phase birgt spezifische Risiken, wie beispielsweise die Verarbeitung sensibler Daten, die ein attraktives Ziel für Angreifer darstellen können. Diese Risiken können Angriffe auf Modelle, aber auch auf Datenströme im KI-System umfassen.
Ein ganzheitlicher Ansatz beginnt bereits in der Designphase. Unternehmen sollten Bedrohungsszenarien modellieren und mögliche Schwachstellen antizipieren. KI-Governance-Tools bieten strukturierte Ansätze, um die Einhaltung von Fairness, Qualität und regulatorischen Vorgaben sicherzustellen. Durch kontinuierliche Überwachung – z. B. auf toxische Sprache oder den Missbrauch sensibler Informationen – können Unternehmen Risiken minimieren. Zudem helfen automatisierte Analysewerkzeuge dabei, potenzielle Compliance-Verstöße frühzeitig zu erkennen und Maßnahmen zu priorisieren. Verantwortlichkeiten müssen klar definiert sein: Die Geschäftsleitung trägt gemäß Vorgaben wie NIS2 die Haftung für Sicherheitsverstöße, weshalb Sicherheitsstrategien ein integraler Bestandteil der Unternehmensführung sein müssen.
Praktische Maßnahmen für die KI-Sicherheit
Die Sicherung von KI-Systemen erfordert konkrete Schritte:
Schutz sensibler Daten: Sensible Daten müssen vor unbefugtem Zugriff und Lecks geschützt werden. Lösungen wie das Guardium Data Security Center helfen, Datenflüsse zu überwachen, Kopien sensibler Informationen zu vermeiden und Richtlinien wie die DSGVO einzuhalten. Zugangskontrollen für Modelle und Daten, einschließlich der Sicherung von Token und Schlüsseln, sind essenziell.
Transparenz und Erklärbarkeit: Unternehmen sollten Werkzeuge einsetzen, um die Nachvollziehbarkeit von KI-Entscheidungen zu gewährleisten und Erklärbarkeit gegenüber Stakeholdern und Regulierungsbehörden zu fördern.
Sicherheit der KI-Umgebung: Maßnahmen wie Verstärkung der Netzwerksicherheit, Datenverschlüsselung, Zugriffskontrolle und -beschränkung sowie regelmäßige Sicherheitsüberprüfungen minimieren Angriffsflächen in der KI-Umgebung.
Schulungen und Awareness: Mitarbeiterschulungen zur KI-Sicherheit stellen sicher, dass Verantwortliche mögliche Schwachstellen erkennen und vermeiden können.
Zusätzlich ist die Einführung eines Data Security Posture Managements (DSPM) sinnvoll, um den Schutz sensibler Informationen über Anwendungen und Clouds hinweg zu gewährleisten. Unternehmen können so ein Höchstmaß an Sicherheit erreichen, gleichzeitig die Compliance sicherstellen und die Haftungsrisiken minimieren.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
KI in der Cybersicherheit – wie KI Sicherheitsteams entlastet und die Abwehr verbessert
Obwohl KI selbst ein Einfallstor darstellen kann, bietet sie auch Potenzial zur Verbesserung der Cybersicherheit. Die Geschwindigkeit und Effizienz von KI bei der Erkennung von und der Reaktion auf Bedrohungen kann die Arbeit von Sicherheitsteams spürbar erleichtern. So kann KI verdächtige E-Mails filtern, Bedrohungen priorisieren oder Risikoprofile für besonders vulnerable Mitarbeiter erstellen. Ebenso können KI-basierte Systeme die Erstellung von Berichten automatisieren. Das hilft, Reaktionszeiten zu verbessern und regulatorische Vorgaben zu erfüllen.
Insbesondere die Anomalie-Erkennung, ein Verfahren, bei dem Algorithmen ungewöhnliche Muster im Netzwerkverkehr erkennen, hat sich bewährt. Die Algorithmen können dabei nicht nur bekannte Bedrohungen identifizieren, sondern auch noch nicht dokumentierte Angriffsmethoden aufspüren.
Ist KI der Schlüssel zur mehr Cybersicherheit – oder ihre größte Schwachstelle?
Die Implementierung KI-basierter Systeme, sei es zur Angriffsabwehr, zur Datenanalyse oder zur Bearbeitung von Kundenanfragen, erfordert ein hohes Maß an Expertise und die Fähigkeit, die verwendeten Modelle effizient in die Sicherheitsarchitektur zu integrieren. Unternehmen müssen sicherstellen, dass ihre Systeme richtig trainiert und kontinuierlich angepasst werden, um mit den sich ständig weiterentwickelnden Bedrohungen Schritt zu halten. Cybersicherheit ist ein Prozess, der das gesamte Unternehmen durchdringen und angesichts einer dynamischen Bedrohungslage ständig angepasst werden muss.
Auch organisatorisch gibt es viel zu tun, denn die Schulung und Sensibilisierung von Mitarbeitern ist nicht nur ein wesentlicher Bestandteil der Sicherheitsarchitektur, sondern auch der Compliance. Ein Ansatz, der Technologie, Prozesse und Governance zusammenbringt, ist entscheidend, um die eigene Resilienz zu verbessern und die Anforderungen von Regelwerken wie NIS2, DORA oder den EU AI Act zu erfüllen.
KI eröffnet neue und vielfältige Möglichkeiten, auch bei der Erkennung und Abwehr von Bedrohungen. Auf der anderen Seite schafft sie neue Angriffsvektoren. Dennoch ist die Frage für Unternehmen nicht, ob sie KI einsetzen, sondern wie sie es tun, ohne selbst zur Zielscheibe zu werden. Denn wie in allen anderen Bereichen drohen allen, die das Potenzial von KI nicht nutzen, deutliche Wettbewerbsnachteile. KI ist ein mächtiges Werkzeug – wenn sie sicher eingesetzt wird. Bei sachgemäßer Implementierung, für die Unternehmen sich rechtzeitig geeignete Partner an die Seite holen sollten, überwiegen die Chancen und Vorteile die Risiken bei weitem.
Über die Autorin: Sonja Gresser ist IT-Security Architect bei IBM und verfügt über mehr als 10 Jahre Erfahrung in der Entwicklung und Implementierung sicherer IT-Architekturen für Unternehmen unterschiedlichster Branchen. Ihr Fokus liegt auf der Nutzung von Künstlicher Intelligenz zur Verbesserung der Cybersicherheit in komplexen, modernen IT-Umgebungen.