Verantwortungsvoller KI-Einsatz in der Cyberabwehr KI darf in der Cyberabwehr nicht die Kontrolle übernehmen

Ein Gastbeitrag von Beverly McCann 3 min Lesedauer

Anbieter zum Thema

KI stärkt die Cyberabwehr und schafft zugleich neue Risiken. Automatisierte Entscheidungen, intransparente Modelle und Datenabhängigkeiten können Sicherheit untergraben. Fünf Prinzipien zeigen, wie Unternehmen KI gezielt einsetzen, Fehlentscheidungen vermeiden und Kontrolle über ihre digitalen Verteidigungssysteme behalten.

KI-gestützte Abwehrsysteme erkennen Bedrohungen in Echtzeit, aber ohne menschliche Kontrolle können sie selbst zum Risiko werden.(Bild: ©  chiew - stock.adobe.com)
KI-gestützte Abwehrsysteme erkennen Bedrohungen in Echtzeit, aber ohne menschliche Kontrolle können sie selbst zum Risiko werden.
(Bild: © chiew - stock.adobe.com)

KI hat in der Cyber-Welt längst den Status eines Zukunftsszenarios hinter sich gelassen. Cyberkriminelle setzen KI ein, um Angriffe zu verschleiern, Sicherheitsmaßnahmen zu umgehen und Schadsoftware autonom weiterzuentwickeln. Allein zwischen Dezember 2023 und Dezember 2024 registrierte Darktrace über 30 Millionen Phishing-Mails, viele davon KI-generiert.

Allerdings wird KI gleichzeitig zur Cyberabwehr erfolgreich eingesetzt. Selbstlernende Systeme analysieren Muster im Netzwerkverkehr, erkennen unbekannte Bedrohungen und reagieren automatisch – oft schneller, als menschliche Analysten es je könnten. Wenn automatisierte Systeme eingreifen, entstehen neue potenzielle Fehlerquellen: unklare Entscheidungswege, potenzielle Fehlreaktionen und die Gefahr, selbst zum Ziel zu werden. Fünf Prinzipien helfen Unternehmen, KI verantwortungsvoll einzusetzen.

1. Fehlentscheidungen durch Kontextverstehen vermeiden

Nicht jede Abweichung ist ein Angriff. Statt statischer Regeln analysiert moderne KI, wie Nutzer, Geräte und Anwendungen normalerweise agieren. Ein ungewöhnlicher Zugriff auf einen Server kann harmlos sein – oder ein Frühindikator für ein laterales Movement. Anomalien, die auf Angriffe hinweisen könnten, werden in Relation zum Kontext bewertet – nicht isoliert. Solche Systeme reduzieren die Zahl irrelevanter Warnmeldungen und helfen Sicherheitsteams, sich auf tatsächliche Bedrohungen zu konzentrieren. Das reduziert Reaktionszeiten und minimiert unnötige Störungen im Betriebsablauf.

2. Transparenz durch Interpretierbarkeit schaffen

Vertrauen in KI entsteht durch Nachvollziehbarkeit. Gerade in sicherheitskritischen Bereichen müssen Analysten verstehen, warum eine Entscheidung getroffen wurde – sei es eine Sperrung, Alarmierung oder automatische Isolation eines Geräts. Idealerweise kommen Systeme zum Einsatz, die ihre Entscheidungswege offenlegen und sicherheitsrelevante Vorfälle dokumentieren – von der ersten Hypothese bis zur Schlussfolgerung, vergleichbar mit der Arbeit menschlicher Analysten. So bleibt die Kontrolle über sicherheitsrelevante Prozesse immer beim Menschen.

3. Schutz vor Manipulation durch Sicherheit und Robustheit

Adversarial Machine Learning ist eine reale Bedrohung. Hierbei versuchen Angreifer, KI-Systeme mit manipulierten Daten in die Irre zu führen. Unternehmen brauchen ein mehrstufiges Sicherheitskonzept: eigene Red-Team-Tests, Secure-by-Design-Prinzipien, interne Penetrationstests und keine öffentlich trainierten Modelle, um Datenvergiftung zu vermeiden. KI-Systeme müssen auch unter ungewöhnlichen Bedingungen zuverlässig arbeiten. Wenn ein Angreifer beispielsweise versucht, die Baseline eines Modells durch schrittweise Anpassung von Zugriffsmustern zu manipulieren, kann durch kontinuierliche Quervergleiche innerhalb von Gerätegruppen und netzwerkübergreifenden Korrelationen der Angriff frühzeitig erkannt werden.

4. Datenschutz und Privatsphäre durch minimale Datennutzung

Viele KI-Systeme sammeln und verarbeiten enorme Datenmengen. Doch oft ist ein minimalinvasiver Ansatz sinnvoll. Dabei werden überwiegend Metadaten wie Dateigröße, Zeitstempel oder Verbindungsart analysiert – nicht die Inhalte. Personendaten werden standardmäßig anonymisiert und nur bei Bedarf sichtbar gemacht. Zudem laufen viele Prozesse lokal, ohne Daten in externe Cloudsysteme zu übertragen. Laut dem aktuellen „State of AI in Cybersecurity“-Report 2025 setzen 62 Prozent der Unternehmen bereits auf KI-Lösungen, die ohne externe Datenfreigabe auskommen (https://darktrace.com/en/resources/state-of-ai-cybersecurity-2025). Das stärkt nicht nur das Vertrauen in die Systeme, sondern schützt Unternehmen auch vor regulatorischen Risiken im Umgang mit sensiblen Informationen.

5. Automatisierung als Teamplayer gestalten – nicht als Ersatz

KI soll nicht Menschen ersetzen, sondern sie entlasten. Besonders in Zeiten des Fachkräftemangels ist es entscheidend, dass automatisierte Systeme Routineaufgaben übernehmen und Analysten Zeit für komplexe Fälle verschaffen. Autonome Abwehrmaßnahmen greifen nur proportional ein, beispielsweise durch Drosseln eines Datenstroms statt einer sofortigen Blockade. Zudem werden sie bewusst limitiert und verschaffen dem Sicherheitsteam die nötige Zeit für eine fundierte Bewertung. Die KI arbeitet Hand in Hand mit Analysten und informiert sie, anstatt sie zu übergehen.

Automatisierte Cyberabwehr ist unverzichtbar – aber nicht ohne Leitplanken

Angesichts immer komplexerer, KI-gestützter Angriffe ist Automatisierung in der Cyberabwehr kein Luxus mehr, sondern Pflicht. Denn herkömmliche Sicherheitsmaßnahmen stoßen an ihre Grenzen, wenn Angreifer generative KI nutzen, um Phishing-Kampagnen in Sekunden zu skalieren oder mithilfe neuronaler Netze Schwachstellen im System gezielt auszunutzen. Doch Automatisierung allein garantiert noch keine Sicherheit. Wird KI ohne klare Vorgaben und Kontrollmechanismen eingesetzt, können Fehlentscheidungen, mangelnde Transparenz oder ungewollte Eingriffe selbst zum Risiko werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Um Sicherheitsteams nachhaltig zu entlasten, ohne neue Risiken zu schaffen, müssen Unternehmen auf verantwortungsvolle KI setzen: transparent, robust, datenschutzkonform und immer unter menschlicher Kontrolle.

Über die Autorin: Dr. Beverly McCann ist Director of Product bei Darktrace. Zuvor leitete sie als Director of Analysis für EMEA die Analystenteams. Als Produktdirektorin arbeitet sie eng mit dem Forschungs- und Entwicklungsteam für die gesamte Produktpalette zusammen. Beverly hat einen Doktortitel in Biowissenschaften von der University of Cambridge und einen MBA von der Quantic School of Business and Technology.

(ID:50606381)