Wie Angreifer KI-Systeme austricksten und Ransomware durchschleustenWarum KI in der IT-Sicherheit niemals allein entscheiden darf
Ein Gastbeitrag von
Markus Neumaier
6 min Lesedauer
Ein EDR-System blockierte zunächst Schadsoftware auf einem Domain Controller, doch die Angreifer probierten es wiederholt mit neuen Dateinamen. Das lernende Modell stufte das Muster schließlich als harmlos ein und ließ die Ransomware durch. Fünf Stunden später begann die Verschlüsselung. Der Fall zeigt, warum KI ohne menschliche Kontrolle getäuscht werden kann.
Angreifer probierten wiederholt Schadsoftware auf einem Domain Controller zu platzieren, bis das EDR-System das Muster schließlich als harmlos einstufte. Fünf Stunden später begann die Verschlüsselung.
Der Einsatz von KI, um Cybersecurity-Angriffe abzuwehren, verbreitet sich zunehmend. Dies kann die Sicherheitsarchitektur erheblich stärken. Wird sie jedoch zur einzigen Verteidigungslinie, kann genau darin eine gefährliche Schwachstelle liegen. In mehreren jüngsten Vorfällen sortierten KI-gestützte Schutzsysteme Alarme falsch ein: echte Angriffe wurden als harmlos abgewertet, während harmlose Ereignisse dagegen so viel Lärm erzeugten, dass das Wichtige unterging. Das Schlimmste dabei: die als ungefährlich eingestuften echten Angriffe. Angreifer nutzen diese Schieflage gezielt aus. Daher sollte KI in der IT-Sicherheit niemals allein entscheiden.
Angriffe auf Unternehmensnetze beginnen selten mit einem Paukenschlag. Im dokumentierten Fall tasteten sich Täter Schritt für Schritt vor, probierten mehrere Anläufe und brachten ein lernendes Schutzsystem schließlich dazu, sie nicht mehr als Gefahr zu erkennen. Als die Alarmroutine schwieg, war der Weg frei: Daten wurden kopiert, Backups geschwächt, Systeme verschlüsselt. Die Chronik des Vorfalls zeigt, wie sich Verteidigungstechnik austricksen lässt und wie eine forensische Auswertung den Tatablauf später lückenlos macht.
Der Einstieg gelang über eine verwundbare, öffentlich erreichbare Komponente im Netz. Die Angreifer nutzten eine bekannte Schwachstelle an einer exponierten Firewall und verschafften sich Zugang. Anschließend legten sie Werkzeuge auf dem System ab: eine „Webshell“ für dauerhaften Zugriff, ein „Credential Stealer“ zum Abgreifen von Zugangsdaten und das Scan-Tool Nmap zur Netzwerkerkundung. Mit den erbeuteten VPN-Zugangsdaten bauten sie per Windows-Fernzugriff (Remote Desktop Protocol) eine Sitzung zum zentralen Windows-Server (Domain Controller) auf, der Konten und Rechte verwaltet. Damit war die Schaltstelle erreicht, an der sich ein Netzwerk effizient übernehmen lässt.
Die ausgetrickste Abwehr
Auf dem Domain Controller stoppte zunächst ein EDR-System („Endpoint Detection and Response“) die Schaddatei. Doch der Gegner probierte es stur erneut mit gleichem Inhalt, aber neuen Dateinamen wieder und wieder. Dies ist ein typisches Evasion-Vorgehen gegen ML-gestützte Erkennung, bei dem ein bekannter Effekt eintritt: Sensoren passen ihre Baseline an, wenn ein Muster oft genug ohne unmittelbare Folgeschäden auftaucht. Was gestern „auffällig“ war, wirkt morgen wie „gewöhnlich“. Forschung und Leitlinien warnen daher nicht nur vor adversarialen Angriffen auf Modelle, sondern auch vor Fehleinschätzungen durch Auto-Tuning und unkritisches Baselining einzelner Quellen. Nach mehreren Versuchen stufte das lernende Modell das Muster als unauffällig ein und ließ die Datei passieren. Dieser praktische Missbrauch von „Adversarial Machine Learning“ zeigt, dass nicht nur Schwachstellen gefährlich sind, sondern auch das Training und die Grenzwerte eines KI-basierten Schutzes. Fünf Stunden später begann die Ransomware, sich zu verteilen. Hier zeigt sich das Grundproblem: Ein System, das ohne menschliche Kontrolle seine „Normalität“ aus Beobachtungen ableitet, kann antrainierte Täuschungen übernehmen. Genau für solche Grenzfälle braucht es geübte Analysten, die Alarme querprüfen, Korrelationen bilden und Stopp rufen.
Die anschließende Auswertung förderte einen unscheinbaren, aber entscheidenden Beleg zutage: den RDP-Bitmap-Cache. Windows speichert dabei Bildschnipsel von Fernsitzungen lokal. Aus diesen „Kacheln“ ließ sich später die Aktivität im Rückblick nahezu Bild für Bild rekonstruieren. Wie in einem Daumenkino wurden einfache Befehle wie „ipconfig“, aber auch ein „LSASS-Dump“ sichtbar, das heißt eine Sicherung des Arbeitsspeichers des Windows-Anmeldeprozesses. Aus diesem Speicher lassen sich mit gängigen Angreifer-Tools (z.B. Mimikatz) Anmeldedaten auslesen, die es den Angreifenden erlauben, sich im Netzwerk weiterzubewegen und Rechte zu erhöhen. So wurde nachvollziehbar, wie sich die Angreifer vom Domänenkonto aus in Backups und Gruppenrichtlinien vorarbeiteten.
Vom Datensammeln zur Erpressung
Kurz nach Mitternacht begann die systematische Datensammlung. Der Täter packte Daten teils mit bis zu 32 GB pro Datei in RAR-Archive („User.rar“, „Management.rar“, „Service_SAP.rar“ und andere). Der Abtransport lief über WinSCP, ein Datei-Übertragungsprogramm, das samt Konfiguration temporär auf die Zielrechner kopiert und danach wieder entfernt wurde. Diese nüchterne Logistik verrät Planung: Wer weiß, wo Wert liegt, archiviert gezielt und räumt anschließend auf.
Gegen 4.00 Uhr morgens startete die vom Domain Controller gesteuerte Verschlüsselung in Wellen, die bis circa 6.30 Uhr dauerten. Die Ransomware wurde per SMB-Dateifreigaben („Server Message Block“) verteilt und mit PsExec als Dienst auf vielen Rechnern gestartet. Minuten später erschienen die bekannten Erpressernotizen („readme.txt“). Bis zur Entdeckung und Unterbrechung verging wertvolle Zeit, in der jede Minute mehr Dateien unbrauchbar machte.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Der Fall belegt ein strukturelles Problem: Lernende Systeme sind stark – und formbar. Wird die Grenze zwischen „auffällig“ und „normal“ aber durch konsequentes Testen verschoben, können Fehlentscheidungen provoziert werden. Das ist kein Grund gegen KI, sondern ein Argument für ihren kontrollierten Einsatz: Modelle brauchen menschliche Überprüfung, klare Eskalationsregeln und unabhängige Zusatzsignale, die sich nicht alle gleichzeitig täuschen lassen. Genau darauf zielen aktuelle Empfehlungen aus der Praxis: vorbereiten, erkennen und unterbrechen.
Sofortige Gegenmaßnahmen – in drei Schritten
Vorbeugen beginnt außen, bei exponierten Diensten, die gehärtet und aktuell gehalten werden müssen. Fernzugriffe gehören streng abgesichert und Netzsegmente sauber getrennt. Ebenso unverzichtbar ist eine Multifaktor-Autorisierung. So schrumpft die Angriffsfläche und mit ihr die Zahl der Wege ins Netz.
Erkennen heißt, auch schwache Signale zusammenzuführen. Daher empfiehlt es sich, Telemetrie aus EDR, Firewall, Verzeichnisdienst und weiteren Sensoren in einem Security Operations Center (SOC) rund um die Uhr zu korrelieren. Entscheidend ist die Haltung: Unklare Ereignisse werden nicht glattgebügelt, sondern hochgestuft. Wenn die Erkennung an klaren Techniken ausgerichtet wird, etwa am MITRE-ATT&CK-Katalog, der typische Angriffsbausteine beschreibt, wird das Monitoring überprüfbar und messbar. Beispiele aus diesem Fall sind unter anderem: „Exploit Public-Facing Application“ (Erstzugriff über exponierte Anwendung) und „OS Credential Dumping: LSASS Memory“ (Auslesen von Anmeldedaten aus dem Arbeitsspeicher).
Reagieren will geübt sein. Incident-Response-Pläne legen fest, wer bei Verdacht entscheidet, wie Systeme isoliert und in welcher Reihenfolge wiederhergestellt werden. Dazu gehören Kommunikationswege nach innen und außen, einschließlich der Frage, welche Daten mit Behörden und Dienstleistern geteilt werden dürfen. Das regelmäßige Durchspielen dieser Abläufe in Übungen verkürzt im Ernstfall die kritischsten Stunden.
Unternehmen, die eine gut vorbereitete Abwehr und eingespielte Abläufe vorweisen, nehmen den Erpressern den Taktstock aus den Händen. Anders ausgedrückt: Wenn Außenstellen gehärtet sind, die Erkennung an klaren Mustern ausgerichtet ist und die Reaktionswege sitzen, läuft ein Angriff nicht mehr nach Drehbuch der Täter, sondern nach den Regeln der Verteidigung.
Handlungsempfehlung: 24/7-CyberSOC mit Maß
Ausschlaggebend für den erfolgreichen Angriff war in diesem Fall nicht die fehlende Technik, sondern die fehlende Einordnung. Ein dauerhaft besetztes Security Operations Center (SOC) hätte die ungewöhnliche Folge von Ereignissen zusammengeführt: wiederholte Upload-Versuche bei gleichbleibendem Inhalt, ein erst geblockter und später erlaubter Ablauf, auffällige RDP-Aktivität am Domain Controller, Veränderungen an Backup- und Richtlinieneinstellungen. Ein SOC prüft solche Ketten, bewertet sie im Kontext und stoppt verdächtige Prozesse – bevor aus einem Einzelfehler der KI eine Kettenreaktion wird.
Um Angriffe dieser Art früh zu bremsen, muss das SOC-Sicherheitskonzept natürlich zur IT-Landschaft und den individuellen Risiken des Unternehmens passen. Das Kernelement ist die Überwachung von AV- und EDR-Signalen im Verbund mit weiteren Quellen, zum Beispiel Firewall-Logs, Verzeichnisdienst-Ereignisse und anderer Sensorik. Wo sich Muster wiederholen, wo geblockte Artefakte plötzlich durchgehen oder wo privilegierte Systeme ungewöhnlich handeln, muss automatisch eskaliert und manuell verifiziert werden. Das SOC legt dabei Schwellenwerte fest, die nicht „umerziehbar“ sind, dokumentiert Eingriffe, übt Isolations- und Wiederanlaufverfahren und arbeitet mit klaren Entscheidungswegen. So entsteht aus vielen Einzelalarmen ein Bild – und aus dem Bild die richtige Entscheidung in der richtigen Minute. Die Voraussetzung hierfür sind Menschen, die Muster prüfen, Zweifelsfälle eskalieren und Eingriffe freigeben.