KI-Agenten beschleunigen Cyberangriffe, skalieren Ausnutzung und passen sich dynamisch an. Klassische Sicherheitslösungen geraten hier zunehmend an ihre Grenzen. Unternehmen müssen deshalb auf adaptive, KI-gestützte Verteidigungsstrategien setzen.
KI-Agenten verändern Cyberangriffe grundlegend, sie agieren schneller, skalierbarer und anpassungsfähiger als bisher bekannte Methoden.
Während Unternehmen in Zeiten des KI-Rollouts vor neuen Chancen stehen, ihre Abwehrmechanismen weiterzuentwickeln, erfolgen Cyberangriffe zunehmend mithilfe selbständiger und adaptiver KI-Agenten. Attacken können dadurch noch gezielter, schneller und anpassungsfähiger durchgeführt werden. Dieser Beitrag zeigt, wie weit die Technologie bereits fortgeschritten ist und wo ein Umdenken der Unternehmen gefragt ist.
KI hat im letzten Jahr ihren großen Durchbruch erzielt. Gerade Large Language Models (LLMs) haben an unschätzbarem Wert gewonnen. Die IT-Sicherheit profitiert von ihrem Zugriff auf Wissen und Visualisierungen und sie liefern sogar Codes, die bei der Verteidigung von Cyberattacken helfen. Die Kehrseite des KI-Fortschritts: Auch die Fähigkeiten der Angreifenden verbessern sich – und neue Softwareprogramme wie Agenten mit künstlicher Intelligenz verändern deren gesamtes taktisches Vorgehen. Deswegen ist es wichtig zu schauen, wie weit die Bedrohung jetzt schon reicht und wie Unternehmen darauf reagieren können.
Die Betrugschancen mithilfe von LLMs – grundsätzlich fähig, aber eher überschätzt
Large Language Models (LLMs) generieren Texte, erklären Skripte und vereinfachen technische Dokumentationen. Inzwischen können sie sogar auf lokalen Rechnern als autonome Agenten agieren, daher ist es durchaus denkbar, sie für gezielte Phishing- und Social-Engineering-Angriffe einzusetzen. Durch die Erstellung von Fake-Chats, die Interpretation technischer Dokumentation und die Analyse oder Generierung von Exploit-Codes erlauben solche Modelle mehr Personalisierung und Skalierung. Allerdings besteht dafür eher wenig Notwendigkeit, bieten LLMs im Vergleich zu bestehenden Tools doch nur minimale Vorteile, wie SURGe-Untersuchungen von Splunk ergaben. Die Sprachmodelle helfen punktuell als Werkzeuge, sind aber keine Masterminds – sie ersetzen weder Kreativität noch Planung oder echte Kontextkenntnis. Ganz anders sieht es aus, wenn LLMs in Agentensysteme eingebettet werden, die mit künstlicher Intelligenz ausgestattet autonom denken und handeln.
Wie Agentic AI die Angriffskette tiefgreifend verändert
Am interessantesten für agentenbasierte Cyberkriminalität ist derzeit die Anwendung in einem größeren Kontext, nämlich in den zentralen Phasen der Kill Chain – besonders effektiv in der Reconnaissance-Phase, also der Identifizierung neuer Ziele. Dort hilft Agentic AI dabei, kompromittierte Systeme und Serverdaten automatisiert zu analysieren, Informationen zu klassifizieren und high-value targets schneller zu identifizieren. Es ist zudem möglich, KI-Agenten zu duplizieren, um viele Systeme gleichzeitig zu infiltrieren. Eine Recherche, für die Menschen einige Tage oder gar Wochen benötigt haben, kann mithilfe von KI-Agenten in wenigen Minuten oder Stunden erledigt werden.
Doch auch im weiteren Verlauf der Kill Chain können KI-Agenten unterstützen. Ihr Support reicht vom Zugriff zum System bis hin zum Einsetzen eines Persistenzmechanismus, über den die Agenten selbst nach Neustarts wieder in das System zurückkehren können. Dabei suchen sie nach relevanten Informationen und exfiltrierten wertvolle Daten. Ihre Prozesse laufen dabei in Schleifen ab, so können sie ihr Vorgehen immer wieder anpassen: wahrnehmen – planen – handeln – bewerten – wiederholen.
Ein Agent kann für unterschiedliche Zwecke angepasst und mit passenden Effekten eingesetzt werden. All das zusammengenommen erhöht die Skalierbarkeit und Effizienz bei der Bestimmung von high-value targets (HVTs), aber auch die Geschwindigkeit von Cyberangriffen drastisch.
Warum klassische Sicherheitslösungen nicht mithalten – und wie neue Verteidigungsstrategien aussehen
IT-Verteidigungsteams stehen nicht nur unter stärkerem Druck in puncto Früherkennung, auch die Abwehrstrategien müssen überdacht werden, wenn sich die Zeit bis zu einer Kompromittierung des Systems signifikant verkürzt. Die Präzision mithilfe von Agentic AI könnte dazu führen, dass der Verteidigungsbereich dem Reifegrad der offensiven Nutzung nachsteht – und damit eine asymmetrische Bedrohungslage entsteht, gegen die klassische Modelle (noch) nicht gewappnet sind. Um dieses Ungleichgewicht wieder auszubalancieren, können Unternehmen selbst auf effizienzsteigernde KI-Tools wie beispielsweise KI-gestützte, verhaltensbasierte Erkennung oder Frühwarnsysteme setzen.
Durch Intelligente Softwareprogramme ist es möglich, im Vorhinein Schwachstellen von Unternehmen aufzeigen und sicherzustellen. Die Suche und Analyse nach kritischen, aussagekräftigen Informationen mithilfe von Large Language Models spart Zeit und ist effektiv. Aufgrund der rasanten Entwicklung – auch auf Seiten der Angreifer – ist es für Unternehmen entscheidend, die Entwicklung von Cyberangriffen zu beobachten, die Koordination zwischen der Sicherheitsabteilung und Führungsebene zu fördern und Sicherheitssysteme aktuell zu halten. Wichtig ist auch: LLMs ,,erfinden” keine neuen Angriffstechniken – sie replizieren nur Bekanntes. Und genau das eröffnet Verteidigern die Chance, ebenso auf KI-Tools zu setzen und mit verhaltensbasierten Analysen, Frühwarnsystemen und automatisierten Reaktionen gezielt gegenzuhalten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Effizienz von LLMs beim Nachbilden von Angriffstechniken in der Praxis
Im Rahmen des Macro-ATT&CK-Projekts von Splunk wurden über einen Zeitraum von fünf Jahren die am häufigsten verwendeten Taktiken und Techniken von Angreifern in realen Cybervorfällen untersucht. Bei der Kombination der gesammelten Daten und der Bewertung der Fähigkeiten von LLMs wurde festgestellt, dass deren Fähigkeit, Angriffsverfahren nachzubilden, je nach Modell und Zielbetriebssystem variiert. In etwa 90 Prozent der Fälle waren die LLMs in der Lage, die gewünschte Aufgabe auszuführen. In etwa 45 Prozent der getesteten Fälle konnten sie die Befehlszeile exakt ausführen.
Allgemein deutet alles darauf hin, dass Cyberkriminelle schon jetzt Aufklärungsagenten erstellen können, die mit massiven Ausnutzungsversuchen verknüpft sein könnten. Die Modelle erweisen sich als anwendungsfreundlich und sind dazu fähig, zurückgegebene Informationen zusammenzufassen und in einen Kontext zu setzen.
Blue Teams müssen sich noch nicht auf wesentliche Abweichungen von den etablierten Taktiken und Techniken in ATT&CK vorbereiten. Doch selbst wenn der Großteil der Funktionen an sich nicht neu ist (wie automatisierte und skriptgesteuerte Aktionen), keine völlig neuen Angriffsklassen erfunden oder bestehende Methoden wesentlich effizienter oder zuverlässiger geworden sind: Das Aufspüren von Benutzenden, Diensten, Anmeldedaten und Protokollen ist als relativ ausgereift zu bewerten, kombiniert mit agentenbasierten Funktionen ist also eine gezieltere Kompromittierung hochwertiger Ziele im Bereich des Möglichen. In der Zukunft könnte es sogar zu einer dramatischen Skalierung der Operationen kommen, während die menschliche Beteiligung an Cyberangriffen erheblich reduziert werden dürfte. Ungewiss ist aber nicht nur ob, sondern auch wann und in welchem Ausmaß dieses Szenario eintrifft. Und selbst dann bleibt KI-gestützter Support durch die Anwendenden beschränkt – nämlich durch deren Fähigkeit, Ziele klar zu formulieren und die Ergebnisse des Modells in eine kohärente und effektive Angriffsstrategie zu integrieren.
Fazit: Zwischen Hype, Realität und Handlungsoptionen
So, wie intelligente Systeme unser Privat- und Arbeitsleben vereinfachen, so können sie natürlich auch im Negativen die Effizienz von Hackern steigern. Doch selbst wenn LLMs derzeit am besten im Sammeln und Zusammenfassen vieler Informationen sind und Agenten die Suche nach neuen Angriffsvektoren, den Zugang zu den Hosts und die Exploits erleichtern: Alle Modelle basieren derzeit auf dem vorhandenen Wissen darüber, wie Angriffe durchgeführt werden. Sie haben also keine kreativen oder bewertenden Fähigkeiten, um relevantes Neues zu schaffen. Für vollständig autonome Angriffsketten stellen initiale Zugangspunkte und fortgeschrittenes Reasoning noch technische Hürden dar.
Inhaltlich liefern die Cyberattacken also kaum Überraschendes, aber auf das Tempo, die Effizienz und Präzision KI-gesteuerter Angriffe gilt es, strategisch zu reagieren. Dabei steht Blue Teams gleichermaßen die intelligente Software zur Verfügung. Das Antizipieren von Sicherheitslücken, das Irreführen der Angreifenden und adaptive, KI-gestützte Verteidigungsstrategien begegnen Cyberbedrohungen mithilfe künstlicher Intelligenz wohl am erfolgreichsten. Von den Unternehmen ist jetzt proaktive Reaktion gefragt – durch Investitionen in adaptive Detection-Technologien, den Aufbau von KI-Kompetenz von Sicherheitsverantwortlichen und durch das Verständnis, dass künftig nicht mehr nur Menschen angreifen – mit weitreichenden Folgen in puncto Geschwindigkeit und Kontextverständnis.
Über den Autor: Ryan Fetterman, Security Strategist bei Splunk, einem Unternehmen von Cisco, ist zu dem SURGe-Team gestoßen, nachdem er ein Jahrzehnt in fensterlosen Kellern verbracht hat, um Forschung und Beratung für die US-Regierung zu betreiben. Der Sicherheitsstratege hat nach seinem Bachelorstudium in Cybersicherheit an der Penn State University mit Master- und Doktortitel an der George Washington University in D. C. graduiert.