gesponsertSteht der nächste Trend bei Cyberkriminalität schon fest? Wie KI-Agenten das Katz- und Maus-Spiel der Cybersicherheit verändern

4 min Lesedauer

Gesponsert von

Künstliche Intelligenz (KI) unterstützt Cyberkriminelle durch eine bessere Planung, Skalierung und sorgt für mehr Effizienz. Allerdings hilft sie Verteidigern ebenso mit besserer Erkennung und Analyse

Autoren: Anna Collard, SVP Content Strategy & Evangelist KnowBe4 Africa & Dr. Martin Krämer, Security Awareness Advocate bei KnowBe4.(Bild:  KnowBe4)
Autoren: Anna Collard, SVP Content Strategy & Evangelist KnowBe4 Africa & Dr. Martin Krämer, Security Awareness Advocate bei KnowBe4.
(Bild: KnowBe4)

Der WEF-Bericht über künstliche Intelligenz und Cybersicherheit (2025) hebt hervor, wie KI-Tools Cyberbedrohungen regelrecht demokratisiert haben und es Angreifern ermöglicht, Social Engineering zu automatisieren. Sie sind nun in der Lage ihre Phishing-Kampagnen auszuweiten und KI-gesteuerte Malware einzusetzen.

Denn trotz der Möglichkeiten der KI stellt beispielsweise der 2025 State of Malware Report von Malwarebytes fest, dass GenAI zwar die Effizienz der Cyberkriminalität erhöht hat, aber noch keine völlig neuen Angriffsmethoden hervorbringen konnte. Daraus folgt, dass Angreifer sich noch immer auf Phishing, Social Engineering und Cyber-Erpressung verlassen. Die Methoden werden durch KI lediglich verstärkt.

Mit Agentic AI und KI-Agenten wird sich diese Situation jedoch verändern. Die autonomen KI-Systeme können komplexe Aufgaben planen, umsetzen und ausführen.

So integrieren Sie KI smart in Ihre Cybersecurity

Bedrohung durch autonome Agenten

KI-Systeme reproduzieren sich bereits selbst wie eine aktuelle Studie zeigt. Diese Eigenschaft birgt das Risiko einer unkontrollierten Ausbreitung von KI-Systemen, die gegen die Interessen ihrer Entwickler handeln. KI-Forscher äußerten Bedenken, dass diese Systeme entweder zufällig oder böswillig entstehen können, insbesondere wenn autonomen KI-Agenten Zugang zu Daten, APIs und externen Integrationen gewährt wird. Je größer die Reichweite einer KI durch Integrationen und Automatisierung ist, desto größer ist die potenzielle Gefahr. Nicht zuletzt aus diesem Grund bedarf es erhöhter Sicherheitsmaßnahmen und eine ethische KI-Governance.

Automatisierung der Cyberkriminalität

KI-Agenten werden einen passiven Assistenten in einen autonomen Akteur verwandeln, der in der Lage ist, komplexe Angriffe zu planen und auszuführen. Viele Software-Anbieter trainieren bereits KI-Agenten für den geschäftlichen Einsatz. Geraten diese Entwicklungen in die Hände von Cyberkriminellen, sind dem Missbrauch Tür und Tor geöffnet. KI-Agenten können dazu verwendet werden, selbstständig nach Schwachstellen zu suchen und diese auszunutzen. Im Gegensatz zu den aktuellen GenAI-Bedrohungen hat die agentenbasierte KI das Potenzial, ganze Kampagnen zu automatisieren und damit das Risiko einer Kompromittierung erheblich zu erhöhen.

KI-Agenten als Abwehrchance

Sicherheitsteams können auf der anderen Seite jedoch KI-Agenten einsetzen, um Netzwerke in Echtzeit zu überwachen, Anomalien zu erkennen und schneller auf Bedrohungen zu reagieren. KI-gesteuerte Sicherheitsplattformen können automatisch riesige Datenmengen korrelieren, um Angriffsmuster zu erkennen. Sie erstellen dynamische Bedrohungsmodelle, Echtzeitanalysen des Netzwerkverhaltens und leisten somit eine tiefgreifende Erkennung von Anomalien. Trotz dieser Möglichkeiten, bleibt es jedoch unerlässlich, dass Security Analysten an Bord bleiben. Menschliche Intuition und Anpassungsfähigkeit ist für die Erkennung nuancierter Angriffsmuster und die Nutzung echter Erkenntnisse über Vorfälle ein entscheidender Faktor.

Weitere Ansätze aus Sicht der Verteidiger sind:

  • Automatisierte Phishing- und Betrugsprävention: KI-gestützte E-Mail-Sicherheitslösungen können Sprachmuster und Metadaten analysieren, um KI-generierte Phishing-Versuche zu erkennen, bevor sie die Mitarbeiter erreichen. Sie analysieren Schreibmuster und Verhaltensanomalien. Außerdem kann KI ungewöhnliches Absenderverhalten aufzeigen und die Erkennung von Business Email Compromise-Angriffen verbessern.
  • Benutzerschulung und KI-gestütztes Sicherheitstraining: KI-gestützte Plattformen (z. B. AIDA von KnowBe4) bieten personalisierte Sicherheitsschulungen, in denen KI-generierte Angriffe simuliert werden. Nutzer lernen die Bedrohungen kennen und werden darin geschult, KI-generierte Inhalte zu erkennen.
  • KI-Gegenmaßnahmen für Angreifer: Verteidiger können KI-Techniken wie KI-generierte Honeypots einsetzen, um Angreifer in die Irre zu führen und aufzuspüren.
Das ist die Zukunft von Human Risk Management

Erkennung von KI-gesteuerten Desinformationen und Betrug

Darüber hinaus spüren entsprechend trainierte KI-Tools synthetischen Text und Desinformationen auf. Sie können bei der Überprüfung von Fakten und der Quellenvalidierung helfen. Das Forschungsprojekt Countercloud oder der KI-Agent „Daisy“ von O2 Telecom zeigen, wie KI-basierte Bots und Deepfake-Echtzeit-Sprach-Chatbots eingesetzt werden können, um Desinformationskampagnen und Betrüger zu bekämpfen.

Um in diesem KI-gestützten Wettrüsten die Nase vorn zu behalten, sollten Unternehmen daher:

  • sowohl die Bedrohungs- als auch die KI-Landschaft im Blick behalten, um über die neuesten Entwicklungen auf beiden Seiten auf dem Laufenden zu bleiben.
  • Mitarbeiter regelmäßig zu den neuesten KI-getriebenen Bedrohungen schulen, einschließlich Deepfakes und KI-generiertem Phishing.
  • KI für die proaktive Cyberabwehr einsetzen, einschließlich Threat Intelligence und Incident Response.
  • ihre eigenen KI-Modelle kontinuierlich gegen Angriffe auf ihre Resilienz hin testen.

Fazit

Bislang ist noch jede neue Technologie am Ende auch von Kriminellen für ihre Zwecke missbraucht worden. Weder ist es ein Zufall, noch ist es besonders originell, wenn sie nun auch die Fähigkeiten von KI-Agenten für sich ausnutzen.

Sicherheitsteams müssen hier auf Augenhöhe agieren, um nicht in einen Nachteil zu geraten. Anstatt vorschnell das nächste KI-Sicherheitstool einzuführen, sollten Entscheidungsträger die KI-gestützte Verteidigungsfähigkeit sorgfältig prüfen. Ein überstürzter Einsatz von KI ohne strategische Risikobewertung könnte neue Schwachstellen schaffen. Aus diesem Grund ist ein überlegter, maßvoller Ansatz unerlässlich. Mitarbeiter müssen geschult und auf die Bedrohungslage reagieren können, jedoch genauso vertraut mit den Abwehrmechanismen. Technologie ist per se keine Bedrohung, sie ist es nur, wenn wir sie nicht verstehen.

(ID:50459829)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung