Multi-Agenten-Systeme versprechen schnellere Reaktionen im Security Operations Center. Damit die KI-Agenten zuverlässig, sicher und datenschutzkonform arbeiten, gibt Ontinue sechs Tipps für deren erfolgreiche Einführung.
Für den erfolgreichen Einsatz von Multi-Agenten-Systemen im SOC empfiehlt Ontinue eine Kombination aus klarer Orchestrierung, kontrollierter Skalierung, ausgewogener Autonomie, dem Umgang mit KI-Halluzinationen, konsequenter Systemsicherheit und hoher Interoperabilität.
(Bild: Jenar - stock.adobe.com)
Künstliche Intelligenz boomt seit einigen Jahren – auch in der Cybersicherheit. Mit Agentic AI ergeben sich nun neue Möglichkeiten Lösungen und Produkte. Ontinue, Anbieter von Managed Extended Detection and Response, weiß, dass KI auch im Security Operations Center (SOC) zu besseren Ergebnissen sowie einer Entlastung der Mitarbeitenden führen kann. Aufgrund der Geschwindigkeit, mit der Cyberattacken stattfinden, sowie der Komplexität der Angriffe, würden SOC-Teams daher zunehmend auf Multi-Agenten-Systeme (MAS) setzen. Die Implementierung von KI-Agenten gehört in vielen Unternehmen in den Aufgabenbereich der SecOps-Teams, da diese an der Schnittstelle zwischen Sicherheitsoperationen, Technologieintegration und Geschäftsrisikomanagement agieren. Damit die multiplen KI-Agenten effektiv und autonom auf das Ziel hinarbeiten, Bedrohungen schnell und korrekt zu erkennen, gibt Ontinue sechs Tipps für deren Einführung an die Hand.
Für den reibungslosen Einsatz von Multi-Agenten-Systemen, müssen die zuständigen Teams die KI-Agenten nahtlos über sämtliche Systeme hinweg koordinieren. Dazu bedarf es klarer und robuster Kommunikationsprotokolle, die Datenstaus und Ressourcenprobleme verhindern. Darüber hinaus benötigen die KI-Agenten eine einheitliche Terminologie für die Verarbeitung von Informationen aus unterschiedlichsten Quellen wie dem SIEM (Security Incident and Event Management) oder EDR-Systemen (Endpoint Detection and Response).
MAS bieten eine hohe Skalierbarkeit, was jedoch Ontinue zufolge zu unerwünschten Wechselwirkungen führen kann. Als Beispiel nennt Ontinue den „Agentendrift“, bei dem Agenten zwar lokale Ziele optimieren, aber aneinander vorbeiarbeiten. Beispielsweise isoliert ein Incident-Response-Agent ein System, während ein Threat-Hunting-Agent noch Beweise sammelt, was zu Datenverlust oder forensischen Schwachstellen führen könne. Ein weiteres Risiko sei die Überkommunikation. Wenn Agenten sich ständig und ohne Einschränkungen gegenseitig abfragen oder alarmieren, könne dies zu einer Informationsflut führen, die Analysten überfordere oder sogar das System destabilisiere. Aus Sicherheitssicht könnten falsch konfigurierte Agenten zudem versehentlich sensible Informationen preisgeben, indem sie Daten an den falschen Peer weiterleiten oder normale Zugriffskontrollen umgehen. Daher sollten die Entwickler der Agenten-Systeme einige Vorkehrungen treffen, um Probleme zu vermeiden. Dazu gehören etwa dynamische Lastverteilung (Load Balancing), ein sinnvolles Zustandsmanagement und die Nutzung von Orchestrierungs-Frameworks. Nur mit einem ausgeklügelten Systemdesign könne ein MAS auch bei wachsender Größe stabil bleiben.
Der große Vorteile von Multi-Agenten-Systemen ist deren Autonomie. Gerade die kann jedoch im Cybersecurity-Bereich auch Gefahren mit sich bringen. SecOps-Teams müssen daher die richtige Balance zwischen der Eigenständigkeit der verwendeten KI-Agenten und notwendiger Kontrollen finden, um Fehlerketten zu vermeiden. Wichtig ist es laut Ontinue, belastbare Entscheidungs-Frameworks, Logikvalidierungen und eine Sicherheitsmaßnahme nach dem „Human-in-the-Loop“-Ansatz in das MAS zu implementieren. Das System sollte zudem feste Regeln vorgeben, wann ein KI-Agent autonom agieren darf und wann nicht.
Halluzinationen sind eine der größten Herausforderungen generativer KI-Anwendungen – und auch bei Multi-Agenten-Systemen. Für den Cybersecurity-Bereich bedeutet das, dass KI-Agenten möglicherweise harmlose Vorgänge als Bedrohungen einstufen können (False Positives) oder echte Angriffe als unbedenklich bewerten (False Negatives). Ursachen dafür können unvollständige Trainingsdaten, schlecht abgestimmte Modelle oder fehlerhafte Logikketten zwischen einzelnen Agenten sein. Um solche Halluzinationen zu verhindern, braucht es Ontinue zufolge sorgfältige Systemvalidierung und enge Feedback-Schleifen. Auch robuste Grounding-Techniken, also das Treffen von KI-Aussagen basierend auf echten Daten und Kontexten und nicht rein generativ, gehöre dazu. Im Idealfall sollten KI-Agenten gegenseitig ihre jeweiligen Schlussfolgerungen prüfen und im Zweifel die menschlichen SecOps-Spezialisten benachrichtigen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Da KI-Agenten eine potenzielle Erweiterung der Angriffsfläche für Cyberkriminelle darstellen, müssen sie nicht nur das dahinterliegende System schützen, sondern auch selbst abgesichert werden. Maßnahmen dafür umfassen unter anderem die Verschlüsselung der Kommunikation zwischen den Agenten, strikte Zugriffskontrollen sowie das Audit-Logging auf Agentenebene. Darüber hinaus müssen SecOps-Teams ihr Multi-Agenten-System nach dem Privacy-by-Design-Ansatz entwickeln. Das bedeutet, dass Datenschutzprinzipien von Anfang an in die Architektur und Arbeitsabläufe integriert werden sollten, anstatt sie später hinzuzufügen. Wenn beispielsweise KI-Agenten im Rahmen von Ermittlungen Informationen austauschen, müssen SecOps-Teams sicherstellen, dass nur die unbedingt notwendigen Daten ausgetauscht werden und sensible Kennungen anonymisiert oder tokenisiert werden.
Agenten sollten zudem mit dem „Least Privilege“-Zugriff ausgestattet werden und alle Interaktionen sollten verschlüsselt und zur Nachvollziehbarkeit protokolliert werden. Privacy-by-Design bedeutet Ontinue zufolge auch, Missbrauch vorzubeugen. Kompromittiert ein Angreifer einen Agenten, sollte dessen Fähigkeit, Daten zu exfiltrieren oder zu missbrauchen, eingeschränkt werden. Letztlich bringe dieser Ansatz SecOps-Teams dazu, nicht nur über die Leistung nachzudenken, sondern auch darüber, wie sich jede Designentscheidung auf die Vertraulichkeit und Integrität von Informationen auswirke. Dazu entspreche der Ansatz auch regulatorischen Erwartungen wie der DSGVO, reduziere gleichzeitig das Insider-Risiko und stelle sicher, dass Agenten das Vertrauen von Sicherheitsteams und Geschäftspartnern gewinnen.
Da Technologie-Stacks im Cybersecurity-Bereich oft fragmentiert sind, müssen KI-Agenten mit einer Vielzahl von Plattformen interoperabel und in der Lage sein, Daten in Echtzeit zu übersetzen und zu normalisieren. Zudem sind modulare, erweiterbare Frameworks notwendig, die das Hinzufügen neuer KI-Agenten oder Konnektoren ermöglichen, ohne das Gesamtsystem zu stören. Somit erfordert die Implementierung sicherer, datenschutzkonformer und effektiver Multi-Agenten-Systeme in SecOps eine Kombination aus technischen Kontrollen, Governance und kultureller Bereitschaft. Technisch bedeutet dies die Integration von Agenten in bestehende Sicherheitsorchestrierungsplattformen mit APIs und Zugriffskontrollen, die klare Grenzen definieren. Jeder Agent sollte über rollenspezifische Playbooks, in die Kommunikation integrierte Verschlüsselung und obligatorische Audit-Logs verfügen, die in SIEM-/SOAR-Systeme eingespeist werden. Aus Governance-Sicht müssen SecOps-Leiter laut Ontinue Richtlinien festlegen, die bestimmen, wo Agenten autonom agieren können und wo eine menschliche Freigabe erforderlich ist.
Zudem sollten Unternehmen IT-Analysten für die Zusammenarbeit mit KI-Agenten schulen, deren Empfehlungen kritisch prüfen und Arbeitsabläufe iterativ verfeinern. Die Pilotierung der Agenten in Anwendungsfällen mit begrenztem Anwendungsbereich – wie Phishing-Triage oder Malware-Klassifizierung – vor der Skalierung im gesamten SOC trägt zum Risikomanagement bei und stärkt gleichzeitig das Vertrauen. In der Praxis sei eine hybriden Belegschaft ein Erfolg, bei der sich menschliche Analysten auf Strategie und Urteilsvermögen konzentrieren, während Agenten für Skalierung und Geschwindigkeit sorgen.