KI im SOC 6 Tipps für die Einführung von KI-Agenten

Quelle: Pressemitteilung 5 min Lesedauer

Anbieter zum Thema

Multi-Agenten-Systeme versprechen schnellere Reaktionen im Security Operations Center. Damit die KI-Agenten zuverlässig, sicher und daten­schutzkonform arbeiten, gibt Ontinue sechs Tipps für deren erfolgreiche Einführung.

Für den erfolgreichen Einsatz von Multi-Agenten-Systemen im SOC empfiehlt Ontinue eine Kombination aus klarer Orchestrierung, kontrollierter Skalierung, ausgewogener Autonomie, dem Umgang mit KI-Halluzinationen, konsequenter Systemsicherheit und hoher Interoperabilität.(Bild:  Jenar - stock.adobe.com)
Für den erfolgreichen Einsatz von Multi-Agenten-Systemen im SOC empfiehlt Ontinue eine Kombination aus klarer Orchestrierung, kontrollierter Skalierung, ausgewogener Autonomie, dem Umgang mit KI-Halluzinationen, konsequenter Systemsicherheit und hoher Interoperabilität.
(Bild: Jenar - stock.adobe.com)

Künstliche Intelligenz boomt seit einigen Jahren – auch in der Cybersicherheit. Mit Agentic AI ergeben sich nun neue Möglichkeiten Lösungen und Produkte. Ontinue, Anbieter von Managed Extended Detection and Response, weiß, dass KI auch im Security Operations Center (SOC) zu besseren Ergebnissen sowie einer Entlastung der Mitarbeitenden führen kann. Aufgrund der Geschwindigkeit, mit der Cyberattacken stattfinden, sowie der Komplexität der Angriffe, wür­den SOC-Teams daher zunehmend auf Multi-Agenten-Systeme (MAS) setzen. Die Imple­men­tierung von KI-Agenten gehört in vielen Unternehmen in den Aufgabenbereich der SecOps-Teams, da diese an der Schnittstelle zwischen Sicherheitsoperationen, Technologie­integration und Geschäftsrisikomanagement agieren. Damit die multiplen KI-Agenten effektiv und auto­nom auf das Ziel hinarbeiten, Bedrohungen schnell und korrekt zu erkennen, gibt Ontinue sechs Tipps für deren Einführung an die Hand.

Tipp 1: Orchestrierung

Für den reibungslosen Einsatz von Multi-Agenten-Systemen, müssen die zuständigen Teams die KI-Agenten nahtlos über sämtliche Systeme hinweg koordinieren. Dazu bedarf es klarer und robuster Kommunikationsprotokolle, die Datenstaus und Ressourcenprobleme verhindern. Darüber hinaus benötigen die KI-Agenten eine einheitliche Terminologie für die Verarbeitung von Informationen aus unterschiedlichsten Quellen wie dem SIEM (Security Incident and Event Management) oder EDR-Systemen (Endpoint Detection and Response).

Tipp 2: Skalierbarkeit

MAS bieten eine hohe Skalierbarkeit, was jedoch Ontinue zufolge zu unerwünschten Wechsel­wirkungen führen kann. Als Beispiel nennt Ontinue den „Agentendrift“, bei dem Agenten zwar lokale Ziele optimieren, aber aneinander vorbeiarbeiten. Beispielsweise isoliert ein Incident-Response-Agent ein System, während ein Threat-Hunting-Agent noch Beweise sammelt, was zu Datenverlust oder forensischen Schwachstellen führen könne. Ein weiteres Risiko sei die Überkommunikation. Wenn Agenten sich ständig und ohne Einschränkungen gegenseitig abfragen oder alarmieren, könne dies zu einer Informationsflut führen, die Analysten über­fordere oder sogar das System destabilisiere. Aus Sicherheitssicht könnten falsch konfigurierte Agenten zudem versehentlich sensible Informationen preisgeben, indem sie Daten an den falschen Peer weiterleiten oder normale Zugriffskontrollen umgehen. Daher sollten die Ent­wickler der Agenten-Systeme einige Vorkehrungen treffen, um Probleme zu vermeiden. Dazu gehören etwa dynamische Lastverteilung (Load Balancing), ein sinnvolles Zustands­manage­ment und die Nutzung von Orchestrierungs-Frameworks. Nur mit einem ausge­klü­gelten Systemdesign könne ein MAS auch bei wachsender Größe stabil bleiben.

Tipp 3: Autonomie ohne Kontrollverlust

Der große Vorteile von Multi-Agenten-Systemen ist deren Autonomie. Gerade die kann jedoch im Cybersecurity-Bereich auch Gefahren mit sich bringen. SecOps-Teams müssen daher die richtige Balance zwischen der Eigenständigkeit der verwendeten KI-Agenten und notwendiger Kontrollen finden, um Fehlerketten zu vermeiden. Wichtig ist es laut Ontinue, belastbare Ent­scheidungs-Frameworks, Logikvalidierungen und eine Sicherheitsmaßnahme nach dem „Hu­man-in-the-Loop“-Ansatz in das MAS zu implementieren. Das System sollte zudem feste Regeln vorgeben, wann ein KI-Agent autonom agieren darf und wann nicht.

Tipp 4: KI-Halluzinationen

Halluzinationen sind eine der größten Herausforderungen generativer KI-Anwendungen – und auch bei Multi-Agenten-Systemen. Für den Cybersecurity-Bereich bedeutet das, dass KI-Agen­ten möglicherweise harmlose Vorgänge als Bedrohungen einstufen können (False Positives) oder echte Angriffe als unbedenklich bewerten (False Negatives). Ursachen dafür können unvollständige Trainingsdaten, schlecht abgestimmte Modelle oder fehlerhafte Logikketten zwischen einzelnen Agenten sein. Um solche Halluzinationen zu verhindern, braucht es Ontinue zufolge sorgfältige Systemvalidierung und enge Feedback-Schleifen. Auch robuste Grounding-Techniken, also das Treffen von KI-Aussagen basierend auf echten Daten und Kontexten und nicht rein generativ, gehöre dazu. Im Idealfall sollten KI-Agenten gegenseitig ihre jeweiligen Schlussfolgerungen prüfen und im Zweifel die menschlichen SecOps-Spezia­listen benachrichtigen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Tipp 5: Systemsicherheit

Da KI-Agenten eine potenzielle Erweiterung der Angriffsfläche für Cyberkriminelle darstellen, müssen sie nicht nur das dahinterliegende System schützen, sondern auch selbst abgesichert werden. Maßnahmen dafür umfassen unter anderem die Verschlüsselung der Kommunikation zwischen den Agenten, strikte Zugriffskontrollen sowie das Audit-Logging auf Agentenebene. Darüber hinaus müssen SecOps-Teams ihr Multi-Agenten-System nach dem Privacy-by-De­sign-Ansatz entwickeln. Das bedeutet, dass Datenschutzprinzipien von Anfang an in die Architektur und Arbeitsabläufe integriert werden sollten, anstatt sie später hinzuzufügen. Wenn beispielsweise KI-Agenten im Rahmen von Ermittlungen Informationen austauschen, müssen SecOps-Teams sicherstellen, dass nur die unbedingt notwendigen Daten ausgetauscht werden und sensible Kennungen anonymisiert oder tokenisiert werden.

Agenten sollten zudem mit dem „Least Privilege“-Zugriff ausgestattet werden und alle Inter­aktionen sollten verschlüs­selt und zur Nachvollziehbarkeit protokolliert werden. Privacy-by-Design bedeutet Ontinue zufolge auch, Missbrauch vorzubeugen. Kompromittiert ein Angreifer einen Agenten, sollte dessen Fähigkeit, Daten zu exfiltrieren oder zu missbrauchen, einge­schränkt werden. Letztlich bringe dieser Ansatz SecOps-Teams dazu, nicht nur über die Leistung nachzudenken, sondern auch darüber, wie sich jede Designentscheidung auf die Vertraulichkeit und Integrität von Informationen auswirke. Dazu entspreche der Ansatz auch regulatorischen Erwartungen wie der DSGVO, reduziere gleichzeitig das Insider-Risiko und stelle sicher, dass Agenten das Vertrauen von Sicherheitsteams und Geschäftspartnern gewinnen.

Tipp 6: Interoperabilität

Da Technologie-Stacks im Cybersecurity-Bereich oft fragmentiert sind, müssen KI-Agenten mit einer Vielzahl von Plattformen interoperabel und in der Lage sein, Daten in Echtzeit zu über­set­zen und zu normalisieren. Zudem sind modulare, erweiterbare Frameworks notwendig, die das Hinzufügen neuer KI-Agenten oder Konnektoren ermöglichen, ohne das Gesamtsystem zu stören. Somit erfordert die Implementierung sicherer, datenschutzkonformer und effektiver Multi-Agenten-Systeme in SecOps eine Kombination aus technischen Kontrollen, Governance und kultureller Bereitschaft. Technisch bedeutet dies die Integration von Agenten in beste­hen­de Sicherheitsorchestrierungsplattformen mit APIs und Zugriffskontrollen, die klare Grenzen definieren. Jeder Agent sollte über rollenspezifische Playbooks, in die Kommunikation inte­grierte Verschlüsselung und obligatorische Audit-Logs verfügen, die in SIEM-/SOAR-Systeme eingespeist werden. Aus Governance-Sicht müssen SecOps-Leiter laut Ontinue Richt­linien festlegen, die bestimmen, wo Agenten autonom agieren können und wo eine menschliche Freigabe erforderlich ist.

Zudem sollten Unternehmen IT-Analysten für die Zusammenarbeit mit KI-Agenten schulen, deren Empfehlungen kritisch prüfen und Arbeitsabläufe iterativ verfeinern. Die Pilotierung der Agenten in Anwendungsfällen mit begrenztem Anwendungsbereich – wie Phishing-Triage oder Malware-Klassifizierung – vor der Skalierung im gesamten SOC trägt zum Risikomanagement bei und stärkt gleichzeitig das Vertrauen. In der Praxis sei eine hybriden Belegschaft ein Erfolg, bei der sich menschliche Analysten auf Strategie und Urteilsvermögen konzentrieren, während Agenten für Skalierung und Geschwindigkeit sorgen.

(ID:50537974)