KI-Verbote funktionieren nicht Shadow Agentic AI ist ein blinder Fleck für CISOs

Ein Gastbeitrag von Andy Grolnick 4 min Lesedauer

Anbieter zum Thema

Mitarbeiter nutzen zunehmend KI-Agenten, die autonom handeln, Daten verschieben und Entscheidungen treffen, oft ohne Wissen der IT-Abteilung. Laut IBM fehlen 63 Prozent der Unternehmen Richtlinien zur KI-Governance. Verbote treiben das Problem nur in den Untergrund. CISOs brauchen Transparenz statt Mauern.

Shadow Agentic AI ist ein blinder Fleck für CISOs. Autonome KI-Agenten handeln oft ohne Wissen der IT-Abteilung und ohne Governance-Richtlinien.(Bild: ©  Calado - stock.adobe.com)
Shadow Agentic AI ist ein blinder Fleck für CISOs. Autonome KI-Agenten handeln oft ohne Wissen der IT-Abteilung und ohne Governance-Richtlinien.
(Bild: © Calado - stock.adobe.com)

Die Idee, schnell zu handeln, war schon immer mit Risiken verbunden. Im Zeitalter generativer und agentenbasierter künstlicher Intelligenz (KI) ist diese Denkweise zu einem erheblichen Sicherheitsrisiko geworden. In allen Branchen experimentieren Mitarbeiter, die schnellere Ergebnisse erzielen wollen, mit KI-Tools, die weit außerhalb der IT- und Si­cher­heits­über­wa­chung liegen.

Ein Bericht von RiverSafe aus dem Jahr 2024 ergab, dass jedes fünfte britische Unternehmen durch die unbefugte Nutzung von KI potenziell Datenrisiken ausgesetzt war. Was als ge­le­gent­lich­es Experimentieren mit Chatbots begann, hat sich zu einer unkontrollierten, groß angelegten Bedrohung entwickelt.

Von Schatten-IT zu Schatten-KI

Anfang der 2010er Jahre kam es zum Phänomen der „Schatten-IT“, als Mitarbeiter ohne formelle Genehmigung neue Cloud-Tools einsetzten. Heute hat sich das Problem weiterentwickelt. „Shadow AI“ beschreibt jeden KI-Dienst, der ohne Genehmigung der IT- oder Sicherheitsteams genutzt wird.

„Agentic KI“ geht noch einen Schritt weiter. Diese Tools sind nicht nur Gesprächsassistenten, sondern autonome Systeme, die in der Lage sind, mehrstufige Aktionen über verbundene Anwendungen hinweg auszuführen. Sie können Daten ohne kontinuierliche menschliche Aufsicht abrufen, verschieben oder generieren.

Ein Entwickler, der einen Ausschnitt aus proprietärem Code in ein öffentliches LLM kopiert, mag harmlos erscheinen, aber dieser Moment kann zu einer dauerhaften Gefährdung des geistigen Eigentums führen. Laut dem Bericht „2025 Cost of a Data Breach Report“ von IBM fehlen 63 Prozent der Unternehmen Richtlinien zur KI-Governance. Das Fehlen dieser Richtlinien ermöglicht die unkontrollierte Verbreitung nicht genehmigter KI-Tools.

Wie Shadow Agentic AI Risiken verstärkt

Agentic AI fungiert als digitale Identität mit Berechtigungen, die oft über die eines menschlichen Benutzers hinausgehen. Wenn diese Berechtigungen unkontrolliert sind, vervielfachen sich die Auswirkungen schnell.

Zu den wichtigsten Bedrohungsmustern gehören:

  • Daten- und IP-Lecks: In öffentliche LLMs eingegebene proprietäre Daten können in externen Systemen wieder auftauchen oder zum Trainieren von Konkurrenzmodellen verwendet werden.
  • Prompt-Injection und Informationslecks: Böswillige Prompts können verbundene Agenten manipulieren, um im Laufe der Zeit Kunden- oder Unternehmensdaten offenzulegen.
  • Agent-Hijacking und Privilegieneskalation: Wenn ein Agent kompromittiert ist, kann er autonom schädliche Aktionen ausführen, die für herkömmliche Überwachungsmaßnahmen unsichtbar bleiben.

Diese Bedrohungen unterscheiden sich von bekannten externen Angriffen. Sie stammen aus dem Inneren – von Systemen, die im Namen legitimer Benutzer agieren, aber nicht über die erforderlichen Sicherheitsvorkehrungen oder Überprüfungsmöglichkeiten verfügen.

Viele Unternehmen haben darauf mit einem vollständigen Verbot von KI-Tools reagiert. Dieser Ansatz funktioniert jedoch selten. Der Produktivitätsdruck wird die Mitarbeiter weiter zu effizienteren Optionen treiben. Ein Verbot verschiebt das Problem lediglich in den Untergrund.

Eine Governance-Strategie für die Transparenz und Kontrolle von KI

Eindämmung erfordert Transparenz, nicht Verbote. Sicherheitsverantwortliche benötigen ein Governance-Framework, das Innovation und Schutz in Einklang bringt.

  • 1. Legen Sie klare Richtlinien für die Nutzung von KI fest.
    Veröffentlichen Sie explizite Regeln dazu, welche Arten von Daten mit KI-Systemen geteilt werden dürfen und welche nicht. Verlangen Sie die Registrierung aller KI-Tools und -Agenten, die teamübergreifend eingesetzt werden. Führen Sie ein Inventar, um den Datenfluss zwischen Anwendungen zu verfolgen.
  • 2. Setzen Sie KI-spezifische Sicherheitskontrollen durch.
    Da die meisten Agenten über APIs kommunizieren, ist die Überwachung von API-Transaktionen unerlässlich. Verwenden Sie Protokollierungs- und Analyseplattformen wie Graylog, um ungewöhnliche Verhaltensweisen zu identifizieren, geringfügige Datenexfiltrationen zu erkennen und Aktionen zwischen Agenten zu korrelieren.
  • 3. Stellen Sie genehmigte Umgebungen für sichere Experimente bereit.
    Sicherheit sollte den Fortschritt ermöglichen, nicht behindern. Bieten Sie kontrollierte Sandboxes oder interne Frameworks an, in denen Teams KI-gesteuerte Workflows sicher testen können. Wenden Sie für jeden eingesetzten Agenten das Prinzip der geringsten Privilegien an und beschränken Sie, was er anzeigen oder ändern kann.

Aufbau einer sicheren Zukunft für KI-Operationen

Shadow Agentic AI stellt sowohl eine Herausforderung für die Sicherheit als auch ein Zeichen für ungedeckten Geschäftsbedarf dar. Mitarbeiter suchen nach Tools, die Erkenntnisse und Entscheidungsfindung beschleunigen. Sicherheitsteams müssen dieser Nachfrage mit Leitplanken statt Mauern begegnen.

Mit der Formalisierung des KI-Einsatzes in Unternehmen tauchen neue operative Fragen auf: Wie sollten Agenten authentifiziert werden? Wie können ihre Berechtigungen in Echtzeit überwacht werden? Welche Mechanismen gewährleisten die Trennung der Aufgaben zwischen menschlichen Benutzern und autonomen Systemen?

Die nächste Generation von Sicherheitsmaßnahmen wird wahrscheinlich defensive KI-Agenten umfassen, die kompromittierte Peers mit Maschinengeschwindigkeit erkennen und neutralisieren sollen.

Shadow Agentic AI ist kein weiterer „Shadow IT”-Trend

Es markiert einen grundlegenden Wandel in der Art und Weise, wie Systeme innerhalb von Unternehmensumgebungen interagieren, Informationen austauschen und autonom handeln. Sicherheitsverantwortliche müssen von reaktiver Überwachung zu proaktiver Governance übergehen, die auf Echtzeit-Transparenz, Zuordnung und Kontrolle basiert.

Durch die Integration von kontinuierlicher API-Überwachung, richtliniengesteuerter Governance und sicheren Innovationsframeworks können CISOs Shadow AI von einer Risikoquelle in ein verwaltetes Asset verwandeln, das unter dem wachsamen Auge der Sicherheit einen Mehrwert liefert.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Über den Autor: Andy Grolnick ist CEO vom SIEM-Sicherheitsanbieter Graylog. Er verfügt über mehr als dreißig Jahre Erfahrung im Aufbau und in der Führung wachstumsstarker Technologieunternehmen in den Bereichen Unternehmenssoftware, Sicherheit und Storage. Sein Fokus hochwertige Produkte bereitzustellen sowie den Kundenerfolg und eine starke Unternehmenskultur zu fördern sind sein Erfolgsrezept.

(ID:50815747)