Mitarbeiter nutzen zunehmend KI-Agenten, die autonom handeln, Daten verschieben und Entscheidungen treffen, oft ohne Wissen der IT-Abteilung. Laut IBM fehlen 63 Prozent der Unternehmen Richtlinien zur KI-Governance. Verbote treiben das Problem nur in den Untergrund. CISOs brauchen Transparenz statt Mauern.
Shadow Agentic AI ist ein blinder Fleck für CISOs. Autonome KI-Agenten handeln oft ohne Wissen der IT-Abteilung und ohne Governance-Richtlinien.
Die Idee, schnell zu handeln, war schon immer mit Risiken verbunden. Im Zeitalter generativer und agentenbasierter künstlicher Intelligenz (KI) ist diese Denkweise zu einem erheblichen Sicherheitsrisiko geworden. In allen Branchen experimentieren Mitarbeiter, die schnellere Ergebnisse erzielen wollen, mit KI-Tools, die weit außerhalb der IT- und Sicherheitsüberwachung liegen.
Ein Bericht von RiverSafe aus dem Jahr 2024 ergab, dass jedes fünfte britische Unternehmen durch die unbefugte Nutzung von KI potenziell Datenrisiken ausgesetzt war. Was als gelegentliches Experimentieren mit Chatbots begann, hat sich zu einer unkontrollierten, groß angelegten Bedrohung entwickelt.
Anfang der 2010er Jahre kam es zum Phänomen der „Schatten-IT“, als Mitarbeiter ohne formelle Genehmigung neue Cloud-Tools einsetzten. Heute hat sich das Problem weiterentwickelt. „Shadow AI“ beschreibt jeden KI-Dienst, der ohne Genehmigung der IT- oder Sicherheitsteams genutzt wird.
„Agentic KI“ geht noch einen Schritt weiter. Diese Tools sind nicht nur Gesprächsassistenten, sondern autonome Systeme, die in der Lage sind, mehrstufige Aktionen über verbundene Anwendungen hinweg auszuführen. Sie können Daten ohne kontinuierliche menschliche Aufsicht abrufen, verschieben oder generieren.
Ein Entwickler, der einen Ausschnitt aus proprietärem Code in ein öffentliches LLM kopiert, mag harmlos erscheinen, aber dieser Moment kann zu einer dauerhaften Gefährdung des geistigen Eigentums führen. Laut dem Bericht „2025 Cost of a Data Breach Report“ von IBM fehlen 63 Prozent der Unternehmen Richtlinien zur KI-Governance. Das Fehlen dieser Richtlinien ermöglicht die unkontrollierte Verbreitung nicht genehmigter KI-Tools.
Agentic AI fungiert als digitale Identität mit Berechtigungen, die oft über die eines menschlichen Benutzers hinausgehen. Wenn diese Berechtigungen unkontrolliert sind, vervielfachen sich die Auswirkungen schnell.
Zu den wichtigsten Bedrohungsmustern gehören:
Daten- und IP-Lecks: In öffentliche LLMs eingegebene proprietäre Daten können in externen Systemen wieder auftauchen oder zum Trainieren von Konkurrenzmodellen verwendet werden.
Prompt-Injection und Informationslecks: Böswillige Prompts können verbundene Agenten manipulieren, um im Laufe der Zeit Kunden- oder Unternehmensdaten offenzulegen.
Agent-Hijacking und Privilegieneskalation: Wenn ein Agent kompromittiert ist, kann er autonom schädliche Aktionen ausführen, die für herkömmliche Überwachungsmaßnahmen unsichtbar bleiben.
Diese Bedrohungen unterscheiden sich von bekannten externen Angriffen. Sie stammen aus dem Inneren – von Systemen, die im Namen legitimer Benutzer agieren, aber nicht über die erforderlichen Sicherheitsvorkehrungen oder Überprüfungsmöglichkeiten verfügen.
Viele Unternehmen haben darauf mit einem vollständigen Verbot von KI-Tools reagiert. Dieser Ansatz funktioniert jedoch selten. Der Produktivitätsdruck wird die Mitarbeiter weiter zu effizienteren Optionen treiben. Ein Verbot verschiebt das Problem lediglich in den Untergrund.
Eine Governance-Strategie für die Transparenz und Kontrolle von KI
Eindämmung erfordert Transparenz, nicht Verbote. Sicherheitsverantwortliche benötigen ein Governance-Framework, das Innovation und Schutz in Einklang bringt.
1. Legen Sie klare Richtlinien für die Nutzung von KI fest. Veröffentlichen Sie explizite Regeln dazu, welche Arten von Daten mit KI-Systemen geteilt werden dürfen und welche nicht. Verlangen Sie die Registrierung aller KI-Tools und -Agenten, die teamübergreifend eingesetzt werden. Führen Sie ein Inventar, um den Datenfluss zwischen Anwendungen zu verfolgen.
2. Setzen Sie KI-spezifische Sicherheitskontrollen durch. Da die meisten Agenten über APIs kommunizieren, ist die Überwachung von API-Transaktionen unerlässlich. Verwenden Sie Protokollierungs- und Analyseplattformen wie Graylog, um ungewöhnliche Verhaltensweisen zu identifizieren, geringfügige Datenexfiltrationen zu erkennen und Aktionen zwischen Agenten zu korrelieren.
3. Stellen Sie genehmigte Umgebungen für sichere Experimente bereit. Sicherheit sollte den Fortschritt ermöglichen, nicht behindern. Bieten Sie kontrollierte Sandboxes oder interne Frameworks an, in denen Teams KI-gesteuerte Workflows sicher testen können. Wenden Sie für jeden eingesetzten Agenten das Prinzip der geringsten Privilegien an und beschränken Sie, was er anzeigen oder ändern kann.
Shadow Agentic AI stellt sowohl eine Herausforderung für die Sicherheit als auch ein Zeichen für ungedeckten Geschäftsbedarf dar. Mitarbeiter suchen nach Tools, die Erkenntnisse und Entscheidungsfindung beschleunigen. Sicherheitsteams müssen dieser Nachfrage mit Leitplanken statt Mauern begegnen.
Mit der Formalisierung des KI-Einsatzes in Unternehmen tauchen neue operative Fragen auf: Wie sollten Agenten authentifiziert werden? Wie können ihre Berechtigungen in Echtzeit überwacht werden? Welche Mechanismen gewährleisten die Trennung der Aufgaben zwischen menschlichen Benutzern und autonomen Systemen?
Die nächste Generation von Sicherheitsmaßnahmen wird wahrscheinlich defensive KI-Agenten umfassen, die kompromittierte Peers mit Maschinengeschwindigkeit erkennen und neutralisieren sollen.
Shadow Agentic AI ist kein weiterer „Shadow IT”-Trend
Es markiert einen grundlegenden Wandel in der Art und Weise, wie Systeme innerhalb von Unternehmensumgebungen interagieren, Informationen austauschen und autonom handeln. Sicherheitsverantwortliche müssen von reaktiver Überwachung zu proaktiver Governance übergehen, die auf Echtzeit-Transparenz, Zuordnung und Kontrolle basiert.
Durch die Integration von kontinuierlicher API-Überwachung, richtliniengesteuerter Governance und sicheren Innovationsframeworks können CISOs Shadow AI von einer Risikoquelle in ein verwaltetes Asset verwandeln, das unter dem wachsamen Auge der Sicherheit einen Mehrwert liefert.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Über den Autor: Andy Grolnick ist CEO vom SIEM-Sicherheitsanbieter Graylog. Er verfügt über mehr als dreißig Jahre Erfahrung im Aufbau und in der Führung wachstumsstarker Technologieunternehmen in den Bereichen Unternehmenssoftware, Sicherheit und Storage. Sein Fokus hochwertige Produkte bereitzustellen sowie den Kundenerfolg und eine starke Unternehmenskultur zu fördern sind sein Erfolgsrezept.