Die Sicherheitsrisiken durch KI-Agenten sind ähnlich hoch wie deren Potenziale. Längst versuchen Angreifer, Schwachstellen zu finden, sie zu nutzen und Daten oder Geld abzugreifen. Sicherheitsverantwortliche stehen vor drei zentralen Herausforderungen, die jedoch alle eine Lösung haben.
Manipulierte Trainings- und Eingabedaten gehören zu den zentralen Angriffsflächen agentischer Künstlicher Intelligenz: Data Poisoning und Prompt Injection setzen dort an, wo KI Entscheidungen ableitet und Aktionen auslöst.
KI-Agenten übernehmen zunehmend kritische Aufgaben – von der Berichtserstellung bis hin zum E-Mail-Versand an Kunden – und bringen damit neue Schwachstellen für Unternehmen mit sich. Gartner prognostiziert, dass bis Ende 2026 bereits 40 Prozent der Unternehmensanwendungen aufgabenspezifische KI-Agenten integrieren werden. Aktuell nutzen bereits 87 Prozent der Organisationen KI-Agenten in irgendeiner Form, davon setzen 41 Prozent auf fortgeschrittene, vollständig autonome Abläufe, die zu deutlich höheren Produktivitätsgewinnen führen. Vor diesem Hintergrund ist es entscheidend, dass Unternehmen die drei dringendsten Sicherheitsrisiken angehen, bevor sie den Einsatz von KI-Agenten unternehmensweit ausweiten.
Neue Spielregeln für Unternehmen
Die große Hoffnung ist, dass KI möglichst viele Aufgaben übernimmt, im Idealfall sogar völlig autonom und dass wir dadurch alle produktiver werden. Unternehmen sämtlicher Branchen sind hierbei unterschiedlich weit fortgeschritten, doch so gut wie jeder beschäftigt sich mit diesem Thema. Doch weil dem alten Spruch nach Chance und Risiko immer Hand in Hand gehen, kommt mit großer KI-Autonomie auch große Verantwortung einher. Je mehr Unternehmen KI-Agenten für sich arbeiten lassen, umso mehr müssen sie sich auch um deren Sicherheit kümmern.
Wer heute als CISO (Chief Information Security Officer) in einem Unternehmen Verantwortung trägt, muss im Hinblick auf Agenten diverse neue Risiken bedenken, die automatisch mit dem Einsatz dieser Agenten einhergehen. Wenn Daten das Gold von heute sind und KI mit Daten arbeitet, dann werden neben Goldschürfern auch kriminelle Akteure hellhörig. Vor allem drei Punkte ragen bei der Reihe an Sicherheitsrisiken durch KI heraus.
Eines der größten Sicherheitsrisiken bei der Nutzung von agentischer KI ist das Potenzial für das Offenlegen sensibler Inhalte. Im Gegensatz zu Menschen fehlt KI-Agenten die Diskretion. Sie geben alle Informationen weiter, die ihnen zugeführt wurden, selbst wenn diese versehentlich bereitgestellt wurden. Jedes Unternehmen, das mit Finanzdaten, Kundendaten oder sogar Gesundheitsdaten arbeitet, steht damit vor einer enormen Herausforderung. Gelangen diese an Unbefugte, droht ein Alptraum.
Zu den wichtigsten Sicherheitsmaßnahmen gehört das Prinzip der geringsten Privilegien bei Zugriffsrechten. Eine KI-Plattform sollte sicherstellen, dass Agenten ausschließlich auf Daten zugreifen können, für die sie tatsächlich autorisiert sind – und dafür regelmäßig die entsprechenden Berechtigungen prüfen. Entscheidend ist eine sichere RAG-Architektur (Retrieval-Augmented Generation), bei der sowohl Nutzer- als auch Agentenzugriffe sowie die Nutzung von KI-Funktionen strengen Berechtigungskontrollen unterliegen. Ohne solche Schutzmechanismen riskieren CISOs gravierende Datenlecks, die das Vertrauen der Kunden und die Einhaltung von Compliance-Vorgaben gefährden könnten.
Sicherheitsherausforderung 2: KI handelt unvorhersehbar
KI verhält sich anders als klassische Software. Dass sie nicht streng nach einem „Wenn A, dann B“-Schema handelt, ist ihr ureigenes Prinzip und kein Bug, sondern ein Feature. Dass KI auf dieselbe Eingabe mit unterschiedlichen Antworten reagieren kann, bringt durch eben diese Unvorhersehbarkeit leider aber auch Risiken. Das kann vom Offenlegen sensibler Informationen bis hin zum versehentlichen Löschen von Daten gehen.
Sicherheitsverantwortliche müssen sicherstellen, dass KI-Agenten nicht unrechtmäßig handeln. Trotz aller Automatisierung bleibt die beste Lösung, eine Ebene menschlicher Aufsicht einzubinden. Ein „Human in the Loop“-Ansatz sorgt dafür, dass Entscheidungen nicht vollständig autonom von den Agenten getroffen werden. Diese Aufsicht sollte durch robuste Tools und Sicherheitsvorkehrungen ergänzt werden, die kritische Aktionen der KI verhindern oder zumindest warnen und eine Freigabe erfordern. Durch diesen Freigabe-Layer lässt sich die Anzahl potenzieller Probleme deutlich reduzieren, die durch autonomes KI-Handeln aufgrund fehlerhafter Logik oder unvorhergesehener Situationen entstehen könnten.
Sicherheitsherausforderung 3: Angreifer verdrehen der KI den Kopf
Schon bei Menschen gilt, dass ihre Intelligenz zur Ursache für den eigenen Fall werden kann. Dieses Prinzip lässt sich insofern auf KI-Agenten übertragen, als dass auch hier eben jene Befähigung zur Intelligenz eine Chance für Angreifer ist. Das Stichwort lautet Manipulation.
Seit es das Internet gibt, haben Privatleute wie auch Unternehmen mit Phishing-Versuchen zu tun. Manchmal sind diese platt, andere sind maximal ausgefeilt und brandgefährlich. Sie alle finden aber regelmäßig ihre Opfer. Und genauso wie Menschen, ist auch KI anfällig für Strategien, die ihre Logiksysteme zu täuschen wollen, um unerwünschte Handlungen hervorzubringen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Taktiken wie „Prompt Injection“ oder „Data Poisoning“ liefern KI-Agenten absichtlich irreführende Eingaben, um diese zu manipulieren. Meist zielt solche Täuschung auf sensible Daten ab, aber auch das Umgehen von Schutzvorkehrungen oder das Überweisen unbefugter Zahlungen können beispielsweise Ziel der Angreifer sein. Den bisherigen Erfahrungen nach sind so gut wie alle KI-Modelle dafür anfällig, durch bestimmte Prompts unerwünschte Ergebnisse zu liefern. Neben den genannten Szenarien sind wir alle wohl schon auf Berichte gestoßen, in denen KI zum Lügner wird, das Urheberrecht verletzt oder lebensgefährliche Ratschläge bei Mental Health Problemen gibt.
Unternehmen müssen sich also davor schützen, dass Angreifer gefährliche Prompts in das System einschleusen. Deshalb ist auch hier wieder eine menschliche Kontrollinstanz erforderlich Sicherheitsteams müssen die Interaktionen der Agenten aktiv überwachen und schädliche Dateneingaben filtern. Sie müssen sicherstellen, dass die KI sich ordnungsgemäß an die Berechtigungen und Autorisierung der einzelnen Benutzer hält und nicht plötzlich darüber hinaus handelt.
Ein Sicherheits-Gesetzbuch für die KI
Auch wenn KI-Agenten wie in diesen drei Beispielen ein neuer Risikofaktor sind, ist die gute Nachricht also, dass auch dieses Problem Lösungen hat. Menschen geben sich Gesetze, damit ihre Gesellschaft wie gewünscht funktioniert. Und wenn wir nun häufig davon sprechen, dass KI „wie ein zusätzliches Team-Mitglied“ agieren wird, dann braucht auch sie einen klaren Kontrollrahmen.
Bei aller Automatisierung bleibt der Faktor Mensch wichtig. Menschliche Aufsicht muss ein Teil der Workflows bleiben, um kritische Entscheidungen zu überprüfen oder selbst zu treffen. Sorgfältige Zugangsberechtigungen und Autorisierungsstufen – sowohl für KI-Agenten als auch die Nutzer – werden für Unternehmen wichtiger denn je. Und bei beiden müssen Sicherheits-Teams dafür sorgen, dass sie diese Zugriffsregeln respektieren. Ein umfangreiches Zugriffs-Management mit integrierten Sicherheitsfunktionen ist daher Pflicht. Nicht zuletzt muss über den Zugriff auf Inhalte hinaus ebenso klar definiert sein, welche Handlungen KI durchführen darf und welche Tools sie benutzen darf. Es gilt, die Gefahr von unerwünschten Aktionen so weit wie möglich zu minimieren.
Dass KI die Spielregeln für Unternehmen verändert, ist eine beliebte Floskel unserer Gegenwart, trägt aber trotzdem viel Wahrheit in sich. Sie gilt aber nicht nur für Produktivität und Wettbewerb, sondern auch für Cybersecurity. CISOs und ihre Teams dürfen nicht bei traditionellen Sicherheitsvorkehrungen stehenbleiben, sondern müssen sich mit den neuen Rahmenbedingungen beschäftigen. In der jetzigen Anfangsphase suchen sowohl Angreifer als auch Verteidiger nach Best Practices. Gewinner werden diejenigen sein, die sich dem aktuellen State-of-the-Art widmen und den Mut haben, Early-Adopter zu sein.
Über den Autor: Michael Pietsch ist Vice President DACH & Eastern Europe bei Box. Er beschäftigt sich intensiv mit er digitalen Transformation, der Zukunft der Arbeit und den Auswirkungen von KI auf Unternehmen. Er ist seit über 20 Jahren in Führungspositionen bei Oracle, Rubrik, Boomi, EMC und Dell tätig. Dadurch verfügt er über umfangreiche Expertise zu SaaS, Unternehmenstechnologie und Cybersecurity-Lösungen.