Autonome KI-Systeme nutzen eigene Identitäten mit operativen Rechten. One Identity prognostiziert den ersten großen Sicherheitsvorfall durch unkontrollierte Rechteausweitung schon für dieses Jahr. Die Gefahren: Model Poisoning manipuliert Entscheidungen unbemerkt, KI-Agenten greifen auf sensible Daten zu, Verantwortlichkeiten bleiben unklar und klassische Sicherheitskontrollen versagen.
One Identity prognostiziert den ersten großen Sicherheitsvorfall durch unkontrollierte Rechteausweitung von KI-Agenten schon für 2026.
Der zunehmende Einsatz autonomer KI-Systeme verschiebt sicherheitskritische Entscheidungen auf softwarebasierte Agenten mit eigenen Identitäten und Berechtigungen. Prognosen von One Identity gehen davon aus, dass diese Entwicklung 2026 erstmals zu einem großflächigen Sicherheitsvorfall führt, bei dem eine KI-Schnittstelle zur unkontrollierten Ausweitung von Zugriffsrechten genutzt wird.
Alan Radford, Global Strategist bei One Identity, beschreibt dieses Szenario mit der Aussage "Wir werden den ersten großen Sicherheitsvorfall erleben, bei dem über eine KI-Schnittstelle Rechte ausgeweitet werden". Gemeint ist der Übergang von unterstützender KI hin zu operativ handelnden Agenten, die Prozesse steuern, Konfigurationen verändern und dafür technische Identitäten mit umfangreichen Rechten verwenden. Diese Identitäten entziehen sich häufig bestehenden Kontrollmodellen, da sie weder klassischen Benutzerkonten noch etablierten Servicekonten entsprechen. Für Unternehmen entsteht daraus ein strukturelles Risiko, da Berechtigungen, Verantwortlichkeiten und Entscheidungswege nicht mehr eindeutig zugeordnet bleiben.
Die Gefahr für Unternehmen liegt in der Kombination aus Autonomie und Berechtigungsumfang. Manipulierte Prompts oder gezielt konstruierte Interaktionen lösen Aktionen aus, die außerhalb genehmigter Prozesse liegen. Unkontrollierte Rollenerweiterungen, verdeckte Änderungen an Systemen und fehlende Rückführbarkeit einzelner Aktionen auf eine verantwortliche Instanz führen zu erheblichen Risiken. Neben operativen Schäden drohen regulatorische Konsequenzen, da Unternehmen automatisierte Entscheidungen nicht mehr nachvollziehbar begründen können. Radford ordnet dies als Wendepunkt ein. Sicherheitsprogramme, die ausschließlich menschliche Identitäten absichern, verlieren ihre Schutzwirkung. Der Schutz muss sich auf die Identitäten verlagern, die von KI selbst verwendet werden.
Radford beschreibt zudem ein durch KI beschleunigtes Wettrüsten. Angreifer nutzen KI zur automatisierten Schwachstellensuche, zur dynamischen Anpassung von Schadcode und zur Skalierung komplexer Kampagnen. Die Eintrittsbarrieren sinken, die Geschwindigkeit steigt. Verteidiger reagieren mit KI-gestützter Erkennung und automatisierten Gegenmaßnahmen. Starre, regelbasierte Kontrollen reichen nicht mehr aus. Radford fordert dynamische, identitätszentrierte Sicherheitsmechanismen, die Berechtigungen bedarfsbezogen vergeben und wieder entziehen. Die zentrale Gefahr besteht darin, dass autonome Abwehrmaßnahmen ohne vollständige Nachvollziehbarkeit selbst zum Risiko werden. Ohne lückenlose Protokollierung verlieren Unternehmen die Fähigkeit, Entscheidungen zu erklären, Vorfälle zu untersuchen und Verantwortung zuzuweisen.
Model Poisoning kann zur echten Gefahr werden
Nicolas Fort, Director of Product Management bei One Identity, lenkt den Blick auf eine weniger offensichtliche, aber langfristig gravierende Bedrohung. Er beschreibt heimliches Model Poisoning als gezielte Manipulation von Trainingsdaten, Prompt-Verläufen oder inkrementellen Modellanpassungen. Fort verantwortet die technische Umsetzung sicherheitsrelevanter Funktionen für KI-gestützte Systeme und adressiert damit operative Risiken direkt auf Produktebene. Seine Prognose beschreibt Angriffe, die nicht auf unmittelbare Störungen zielen. Ein manipuliertes Modell bleibt funktional und liefert scheinbar valide Ergebnisse, trifft jedoch systematisch falsche Entscheidungen.
Die Gefahren für Unternehmen liegen in der schleichenden Wirkung. Ein KI-System berechnet Risiken falsch, priorisiert Vorfälle fehlerhaft oder trifft unzutreffende Compliance-Entscheidungen. Solche Abweichungen bleiben lange unentdeckt, da keine offensichtlichen Alarme ausgelöst werden. Der Schaden akkumuliert sich über Zeit und betrifft finanzielle Steuerung, regulatorische Konformität und operative Stabilität. Fort betont, dass klassische Zugriffskontrollen hier nicht ausreichen. Jede Interaktion mit einem Modell, jede Änderung und jedes erneute Training müssen an eindeutig authentifizierte Identitäten gebunden bleiben. Zusätzlich benötigen Unternehmen technische Möglichkeiten, um Auswirkungen von Modelländerungen nachvollziehen zu können. Ohne diese Transparenz verlieren Organisationen die Kontrolle über automatisierte Entscheidungsprozesse.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
KI-Agenten haben umfassenden Zugriff auf Daten
Robert Kraczek, Global Strategist bei One Identity, ergänzt die KI-Prognosen um die Datenebene. Er beschreibt die Rückkehr der Data Access Governance als direkte Folge agentenbasierter Systeme. KI-Agenten durchsuchen Datenbestände effizient und identifizieren Informationen, die zuvor kaum genutzt oder unzureichend geschützt waren. Kraczek weist darauf hin, dass unkontrollierte Datenzugriffe die Wirkung von KI-Risiken vervielfachen. Berechtigungen, die pauschal vergeben wurden, entfalten in Kombination mit KI eine neue Dimension. Sensible Daten fließen in Entscheidungen ein, ohne dass ihr Zugriff ausreichend begrenzt oder dokumentiert ist.
Die Gefahr für Unternehmen besteht in der Entgrenzung von Datenrechten. KI-Systeme greifen auf Informationen zu, die für ihre Aufgabe nicht erforderlich sind. Fehlentscheidungen basieren auf veralteten, falschen oder unzulässigen Daten. Kraczek fordert deshalb die konsequente Durchsetzung minimaler Datenrechte auf Identitätsebene. Jede Zugriffsanfrage, unabhängig vom Ursprung, erfordert Prüfung, Kontextbewertung und Protokollierung. Ohne diese Kontrolle verlieren Unternehmen die Fähigkeit, Risiken zu bewerten und regulatorische Anforderungen zu erfüllen.
Die KI-Prognosen für 2026 zeigen einen tiefgreifenden Umbau sicherheitsrelevanter Strukturen. Autonome Agenten, manipulierte Modelle und expansive Datenzugriffe verschieben die Verantwortung für Sicherheit in Richtung Identitäts- und Berechtigungssteuerung. Unternehmen, die diese Ebenen nicht integrieren, riskieren Kontrollverlust über automatisierte Entscheidungen, steigende Haftung und strukturelle Sicherheitslücken.