One Identity prognostiziert ersten großen KI-Sicherheitsvorfall 2026 Autonome KI-Agenten gefährden Identitäten und Berechtigungen

Ein Gastbeitrag von Thomas Joos 4 min Lesedauer

Anbieter zum Thema

Autonome KI-Systeme nutzen eigene Identitäten mit operativen Rechten. One Identity prognostiziert den ersten großen Sicherheitsvorfall durch unkontrollierte Rechteausweitung schon für dieses Jahr. Die Gefahren: Model Poisoning ma­ni­pu­liert Entscheidungen unbemerkt, KI-Agenten greifen auf sensible Daten zu, Verantwortlichkeiten bleiben unklar und klassische Sicherheits­kontrollen versagen.

One Identity prognostiziert den ersten großen Sicherheitsvorfall durch unkontrollierte Rechteausweitung von KI-Agenten schon für 2026.(Bild: ©  Duminda - stock.adobe.com)
One Identity prognostiziert den ersten großen Sicherheitsvorfall durch unkontrollierte Rechteausweitung von KI-Agenten schon für 2026.
(Bild: © Duminda - stock.adobe.com)

Der zunehmende Einsatz autonomer KI-Systeme verschiebt sicherheitskritische Ent­schei­dungen auf softwarebasierte Agenten mit eigenen Identitäten und Berechtigungen. Prognosen von One Identity gehen davon aus, dass diese Entwicklung 2026 erstmals zu einem groß­flä­chig­en Sicherheitsvorfall führt, bei dem eine KI-Schnittstelle zur unkontrollierten Ausweitung von Zugriffsrechten genutzt wird.

Kommt in 2026 der erste große Angriff auf KI?

Alan Radford, Global Strategist bei One Identity, beschreibt dieses Szenario mit der Aussage "Wir werden den ersten großen Sicherheitsvorfall erleben, bei dem über eine KI-Schnittstelle Rechte ausgeweitet werden". Gemeint ist der Übergang von unterstützender KI hin zu operativ handelnden Agenten, die Prozesse steuern, Konfigurationen verändern und dafür technische Identitäten mit umfangreichen Rechten verwenden. Diese Identitäten entziehen sich häufig bestehenden Kontrollmodellen, da sie weder klassischen Benutzerkonten noch etablierten Servicekonten entsprechen. Für Unternehmen entsteht daraus ein strukturelles Risiko, da Berechtigungen, Verantwortlichkeiten und Entscheidungswege nicht mehr eindeutig zugeordnet bleiben.

Die Gefahr für Unternehmen liegt in der Kombination aus Autonomie und Berechtigungsumfang. Manipulierte Prompts oder gezielt konstruierte Interaktionen lösen Aktionen aus, die außerhalb genehmigter Prozesse liegen. Unkontrollierte Rollenerweiterungen, verdeckte Änderungen an Systemen und fehlende Rückführbarkeit einzelner Aktionen auf eine verantwortliche Instanz führen zu erheblichen Risiken. Neben operativen Schäden drohen regulatorische Konsequenzen, da Unternehmen automatisierte Entscheidungen nicht mehr nachvollziehbar begründen können. Radford ordnet dies als Wendepunkt ein. Sicherheitsprogramme, die ausschließlich menschliche Identitäten absichern, verlieren ihre Schutzwirkung. Der Schutz muss sich auf die Identitäten verlagern, die von KI selbst verwendet werden.

KI kann automatisiert Schwachstellen finden

Radford beschreibt zudem ein durch KI beschleunigtes Wettrüsten. Angreifer nutzen KI zur automatisierten Schwachstellensuche, zur dynamischen Anpassung von Schadcode und zur Skalierung komplexer Kampagnen. Die Eintrittsbarrieren sinken, die Geschwindigkeit steigt. Verteidiger reagieren mit KI-gestützter Erkennung und automatisierten Gegenmaßnahmen. Starre, regelbasierte Kontrollen reichen nicht mehr aus. Radford fordert dynamische, identitätszentrierte Sicherheitsmechanismen, die Berechtigungen bedarfsbezogen vergeben und wieder entziehen. Die zentrale Gefahr besteht darin, dass autonome Abwehrmaßnahmen ohne vollständige Nachvollziehbarkeit selbst zum Risiko werden. Ohne lückenlose Protokollierung verlieren Unternehmen die Fähigkeit, Entscheidungen zu erklären, Vorfälle zu untersuchen und Verantwortung zuzuweisen.

Model Poisoning kann zur echten Gefahr werden

Nicolas Fort, Director of Product Management bei One Identity, lenkt den Blick auf eine weniger offensichtliche, aber langfristig gravierende Bedrohung. Er beschreibt heimliches Model Poisoning als gezielte Manipulation von Trainingsdaten, Prompt-Verläufen oder inkrementellen Modellanpassungen. Fort verantwortet die technische Umsetzung sicherheitsrelevanter Funktionen für KI-gestützte Systeme und adressiert damit operative Risiken direkt auf Produktebene. Seine Prognose beschreibt Angriffe, die nicht auf unmittelbare Störungen zielen. Ein manipuliertes Modell bleibt funktional und liefert scheinbar valide Ergebnisse, trifft jedoch systematisch falsche Entscheidungen.

Die Gefahren für Unternehmen liegen in der schleichenden Wirkung. Ein KI-System berechnet Risiken falsch, priorisiert Vorfälle fehlerhaft oder trifft unzutreffende Compliance-Ent­schei­dungen. Solche Abweichungen bleiben lange unentdeckt, da keine offensichtlichen Alarme ausgelöst werden. Der Schaden akkumuliert sich über Zeit und betrifft finanzielle Steuerung, regulatorische Konformität und operative Stabilität. Fort betont, dass klassische Zu­griffs­kon­t­rol­len hier nicht ausreichen. Jede Interaktion mit einem Modell, jede Änderung und jedes erneute Training müssen an eindeutig authentifizierte Identitäten gebunden bleiben. Zusätzlich benötigen Unternehmen technische Möglichkeiten, um Auswirkungen von Modelländerungen nachvollziehen zu können. Ohne diese Transparenz verlieren Organisationen die Kontrolle über automatisierte Entscheidungsprozesse.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

KI-Agenten haben umfassenden Zugriff auf Daten

Robert Kraczek, Global Strategist bei One Identity, ergänzt die KI-Prognosen um die Datenebene. Er beschreibt die Rückkehr der Data Access Governance als direkte Folge agentenbasierter Systeme. KI-Agenten durchsuchen Datenbestände effizient und identifizieren Informationen, die zuvor kaum genutzt oder unzureichend geschützt waren. Kraczek weist darauf hin, dass unkontrollierte Datenzugriffe die Wirkung von KI-Risiken vervielfachen. Berechtigungen, die pauschal vergeben wurden, entfalten in Kombination mit KI eine neue Dimension. Sensible Daten fließen in Entscheidungen ein, ohne dass ihr Zugriff ausreichend begrenzt oder dokumentiert ist.

Die Gefahr für Unternehmen besteht in der Entgrenzung von Datenrechten. KI-Systeme greifen auf Informationen zu, die für ihre Aufgabe nicht erforderlich sind. Fehlentscheidungen basieren auf veralteten, falschen oder unzulässigen Daten. Kraczek fordert deshalb die konsequente Durchsetzung minimaler Datenrechte auf Identitätsebene. Jede Zugriffsanfrage, unabhängig vom Ursprung, erfordert Prüfung, Kontextbewertung und Protokollierung. Ohne diese Kontrolle verlieren Unternehmen die Fähigkeit, Risiken zu bewerten und regulatorische Anforderungen zu erfüllen.

Die KI-Prognosen für 2026 zeigen einen tiefgreifenden Umbau sicherheitsrelevanter Strukturen. Autonome Agenten, manipulierte Modelle und expansive Datenzugriffe verschieben die Verantwortung für Sicherheit in Richtung Identitäts- und Be­rech­ti­gungs­steuerung. Unternehmen, die diese Ebenen nicht integrieren, riskieren Kontrollverlust über automatisierte Entscheidungen, steigende Haftung und strukturelle Sicherheitslücken.

(ID:50724735)