KI schafft neue Cybergefahren: Fehlende Transparenz und erzwungenes Vertrauen kollidieren mit Zero-Trust-Strategien und strengen Vorgaben wie DSGVO und NIS-2. Ein sicherer KI-Einsatz, zum Beispiel auch um SAP-Umfeld, erfordert konsequente Systemhärtung, klare Richtlinien und menschliche Aufsicht – für verlässliche Security und Compliance.
Es liegt in der Verantwortung jeder Organisation, die KI-basierte Dienste besitzt, nutzt oder bereitstellt, sicherzustellen, dass die zugrunde liegenden Trainingsmodelle geschützt sind.
(Bild: IM Imagery - stock.adobe.com)
Künstliche Intelligenz analysiert riesige Datenmengen und trifft Entscheidungen auf der Grundlage von Mustern, die manchmal schwer zu verstehen sind. Dieser Mangel an Transparenz kann ein Problem für Unternehmen sein, die Vorschriften und Standards einhalten müssen, welche von ihnen verlangen, dass sie in der Lage sind, ihre Sicherheitsentscheidungen zu erklären. Gemäß der Datenschutz-Grundverordnung (DSGVO) der Europäischen Union müssen Unternehmen beispielsweise in der Lage sein, die Logik hinter automatisierten Entscheidungen zu erklären, die Einzelpersonen betreffen.
Ein weiteres der größten Risiken von KI in der Bedrohungslandschaft der Cybersicherheit ist die Ungewissheit über ihre Ergebnisse. KI-Systeme treffen Entscheidungen auf der Grundlage der Daten und Algorithmen, mit denen sie trainiert wurden. Menschen verifizieren die Ergebnisse nicht immer. Dieser Prozess kann zu einer Situation führen, in der Menschen der KI blind vertrauen müssen, ohne vollständig zu verstehen, wie oder warum sie eine bestimmte Entscheidung getroffen hat.
Dieses Maß an Vertrauen ist ein grundlegender Konflikt mit den weit verbreiteten Zero-Trust-Strategien in der Cybersicherheit. Diese betonen, wie wichtig es ist, jede (Zugriffs-)Anfrage unabhängig von der Quelle zu verifizieren und zu authentifizieren. Mit zunehmender Reife der KI wird die Überprüfung der erzielten Ergebnisse aber immer schwieriger, wenn nicht sogar unmöglich.
Bei KI ist nicht immer ersichtlich, welche Absicht hinter einer bestimmten Antwort steckt. Es wird zur Herausforderung, die Richtigkeit und Authentizität der von KI-Systemen generierten Informationen zu überprüfen. Solange eine Aussage Sinn ergibt, könnte man es als unerheblich betrachten, wie die KI zu ihr gelangt. Problem: Es gibt Regularien wie NIS-2 oder die GDPDR, die nach genau diesem Zustandekommen fragen und – wenn es nicht hergeleitet werden kann – die Aussage nicht gelten lassen. Die Lösung bestünde dann darin, KI-Einsatz nur dort zuzulassen, wo es solche Regularien nicht gibt. SAP definiert konkret Fälle mit hohem Risiko und legt fest, dass sie nicht von KI berührt werden sollen. Zu den Richtlinien des Unternehmens gehört die Verarbeitung personenbezogener Daten (in Bezug auf eine natürliche Person) und sensibler Daten (in Bezug auf sexuelle Orientierung, Religion oder biometrische Daten wie Gesichtsanalyse (face imaging) oder Spracherkennung).
Höheres Maß an Schutz und Bewusstsein ist erforderlich
Sicherheitsorganisationen müssen bei der Interaktion mit KI-Systemen Vorsicht walten lassen und eine hohe Skepsis bewahren. Die Herausforderung, bösartige KI-Systeme zu erkennen, wird nur noch größer werden, wenn KI-Technologien weiterentwickelt und immer vernetzter werden. Mit ihrer zunehmenden Intelligenz könnten sie bald in der Lage sein, dynamisch auf Ereignisse innerhalb von Organisationen zu reagieren. Zum Beispiel können Beschäftigte scheinbar legitime Nachrichten von einem KI-System erhalten, das vorgibt, zum Support-Team zu gehören, das sich aufgrund einer geplanten Wartung gemeldet hat.
Dies unterstreicht, wie wichtig es ist, bei der Erkennung und Abwehr bösartiger KI-Systeme proaktiv vorzugehen, mit anderen Worten, sein (SAP-)System entsprechend zu härten: Angriffsfläche reduzieren durch Patch Management, sicherheitskonforme Systemkonfiguration und sicherer Custom Code. Wer diese drei Komponenten der Systemhärtung anwendet, hat damit die Voraussetzung für eine KI-gesteuerte SAP-Security geschaffen.
Essenziell sind außerdem Schulungen darüber, wie man potenzielle Social-Engineering-Angriffe erkennt und darauf reagieren kann. Sie sollten münden im Ausarbeiten entsprechender Leitlinien und der konkreten Anpassung interner Abläufe. Etwa derart, dass auf Links auch in internen E-Mails verzichtet werden soll – Absender können manipuliert sein und werden von den meisten als solche nicht erkannt. Hier also besser mit Kollaborationslösungen wie Microsoft Teams oder internen Portalen wie Confluence arbeiten.
Beruhigend zu wissen, dass SAP in seinen Leitprinzipien für Künstliche Intelligenz ausdrücklich auf Transparenz hingewiesen hat. Das Unternehmen erklärt: „Unsere Systeme unterliegen spezifischen Standards, die sich nach ihrem technischen Leistungsniveau und ihrem Verwendungszweck richten. Ihre Eingaben, Fähigkeiten, ihr Verwendungszweck und ihre Grenzen werden unseren Kunden klar mitgeteilt.“ Diese zukunftsweisenden Prinzipien werden Kunden beruhigen, die Bedenken hinsichtlich der Einführung von KI-gestützten Technologien haben.
Ein weiterer Ansatz, um Unternehmen dabei zu helfen, ihre KI-Ängste zu lindern, ist die Einführung eines Rahmens für ethische Praktiken. Die Ethikleitlinien der Europäischen Kommission für vertrauenswürdige KI betonen die Bedeutung von Transparenz, Rechenschaftspflicht und menschlicher Aufsicht bei der Entwicklung und dem Einsatz von KI-Systemen. Ein Unternehmen sollte prüfen, inwieweit sie diese in seine internen Policies aufnimmt und damit einen solchen Rahmen schafft.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
KI hat das Potenzial, unser Leben in vielerlei Hinsicht zu verbessern, aber es ist entscheidend, sie ethisch und sicher zu nutzen. Derzeit wird sie bereits in verschiedenen Branchen eingesetzt, um die Produktivität zu steigern, Aufgaben zu automatisieren und innovative Lösungen zu schaffen. Mit ihrer Weiterentwicklung wird KI immer ausgefeilter in Geschäftsanwendungen wie ERP-Systeme integriert werden. Umso wichtiger wird es, ethische und datenschutzrechtliche Erwägungen bei der Entwicklung und Implementierung zu berücksichtigen. Nur so lassen sich unbeabsichtigte Folgen wie Voreingenommenheit bei der KI-Entscheidungsfindung oder Datenschutzverletzungen vermeiden.
Fazit
Es liegt in der Verantwortung jeder Organisation, die KI-basierte Dienste besitzt, nutzt oder bereitstellt, sicherzustellen, dass die zugrunde liegenden Trainingsmodelle geschützt sind: durch Implementierung strenger Richtlinien für die Verwaltung und Überprüfung der von KI-Systemen verwendeten Trainingsdaten oder durch Treffen von Sicherheitsmaßnahmen, um Manipulationen der Trainingsmodelle zu erkennen und zu verhindern.
Über den Autor: Holger Hügel ist Product Management Director bei SecurityBridge.