Unter hohem Innovationsdruck treiben Unternehmen ihre KI-Implementierung voran und betten die Technologie tief in ihre Geschäftsprozesse ein. Fast 75 Prozent der Entscheider verschieben dabei die Absicherung ihrer KI-Systeme in die Zukunft. Doch das „Nachrüsten“ von Sicherheit ist dieses Mal, anders als bei anderen Technologieinnovationen, keine Option.
Warum Sicherheit bei KI-Systemen von Anfang an integriert werden muss, erklärt Christine Barbara Müller, Head of IBM Cybersecurity Services DACH – und auch, warum Unternehmen das Rad dabei nicht neu erfinden müssen.
(Bild: Skórzewiak - stock.adobe.com)
Das Potenzial von generativer KI zur Automatisierung von Abläufen im Unternehmen ist enorm. Um es auszuschöpfen, ist der Aufbau von Vertrauen in die Technologie entscheidend. Verlässlichkeit fördert ihre Akzeptanz und damit weitere Investitionen in den Aufbau von KI-Strukturen. Erfolgreiche KI-Anwendungen können Effizienz und Innovationstempo deutlich steigern – wenn sie von Vertrauen in ihre Sicherheit getragen werden.
Vertrauen entsteht durch Transparenz, das Bekämpfen von Bias, die Einbindung menschlicher Entscheider und durch robuste Sicherheitsmaßnahmen. Angesichts der schnellen Integration von generativer KI in Unternehmensstrukturen ist es wichtig, Sicherheitsaspekte von Anfang an zu berücksichtigen.
Innovation geht vielen Unternehmensentscheidern über Sicherheit
Die im Mai vorgestellte gemeinsame Studie „Securing Generative AI“ des IBM Institute for Business Value und von AWS untersucht die Prioritäten von Führungskräften in Bezug auf Chancen und Risiken des Einsatzes generativer KI. Die Resultate zeigen ein Ungleichgewicht zwischen der Forderung nach schneller Innovation und Sicherheitsbedenken. Zwar gaben 82 Prozent der Befragten an, die Bedeutung von sicherer und vertrauenswürdiger KI für den Unternehmenserfolg zu erkennen. Geht es jedoch um eine konkrete Priorisierung, gewichten 69 Prozent der Befragten Innovation höher als Sicherheit. Weniger als ein Viertel (24 Prozent) der Befragten gab an, Cybersicherheit in ihre aktuellen generativen KI-Projekte einzubetten.
KI-Implementierungen werden aktuell in der Mehrzahl der Fälle von Innovations- und Geschäftsentwicklungsteams vorangetrieben. Die Einbeziehung von Sicherheitsverantwortlichen erfolgt oft später. Einer der ersten und wichtigsten Schritte besteht deshalb darin, sie vom ersten Tag an ins Boot zu holen und neben den Geschäftszielen auch die Risikobewertung im Blick zu haben.
Säulenmodell hilft Unternehmen, ihre KI-Sicherheitsstrategie zu planen
Die erste Verteidigungslinie nicht nur im Bereich der KI-Implementierungen ist eine sichere Infrastruktur. So sollte zunächst die Sicherheit der gesamten Umgebung in der KI-Systeme eingesetzt werden, auf den Prüfstand kommen und bei Bedarf optimiert werden. Eine Orientierungshilfe für die Chancen-Nutzen-Analyse für die KI-spezifische Absicherung finden geschäftliche wie technische Unternehmensentscheider im Framework for Securing Generative AI. Führende Spezialisten haben das Rahmenwerk entwickelt, damit Unternehmen Cyberrisiken bei der Einführung generativer KI besser einordnen und Abwehrmaßnahmen entsprechend priorisieren können. Die drei Säulen der Absicherung sind auf KI-spezifische Bedrohungen abgestimmt:
Sicherung von Daten: KI stellt ein erhöhtes Datensicherheitsrisiko dar, da hochsensible Daten zentralisiert gespeichert und verarbeitet sowie für das Trainieren von Modellen bereitgestellt werden. Die Sicherung von KI-Trainingsdaten vor Diebstahl und Manipulation sollte hoch priorisiert werden. Durch die Nutzung vorhandener Datensicherungslösungen ist sie auch der am einfachsten umzusetzende Teil der Absicherungsstrategie.
Sicherung der Modellentwicklung: Komplizierter wird es bei der Modellentwicklung. Die Entwicklung KI-fähiger Apps unterscheidet sich in entscheidenden Punkten von der Entwicklung herkömmlicher Anwendungen. Dadurch steigt das Risiko der Einbringung neuer Schwachstellen. Die Sicherungsstrategie muss darauf abzielen, Schwachstellen in der Pipeline zu identifizieren, Integrationen abzuschotten und Richtlinien und Zugriffe durchzusetzen.
Sicherung des Modells „in Aktion“: Angreifer werden versuchen, die Inferenzphase – in der ein trainiertes maschinelles Modell erworbenes Wissen auf neue Daten anwendet – zu nutzen, um das Verhalten von KI-Modellen zu kapern oder zu manipulieren. Unternehmen müssen den Betrieb ihrer KI-Modellen absichern, indem sie Daten- oder Prompt-Lecks sowie Ausweich-, Verfälschungs-, Extraktions- oder Inferenz-Angriffe erkennen und schließen bzw. unterbinden.
KI-Sicherheitsstrategie dient nicht nur dem Vertrauensaufbau, sondern antizipiert auch aufkommende Vorgaben des Gesetzgebers
In Anbetracht der bereits bestehenden und in naher Zukunft zu erwartenden Vorschriften sowie der materiellen und immateriellen Kosten für Compliance-Verstöße müssen Unternehmen auch eine robuste KI-Governance gewährleisten. Die Anforderungen an Präzision, Datenschutz, Transparenz und Nachvollziehbarkeit von KI-basierten Entscheidungen werden strenger werden. Auch aus diesem Grund müssen Unternehmen bereits heute ihre Sicherheits- und Data-Governance-Programme besser miteinander verzahnen und in ihre KI-Projekte integrieren, inklusive der Etablierung konsistenter Richtlinien und eines einheitlichen Berichtswesens zwischen diesen bislang oft getrennten Disziplinen. Unterstützung dabei bietet das Active Governance Framework.
Um die Verbindung zwischen Sicherheits-, Risiko- und Governance-Programmen zu erleichtern, bietet IBM auf Basis langjähriger Erfahrung in den Bereichen KI und Sicherheit neben Expertise auch ein umfangreiches Portfolio an Technologien und Diensten. Dazu zählen etwa die neuen X-Force Red Testing Services für KI, mit denen die Sicherheit von generativen KI-Anwendungen, MLSecOps-Pipelines und KI-Modellen aus der Perspektive von Angreifern getestet werden kann. Dieser Ansatz wird von einem spezialisierten Team mit fundiertem Fachwissen in den Bereichen Data Science, AI Red Teaming und Anwendungs-Pen-Tests durchgeführt und hilft, Schwachstellen zu ermitteln und zu beheben, die Angreifer am ehesten ausnutzen.
Bei der Absicherung helfen bewährte Strategien
Die Sicherung von KI-Implementierungen bedeutet keine vollständige Neuerfindung des Rades, da die notwendigen Erfahrungen aus der Absicherung von Applikationen bekannt sind. Am Anfang steht die Absicherung der IT-Umgebung. Da KI-Modelle die kritischsten Daten und das geistige Eigentum von Unternehmen nutzen, kommt auch der Datensicherheit, die vom Gesetzgeber wie auch von Kunden seit Jahren verlangt wird, innerhalb der Sicherheitsstrategie höchste Bedeutung zu.
Identitäts- und Zugriffsmanagement-Funktionen im Rahmen eines umfassenden Identity Access Management helfen, das steigende Risiko durch identitätsbasierte Angriffe in ihrem gesamten Legacy- und Cloud-basierten Technologiestack zu reduzieren. Dazu zählen beispielsweise die Validierung von Benutzerzugriffsberechtigungen, Sicherung sensibler Daten und die Einhaltung regulatorischer Vorschriften. Auch hierbei helfen bewährte Vorgehensweisen wie die Durchsetzung der Verwendung von unternehmensspezifischen Authentifizierungslösungen einschließlich Multi Factor Authentication (MFA) und die kontinuierliche Sicherung. KI-spezifische Zugriffsmodelle und Absicherungsmaßnahmen in der Entwicklungs- und Betriebsplattform stellen eine sinnvolle Ergänzung dar. Dafür stellen Lösungsanbieter Fachwissen und Tools bereit, die laufend angepasst werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Fazit
Angesichts der Tatsache, dass KI die Unternehmenslandschaft verändern wird, können es sich Unternehmen heute nicht mehr leisten, Sicherheit – wie das in der Vergangenheit mitunter der Fall war – „nachzurüsten“. Sie muss von Grund auf mitgedacht und eingebettet werden. Das trägt nicht nur dazu bei, das erfolgsentscheidende Vertrauen in die Technologie zu stärken, sondern bewahrt KI-Innovatoren auch vor schadensträchtigen Cyberattacken sowie hohen Strafzahlungen bei Compliance-Verstößen.
Die proaktiven Bedrohungsjäger von IBM arbeiten eng mit Unternehmen zusammen, um ihre wichtigsten Assets zu identifizieren, und ermöglichen es ihnen, für ihre Bedürfnisse maßgeschneiderte Berichte zu erstellen und individuelle Entscheidungsempfehlungen zu erhalten. Für die Integration von beim Kunden vorhandener Technologie in die X-Force-Plattform sowie zuverlässige und angrenzende Services, die Unternehmen das Jonglieren mit mehreren Cybersecurity-Anbietern ersparen, gab es im neuen Worldwide Managed Detection and Response IDC MarketScape Report eine klare Empfehlung für das Portfolio an Diensten zur Erkennung von und Reaktion auf Bedrohungen.