KI-Entwicklung und Cybersicherheit Bleibt beim KI-Rennen die Sicherheit auf der Strecke?

Ein Gastbeitrag von Christine Barbara Müller 5 min Lesedauer

Anbieter zum Thema

Unter hohem Innovationsdruck treiben Unternehmen ihre KI-Implementierung voran und betten die Technologie tief in ihre Geschäftsprozesse ein. Fast 75 Prozent der Entscheider verschieben dabei die Absicherung ihrer KI-Systeme in die Zukunft. Doch das „Nachrüsten“ von Sicherheit ist dieses Mal, anders als bei anderen Technologieinnovationen, keine Option.

Warum Sicherheit bei KI-Systemen von Anfang an integriert werden muss, erklärt Christine Barbara Müller, Head of IBM Cybersecurity Services DACH – und auch, warum Unternehmen das Rad dabei nicht neu erfinden müssen.(Bild:  Skórzewiak - stock.adobe.com)
Warum Sicherheit bei KI-Systemen von Anfang an integriert werden muss, erklärt Christine Barbara Müller, Head of IBM Cybersecurity Services DACH – und auch, warum Unternehmen das Rad dabei nicht neu erfinden müssen.
(Bild: Skórzewiak - stock.adobe.com)

Das Potenzial von generativer KI zur Automatisierung von Abläufen im Unternehmen ist enorm. Um es auszuschöpfen, ist der Aufbau von Vertrauen in die Technologie entscheidend. Verlässlichkeit fördert ihre Akzeptanz und damit weitere Investitionen in den Aufbau von KI-Strukturen. Erfolgreiche KI-Anwendungen können Effizienz und Innovationstempo deutlich steigern – wenn sie von Vertrauen in ihre Sicherheit getragen werden.

Vertrauen entsteht durch Transparenz, das Bekämpfen von Bias, die Einbindung menschlicher Entscheider und durch robuste Sicherheitsmaßnahmen. Angesichts der schnellen Integration von generativer KI in Unternehmensstrukturen ist es wichtig, Sicherheitsaspekte von Anfang an zu berücksichtigen.

Innovation geht vielen Unternehmensentscheidern über Sicherheit

Die im Mai vorgestellte gemeinsame Studie „Securing Generative AI“ des IBM Institute for Business Value und von AWS untersucht die Prioritäten von Führungskräften in Bezug auf Chancen und Risiken des Einsatzes generativer KI. Die Resultate zeigen ein Ungleichgewicht zwischen der Forderung nach schneller Innovation und Sicherheitsbedenken. Zwar gaben 82 Prozent der Befragten an, die Bedeutung von sicherer und vertrauenswürdiger KI für den Unternehmenserfolg zu erkennen. Geht es jedoch um eine konkrete Priorisierung, gewichten 69 Prozent der Befragten Innovation höher als Sicherheit. Weniger als ein Viertel (24 Prozent) der Befragten gab an, Cybersicherheit in ihre aktuellen generativen KI-Projekte einzubetten.

KI-Implementierungen werden aktuell in der Mehrzahl der Fälle von Innovations- und Geschäftsentwicklungsteams vorangetrieben. Die Einbeziehung von Sicherheitsverantwortlichen erfolgt oft später. Einer der ersten und wichtigsten Schritte besteht deshalb darin, sie vom ersten Tag an ins Boot zu holen und neben den Geschäftszielen auch die Risikobewertung im Blick zu haben.

Säulenmodell hilft Unternehmen, ihre KI-Sicherheitsstrategie zu planen

Die erste Verteidigungslinie nicht nur im Bereich der KI-Implementierungen ist eine sichere Infrastruktur. So sollte zunächst die Sicherheit der gesamten Umgebung in der KI-Systeme eingesetzt werden, auf den Prüfstand kommen und bei Bedarf optimiert werden. Eine Orientierungshilfe für die Chancen-Nutzen-Analyse für die KI-spezifische Absicherung finden geschäftliche wie technische Unternehmensentscheider im Framework for Securing Generative AI. Führende Spezialisten haben das Rahmenwerk entwickelt, damit Unternehmen Cyberrisiken bei der Einführung generativer KI besser einordnen und Abwehrmaßnahmen entsprechend priorisieren können. Die drei Säulen der Absicherung sind auf KI-spezifische Bedrohungen abgestimmt:

  • Sicherung von Daten: KI stellt ein erhöhtes Datensicherheitsrisiko dar, da hochsensible Daten zentralisiert gespeichert und verarbeitet sowie für das Trainieren von Modellen bereitgestellt werden. Die Sicherung von KI-Trainingsdaten vor Diebstahl und Manipulation sollte hoch priorisiert werden. Durch die Nutzung vorhandener Datensicherungslösungen ist sie auch der am einfachsten umzusetzende Teil der Absicherungsstrategie.
  • Sicherung der Modellentwicklung: Komplizierter wird es bei der Modellentwicklung. Die Entwicklung KI-fähiger Apps unterscheidet sich in entscheidenden Punkten von der Entwicklung herkömmlicher Anwendungen. Dadurch steigt das Risiko der Einbringung neuer Schwachstellen. Die Sicherungsstrategie muss darauf abzielen, Schwachstellen in der Pipeline zu identifizieren, Integrationen abzuschotten und Richtlinien und Zugriffe durchzusetzen.
  • Sicherung des Modells „in Aktion“: Angreifer werden versuchen, die Inferenzphase – in der ein trainiertes maschinelles Modell erworbenes Wissen auf neue Daten anwendet – zu nutzen, um das Verhalten von KI-Modellen zu kapern oder zu manipulieren. Unternehmen müssen den Betrieb ihrer KI-Modellen absichern, indem sie Daten- oder Prompt-Lecks sowie Ausweich-, Verfälschungs-, Extraktions- oder Inferenz-Angriffe erkennen und schließen bzw. unterbinden.

KI-Sicherheitsstrategie dient nicht nur dem Vertrauensaufbau, sondern antizipiert auch aufkommende Vorgaben des Gesetzgebers

In Anbetracht der bereits bestehenden und in naher Zukunft zu erwartenden Vorschriften sowie der materiellen und immateriellen Kosten für Compliance-Verstöße müssen Unternehmen auch eine robuste KI-Governance gewährleisten. Die Anforderungen an Präzision, Datenschutz, Transparenz und Nachvollziehbarkeit von KI-basierten Entscheidungen werden strenger werden. Auch aus diesem Grund müssen Unternehmen bereits heute ihre Sicherheits- und Data-Governance-Programme besser miteinander verzahnen und in ihre KI-Projekte integrieren, inklusive der Etablierung konsistenter Richtlinien und eines einheitlichen Berichtswesens zwischen diesen bislang oft getrennten Disziplinen. Unterstützung dabei bietet das Active Governance Framework.

Um die Verbindung zwischen Sicherheits-, Risiko- und Governance-Programmen zu erleichtern, bietet IBM auf Basis langjähriger Erfahrung in den Bereichen KI und Sicherheit neben Expertise auch ein umfangreiches Portfolio an Technologien und Diensten. Dazu zählen etwa die neuen X-Force Red Testing Services für KI, mit denen die Sicherheit von generativen KI-Anwendungen, MLSecOps-Pipelines und KI-Modellen aus der Perspektive von Angreifern getestet werden kann. Dieser Ansatz wird von einem spezialisierten Team mit fundiertem Fachwissen in den Bereichen Data Science, AI Red Teaming und Anwendungs-Pen-Tests durchgeführt und hilft, Schwachstellen zu ermitteln und zu beheben, die Angreifer am ehesten ausnutzen.

Bei der Absicherung helfen bewährte Strategien

Die Sicherung von KI-Implementierungen bedeutet keine vollständige Neuerfindung des Rades, da die notwendigen Erfahrungen aus der Absicherung von Applikationen bekannt sind. Am Anfang steht die Absicherung der IT-Umgebung. Da KI-Modelle die kritischsten Daten und das geistige Eigentum von Unternehmen nutzen, kommt auch der Datensicherheit, die vom Gesetzgeber wie auch von Kunden seit Jahren verlangt wird, innerhalb der Sicherheitsstrategie höchste Bedeutung zu.

Identitäts- und Zugriffsmanagement-Funktionen im Rahmen eines umfassenden Identity Access Management helfen, das steigende Risiko durch identitätsbasierte Angriffe in ihrem gesamten Legacy- und Cloud-basierten Technologiestack zu reduzieren. Dazu zählen beispielsweise die Validierung von Benutzerzugriffsberechtigungen, Sicherung sensibler Daten und die Einhaltung regulatorischer Vorschriften. Auch hierbei helfen bewährte Vorgehensweisen wie die Durchsetzung der Verwendung von unternehmensspezifischen Authentifizierungslösungen einschließlich Multi Factor Authentication (MFA) und die kontinuierliche Sicherung. KI-spezifische Zugriffsmodelle und Absicherungsmaßnahmen in der Entwicklungs- und Betriebsplattform stellen eine sinnvolle Ergänzung dar. Dafür stellen Lösungsanbieter Fachwissen und Tools bereit, die laufend angepasst werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Fazit

Angesichts der Tatsache, dass KI die Unternehmenslandschaft verändern wird, können es sich Unternehmen heute nicht mehr leisten, Sicherheit – wie das in der Vergangenheit mitunter der Fall war – „nachzurüsten“. Sie muss von Grund auf mitgedacht und eingebettet werden. Das trägt nicht nur dazu bei, das erfolgsentscheidende Vertrauen in die Technologie zu stärken, sondern bewahrt KI-Innovatoren auch vor schadensträchtigen Cyberattacken sowie hohen Strafzahlungen bei Compliance-Verstößen.

Die proaktiven Bedrohungsjäger von IBM arbeiten eng mit Unternehmen zusammen, um ihre wichtigsten Assets zu identifizieren, und ermöglichen es ihnen, für ihre Bedürfnisse maßgeschneiderte Berichte zu erstellen und individuelle Entscheidungsempfehlungen zu erhalten. Für die Integration von beim Kunden vorhandener Technologie in die X-Force-Plattform sowie zuverlässige und angrenzende Services, die Unternehmen das Jonglieren mit mehreren Cybersecurity-Anbietern ersparen, gab es im neuen Worldwide Managed Detection and Response IDC MarketScape Report eine klare Empfehlung für das Portfolio an Diensten zur Erkennung von und Reaktion auf Bedrohungen.

Über die Autorin: Christine Barbara Müller ist Head of IBM Cybersecurity Services DACH.

(ID:50133627)