Kommentar von Stephan Schulz, F5 API-Schutz ist der erste Schritt zur KI-Sicherheit

Von Stephan Schulz 4 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz (KI) wird vom Hype zur Realität. Dabei entstehen immer mehr KI-Fabriken – dynamische Ökosysteme, die Innovation, Zusammenarbeit und Entwicklung von Produkten und Services im Bereich KI fördern. Gleichzeitig öffnet KI neue Sicherheitslücken. Da die Vernetzung aller Systeme auf Schnittstellen basiert, gibt es vier Gründe, warum Erfolg durch KI nur mit dem wirksamen Schutz von APIs gelingt.

Der Autor: Stephan Schulz ist Principal Solutions Engineer bei F5(Bild:  F5)
Der Autor: Stephan Schulz ist Principal Solutions Engineer bei F5
(Bild: F5)

APIs (Application Programming Interfaces oder Programmierschnittstellen) sind nötig, um KI-Modelle zu trainieren und bereitzustellen. Doch bilden sie gleichzeitig auch mögliche Einfallstore für Cyberkriminelle, die Daten stehlen, sich unerlaubten Zugang verschaffen und KI-Modelle manipulieren. KI ist damit nur so sicher wie die Schnittstelle, über die sie bedient wird.

Daher müssen bereits in einem frühen Stadium des KI-Entwicklungs- und -Trainingsprozesses die Transparenz, Sicherheit und Governance jeder API gewährleistet sein. Dabei sollten die normalen Nutzungsmuster sowie zusätzliche Kontrollen, wie Ratenbegrenzungen und Datenbereinigung, bereits in der Entwicklungsphase integriert werden. Hier sind folgende vier Punkte zu berücksichtigen.

1. KI-Apps sind die modernsten Apps

Im Vergleich zu modernen Microservices-basierten Apps weisen KI-Anwendungen grundsätzlich zwar dieselben Risiken und Herausforderungen auf. Hinzu kommen allerdings spezifische Eigenschaften für Training, Feinabstimmung, Inferenz, Retrieval Augmented Generation (RAG) und Integrationspunkte in KI-Fabriken. Die hochverteilten KI-Apps führen zudem zu einem Wildwuchs an Tools und erschweren dadurch die konsistente Sichtbarkeit, die einheitliche Durchsetzung von Sicherheitsrichtlinien sowie die umfassende Behebung von Bedrohungen in hybriden und Multi-Cloud-Architekturen.

Unternehmen müssen außerdem mit vielfältigen menschlichen Anfragen und der hochvariablen Natur KI-generierter Inhalte zurechtkommen, die zu unvorhersehbaren Ergebnissen führen können. Zusätzlich sind Aspekte wie Datennormalisierung, Tokenisierung, Einbettung und Verwaltung von Vektordatenbanken zu berücksichtigen. Die Zusammenführung von Daten und KI-Fabriken schafft ein ganzheitliches und vernetztes Unternehmensökosystem, das eine robuste API-Sicherheitsstruktur erfordert.

2. KI-Anwendungen sind über APIs verbunden

Die Komplexität von hybriden und Multi-Cloud-Architekturen wird durch KI-Anwendungen weiter erhöht. Denn Unternehmen nutzen Governance-Strategien für eine Vielzahl von KI-Apps und zugrundeliegenden KI-Modellen, darunter KI-SaaS-, Cloud-hosted, Self-hosted- oder Edge-hosted-Ansätze. Diese unterscheiden sich je nach Anwendungsfall und App.

Die Verbindung zu diesen Modellen und zugehörigen Diensten wird weitgehend durch APIs ermöglicht. KI-Apps führen somit zu einem exponentiellen Anstieg der API-Nutzung, da eine einzige API letztlich Tausende von Endpunkten unterstützen kann. Dabei finden viele API-Aufrufe auch außerhalb des Kontrollbereichs von Sicherheitsteams statt. Dies erhöht die Komplexität und führt zu schwerwiegenden Auswirkungen auf das Risikomanagement. Egal, wo KI-Anwendungen ausgeführt werden: Jede Facette der Architektur muss abgesichert sein, und der Schutz von APIs ist der erste Ansatzpunkt.

3. KI-Apps sind bekannten und neuartigen Risiken ausgesetzt

Neben herkömmlichen Gefahren wie Exploits oder Denial-of-Service (DoS)-Attacken kommen bei KI-Anwendungen weitere Risiken hinzu. Dazu gehören insbesondere neue und veränderte Angriffspunkte in KI-Fabriken sowie Bedrohungen für LLMs über Schnittstellen zur natürlichen Sprachverarbeitung (NLP), Plug-ins, Datenkonnektoren und nachgelagerte Dienste. Diese Risiken sind für alle Phasen vom Training bis zur RAG zu berücksichtigen.

Gleichzeitig erleichtert Generative KI mögliche Angriffe und erhöht deren Raffinesse für Cyberkriminalität und politisch motivierte Attacken. LLM-Agenten können mittlerweile autonom Webanwendungen und APIs hacken. Das geschieht zum Beispiel durch komplexe Angriffe wie das blinde Extrahieren von Datenbankschemata und SQL-Injektionen, ohne die zugrunde liegende Schwachstelle im Voraus zu kennen.

Die Bedeutung der API-Sicherheit für KI-Fabriken darf nicht unterschätzt werden: Jeder CISO sollte API-Sicherheit als festen Bestandteil von KI-Governance-Programmen betrachten. Denn man kann nicht schützen, was man nicht sieht. Ohne ein Inventar der Schnittstellen hinter den KI-Apps ist das Bedrohungsmodell unvollständig und die Sicherheit lückenhaft.

4. Die Abwehr muss sich anpassen

KI-Anwendungen sind dynamisch und unvorhersehbar. Sicherheitsmaßnahmen benötigen daher hohe Wirksamkeit, klare Richtlinien und automatisierte Abläufe. Dabei spielen Inspektionstechnologien eine entscheidende und weiter zunehmende Rolle. Insbesondere das Risiko durch Drittanbieter-APIs ist zu minimieren. Das erfordert eine gezielte Absicherung ausgehender API-Aufrufe und entsprechender Anwendungsfälle – zusätzlich zu den bestehenden Schutzmaßnahmen für eingehende Verbindungen.

Bot-Management-Lösungen dürfen sich nicht allein auf die Identifikation von Menschen oder Maschinen verlassen, da der Datenaustausch zwischen Diensten steigt. Zudem kann eine anfällige Lieferkette von LLM-Anwendungen die Integrität von Trainingsdaten, Modellen und Bereitstellungsplattformen gefährden. Denn diese Komponenten stammen oft von Drittanbietern und können manipuliert werden. Daher müssen Sicherheitsmaßnahmen überall implementiert werden – im Rechenzentrum, in der Cloud, an den Netzwerkgrenzen sowie entlang des gesamten Entwicklungsprozesses, von der Code-Erstellung über Tests bis hin zur Produktivsetzung.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

KI-Gateway-Technologien spielen eine zentrale Rolle, um Sicherheitsteams bei der Abwehr von Bedrohungen für LLMs – wie Prompt Injection oder Offenlegung sensibler Informationen – zu unterstützen. Der erste Schritt zu mehr KI-Sicherheit besteht jedoch in der Absicherung von APIs, die KI-Anwendungen und -Ökosysteme miteinander verbinden. Dazu sind Sicherheitsmaßnahmen in den gesamten Lebenszyklus der KI-Anwendung von Anfang bis Ende zu integrieren.

Artikelfiles und Artikellinks

(ID:50410082)