Shift Left verlagert Sicherheitsprüfungen in Datenphase, Training und Promptgestaltung, bevor Künstliche Intelligenz (KI) produktiv arbeitet. Security-Gates, Red-Teaming und Monitoring mindern Prompt Injection, Data Poisoning und Model Leakage.
Security-Gates im Secure Software Development Lifecycle, kurz Secure SDLC, prüfen Datenquellen, Modellartefakte und Tool-Zugriffe, bevor agentenbasierte Architekturen externe Schnittstellen nutzen.
Generative AI (GenAI) stellt etablierte Sicherheitskonzepte auf den Kopf. Klassische IT-Systeme lassen sich nachträglich durch zusätzliche Software wie Firewalls, Malware-Scanner oder durch Patches für bekannte Schwachstellen absichern. Bei KI-Anwendungen – ob Large Language Models (LLMs), multimodale Systeme oder agentenbasierte Architekturen – verlaufen Angriffe und Abwehrmechanismen komplexer.
Punktuelle Fixes decken die Sicherheitsprobleme meist nicht ab. Oft müssen Systemprompts angepasst, Fine-Tuning-Prozesse neu konzipiert oder Trainingsdatensätze überprüft und bereinigt werden. Im schlimmsten Fall bleibt sogar nur ein komplettes Neu-Training. Der Aufwand dafür ist enorm und im laufenden Betrieb kaum umsetzbar. Daher müssen Entwickler schon in der frühen Phase klare Sicherheitsstandards definieren.
Die Grenzen klassischer Technologien
In der traditionellen IT-Security lautet das Grundprinzip: Fachkräfte finden Schwachstellen, patchen sie und sichern durch zusätzliche Maßnahmen ab. Selbst schwerwiegende Sicherheitslücken lassen sich häufig mit überschaubarem Aufwand nachträglich beheben.
Bei KI-Systemen greift dieser reaktive Ansatz jedoch nicht. Angreifer nutzen kompromittierte Systeme, um automatisierte Phishing-Kampagnen zu starten, sensible Informationen zu stehlen oder durch manipulierte Ausgaben ganze Prozesse zu manipulieren – unabhängig davon, ob es sich um Text-, Bild-, Audio- oder Code-Modelle handelt.
Bei LLMs verschärfen sich die Risiken zusätzlich: Gelangen zum Beispiel durch Data Poisoning verfälschte Informationen in den Trainingsprozess, wird das Modell dauerhaft beeinflusst. Wer diese schädlichen Daten nachträglich entfernen möchte, muss in der Praxis fast denselben Aufwand wie beim kompletten Neu-Training betreiben.
Zudem spielen bei KI-Anwendungen viele Ebenen zusammen: Die Ursache muss nicht unbedingt dort liegen, wo der Angreifer die Schwachstelle ausnutzt. Unternehmen, die nur reagieren, laufen so in eine Endlosschleife: Sie behandeln Symptome statt Ursachen – und das ist sowohl ineffizient als auch unsicher.
Das Prinzip „Secure-by-Design“ verlangt, dass Teams Sicherheitsmechanismen von Beginn an in die Entwicklung integrieren. Dieses Vorgehen gilt für jede Technologie, hat aber im Kontext von KI eine besondere Bedeutung. Statt Schadsoftware einzuschleusen, setzen Angreifer auf Prompt Injections, die das Modell zu unerwünschten Ausgaben bewegen.
Mit Data Poisoning greifen sie schon bei den Trainingsdaten an und durch Model Leakage stehlen sie das Modell selbst – konkret die sogenannten Weights, also die trainierten Parameter, die das Verhalten der KI bestimmen. Diese Bedrohungen betreffen besonders LLMs. Andere Risiken – etwa automatisierte Fake-Inhalte oder gezielte Täuschung durch generierte Bilder – betreffen GenAI insgesamt.
Zudem rückt Agentic AI in den Fokus. Autonome Agenten orchestrieren Ketten von LLM-Aufrufen und nutzen externe Tools oder APIs. Dadurch entstehen neue Angriffsflächen: Eine erfolgreiche Prompt Injection verschafft direkten Zugriff auf Systeme oder Datenbanken und Data Leakage kann eskalieren, wenn Agenten Informationen unkontrolliert weiterverarbeiten.
Wer Secure-by-Design ernst nimmt, muss Architekturen, Datenflüsse und Schnittstellen so konzipieren, dass potenzielle Angriffsflächen gar nicht erst entstehen. Dazu gehören geschützte API-Schnittstellen mit klaren Berechtigungen, die sorgfältige Prüfung von Datenquellen sowie die laufende Überwachung von Nutzereingaben.
Sicherheitsprozesse für KI-Anwendungen etablieren
Damit Secure-by-Design in der Praxis Wirkung entfaltet, müssen Unternehmen ihre Entwicklungsprozesse neu gestalten. Grundlage dafür ist ein strukturierter Ansatz wie der Secure Software Development Lifecycle (Secure SDLC). Dieses Modell verankert Sicherheit systematisch in allen Entwicklungsphasen – von der Datensammlung über das Training bis zum Rollout. Im Secure SDLC werden feste Kontrollpunkte, sogenannte Security-Gates, eingerichtet, an denen jede Phase verbindlich geprüft wird, bevor es weitergeht.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Realitätsnahe Angriffssimulationen haben dabei eine Schlüsselfunktion. Regelmäßige Red-Teaming-Simulationen, bei denen Sicherheitsteams als Angreifer agieren und die KI unter realistischen Bedingungen testen, decken bisher unentdeckte Schwachstellen auf. Mit der zunehmenden Verbreitung generativer KI-Systeme entwickeln sich auch die Testmethoden weiter.
Neben klassischen Penetrationstests gewinnen spezielle Verfahren an Bedeutung. LLM-Penetrationstests – auch „Adversarial Testing“ genannt – simulieren gezielt Angriffe wie Prompt Injections oder Manipulationen von Modellausgaben. Für Agentic AI gilt zusätzlich: Sicherheitsteams müssen auch die Orchestrierung von Agentenketten prüfen, da Angriffe hier besonders weitreichende Folgen haben.
Darüber hinaus müssen auch Schutzmechanismen in der Produktionsumgebung verankert werden. Monitoring-Systeme erkennen ungewöhnliche Abfragen bei LLMs und multimodalen Modellen. Logging-Mechanismen dokumentieren Angriffe nachvollziehbar. Wichtig ist: Sicherheit muss als kontinuierlicher Prozess etabliert werden.
Basis der Sicherheit: Automatisierung und Governance
Technische Maßnahmen allein genügen nicht, um das „Secure-by-Design“-Prinzip vollständig umzusetzen. Ebenso wichtig sind klare organisatorische Strukturen und verbindliche Prozesse. Entwicklungsteams müssen Sicherheitsprüfungen an definierten Kontrollpunkten automatisiert durchführen. Der Secure SDLC schafft hierfür eine solide Basis: Er fördert standardisierte Datenprüfungen, automatisierte Schwachstellenanalysen bei Code-Änderungen und obligatorische Sicherheitstests vor jedem Deployment. Dadurch geraten Sicherheitsfragen nicht ins Hintertreffen, wenn Zeit oder Budget knapp werden.
Auch Governance ist unverzichtbar. Eindeutige Verantwortlichkeiten für Sicherheitsentscheidungen, verbindliche Entwicklungsrichtlinien und transparente Dokumentation gewährleisten Nachvollziehbarkeit und reduzieren das Risiko von Fehlkonfigurationen. Automatisierte Prüfungen unterstützen Fachkräfte zusätzlich, minimieren ihren Aufwand und stellen konsistente Ergebnisse sicher. Sie laufen permanent im Hintergrund und dienen als Frühwarnsystem, das Auffälligkeiten erkennt, bevor größere Schäden entstehen.
Der Einsatz von Generative AI markiert einen Wendepunkt in der IT-Sicherheit. Firmen, die ihre Systeme erst im Nachhinein absichern, stoßen dabei schnell an ihre Grenzen. Secure-by-Design ist deshalb eine unverzichtbare Grundlage, um KI-Anwendungen zuverlässig und zukunftsfähig zu machen.
Wer Sicherheit konsequent in Architektur, Datenprozesse und Governance integriert, baut resiliente Systeme auf und sichert sich einen entscheidenden Vorsprung. Das gilt umso mehr mit Blick auf Agentic AI: Autonome Agenten erfordern eine vorausschauende Sicherheitsarchitektur, die Risiken eindämmt, bevor sie entstehen. In einem Markt, in dem Vertrauen über die Akzeptanz einer Technologie entscheidet, wird nachhaltige Sicherheit zum Erfolgsfaktor.
Über den Autor: Okay Güler ist Gründer und CEO von CLOUDYRION. Nachdem er im Banking und Automotive-Bereich Erfahrung als Ethical Hacker sammeln konnte, gründete Güler 2020 CLOUDYRION. Seine Motivation: Unternehmen zu helfen, die neuen Herausforderungen im Cyberspace zu bewältigen und Awareness für Secure-by-Design zu schaffen.