KI-gestützte Entwicklung steigert die Produktivität, doch eine Studie zeigt: Nach nur fünf Iterationen nehmen kritische Sicherheitslücken um 37,6 Prozent zu. Prompt-Injection-Angriffe, autonome Spionagekampagnen und verwundbare KI-Frameworks machen deutlich, dass Geschwindigkeit nicht vor Sicherheit gehen darf. Sieben Maßnahmen helfen, KI-Risiken zu begrenzen.
KI-gestützte Entwicklungstools versprechen Produktivitätsgewinne, doch Prompt-Injection-Angriffe und autonome Spionagekampagnen zeigen die wachsenden Risiken für Unternehmen.
Im Wettlauf, immer schneller neue, glänzende KI-Tools auszuliefern, machen Unternehmen potenziell auch Angreifern das Leben leichter. Die Herausforderung besteht darin, dass der Drang nach KI-getriebenen Produktivitätsgewinnen in den Vorstandsetagen mitunter schneller voranschreitet, als Sicherheitsteams Risiken angemessen bewerten und eindämmen können. Dies spiegelt das grundsätzliche Spannungsfeld zwischen Geschwindigkeit und Sicherheit bei Innovation wider.
Jüngste Vorfälle haben gezeigt, dass KI-gestützte Entwicklung – etwa sogenannte Vibe-Coding-Tools – Lücken in Sicherheitsprüfungen, Versionskontrolle und menschlicher Aufsicht offenlegen kann, insbesondere auf Plattformen, die sensible Daten verarbeiten. Die Schnelligkeit und Einfachheit dieser Werkzeuge kann ungewollt klassische Sicherheitskontrollen umgehen, auf die sich Organisationen jahrzehntelang verlassen haben.
Eine aktuelle Studie ergab, dass große Sprachmodelle (LLMs), die in mehreren Durchläufen Code iterativ verbessern, im Laufe der Zeit sogar neue Schwachstellen einführen können – selbst dann, wenn sie explizit angewiesen werden, die Sicherheit zu erhöhen. Forschende analysierten 400 Codebeispiele über 40 Verbesserungsrunden hinweg und stellten bereits nach fünf Iterationen einen Anstieg kritischer Sicherheitslücken um 37,6 Prozent fest.
Dennoch verdoppeln Unternehmen ihren Einsatz von KI-generiertem Code und Vibe-Coding-Tools. Microsofts CEO erklärte bereits im April, dass inzwischen bis zu 30 Prozent des Unternehmenscodes KI-generiert sind; Google meldet ähnliche Zahlen. Die angegebenen Produktivitätsgewinne sind beeindruckend – gleichzeitig ist jedoch mit einer Zunahme von Risiken durch schlecht geschriebenen Code zu rechnen. Und Angreifer beobachten diese Entwicklung sehr genau.
Die Prompt-Injection-Epidemie
Während Unternehmen KI-Produktivitätsgewinne feiern, haben Gegner einen neuen Angriffsvektor entdeckt, der zugleich elegant und verheerend ist: Prompt Injection. Diese Technik bringt KI-Systeme dazu, bösartige Anweisungen auszuführen, die in scheinbar harmlosen Inhalten versteckt sind – etwa in E-Mails, Webseiten, Dokumenten oder sogar in Code-Kommentaren.
Die Einführung von ChatGPT Atlas, OpenAIs KI-Browser (Oktober 2025), legte sofort systemische Schwachstellen offen. Sicherheitsforschende zeigten, dass versteckte Anweisungen in Webseiten den Browser manipulieren konnten, um Nutzerdaten abzusaugen oder Dateien in Google Drive zu löschen. OpenAIs Chief Information Security Officer, Dane Stuckey, räumte öffentlich ein, dass Prompt-Injection-Angriffe plattformübergreifend weiterhin ein weitgehend „ungelöstes Sicherheitsproblem“ darstellen.
Aktuelle Vorfälle zeigen, dass die Bedrohung keineswegs theoretisch ist. Im November 2025 deckten Forschende auf, dass die weit verbreitete KI-Plattform Now Assist von ServiceNow anfällig für sogenannte Second-Order Prompt-Injection-Angriffe war. Angreifer mit minimalen Systemrechten konnten bösartige Prompts in Ticketbeschreibungen platzieren, wodurch höher privilegierte KI-Agenten dazu gebracht wurden, sensible Daten zu kopieren, Datensätze zu verändern und Berechtigungen auszuweiten – trotz aktivierter Schutzmaßnahmen gegen Prompt Injection.
Der Angriff war erfolgreich, weil KI-Agenten standardmäßig eigenständig andere Agenten entdecken und rekrutieren können. Ein scheinbar harmloses Support-Ticket wurde so zu einem verdeckten Befehl, der das gesamte KI-Agenten-Ökosystem gegen sich selbst richtete.
Sollte es noch Zweifel an der Reife KI-gestützter Angriffe gegeben haben, beseitigte sie Anthropic im November 2025 endgültig. Das Unternehmen entdeckte mit hoher Sicherheit eine chinesische, staatlich unterstützte Spionagekampagne, die Claude Code nutzte, um Cyberangriffe mit bislang unerreichter Autonomie durchzuführen.
Die Angreifer setzten die KI gegen rund 30 globale Ziele ein und waren in mehreren Fällen erfolgreich. Die KI identifizierte Sicherheitslücken, schrieb Exploit-Code, sammelte Zugangsdaten, exfiltrierte geheime Daten, richtete Hintertüren ein und erstellte umfassende Angriffsdokumentationen – und erledigte dabei etwa 80–90 Prozent der Kampagne mit minimalem menschlichen Eingreifen. Menschen griffen lediglich an 4 bis 6 kritischen Entscheidungspunkten pro Angriff ein.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Es handelte sich nicht um einen Einzelfall. Kritische Schwachstellen in KI-Inferenz-Frameworks von Meta, Nvidia und Microsoft verdeutlichen das systemische Risiko im gesamten KI-Ökosystem. Forschende stellten fest, dass Entwickler verwundbare Code-Muster projektübergreifend kopiert hatten – ein als „ShadowMQ-Pattern“ bezeichneter Effekt, der sich von Metas Llama-Framework über vLLM bis hin zu Nvidia TensorRT-LLM und weitere Projekte ausbreitete.
Ursache war unsichere Deserialisierungslogik über Pythons pickle-Modul in Kombination mit netzwerkoffenen ZeroMQ-Sockets. Einmal in weit verbreitete Frameworks integriert, wanderte die Schwachstelle in nachgelagerte KI-Stacks von Unternehmen weiter, die sensible Prompts, Modelldaten und Kundendaten verarbeiten. Eine einzige verwundbare Komponente kann so ein gesamtes Ökosystem infizieren – insbesondere, wenn Entwicklungsgeschwindigkeit gegenüber Sicherheitsprüfungen priorisiert wird.
Zukunftsfähige Sicherheit erfordert ein grundsätzliches Umdenken bei der Einführung von KI – vor allem bei kundenorientierten Anwendungen, in denen sensible Daten und geschäftliche Auswirkungen zusammentreffen.
Sicherheit von Anfang an („Shift Left“): Sicherheit darf nicht erst nachträglich ergänzt werden. Sicherheitsprüfungen müssen in die frühesten Entwicklungsphasen integriert werden. KI-generierter Code sollte standardmäßig als nicht vertrauenswürdig gelten. Automatisierte Security-Scanner wie OWASP ZAP, Snyk oder SonarQube sollten sämtlichen KI-Code vor dem Einsatz prüfen.
Instruktions-Hierarchien einführen: Führende KI-Anbieter entwickeln Methoden, mit denen Modelle zwischen vertrauenswürdigen Nutzeranweisungen und nicht vertrauenswürdigen externen Inhalten unterscheiden können. Unternehmen sollten ähnliche Architekturen nutzen, um externe Datenquellen klar zu kennzeichnen und ihren Einfluss auf das KI-Verhalten zu begrenzen.
Zero-Trust für KI-Agenten anwenden: KI-Agenten benötigen umfangreiche Zugriffsrechte, um produktiv zu arbeiten – dieser Zugriff muss jedoch permanent geprüft und strikt eingeschränkt werden. Prinzip der minimalen Rechtevergabe, verpflichtende menschliche Freigaben für sensible Aktionen und Anomalieerkennung für ungewöhnliche Aktivitäten sind unerlässlich.
KI-Systeme konsequent „red-teamen“: Regelmäßige Angreifertests speziell gegen KI-Komponenten sollten Standard sein: Simulationen von Prompt-Injection-Angriffen, Tests zu möglichen Datenabflüssen und Prüfungen, wie KI-Agenten auf versteckte Schadbefehle reagieren.
Anbietersicherheit als Kernanforderung: Externe KI-Tools müssen dieselben Sicherheitsstandards erfüllen wie interne Systeme. Erforderlich sind gründliche Risikoanalysen, kontinuierliches Monitoring sowie Echtzeit-Transparenz über Systemverhalten und Datenflüsse von Drittanbietern.
Mensch im Entscheidungsprozess („Human-in-the-Loop“): Bei sicherheitskritischen Abläufen – etwa Zugriff auf sensible Daten, Systemänderungen oder externe Kommunikation – ist menschliche Bestätigung Pflicht. Ziel ist nicht, KI-Produktivität zu bremsen, sondern bewusste Kontrollpunkte einzubauen, an denen Sicherheitsprüfungen unverzichtbar sind.
Kontinuierliche Schulungen und Sensibilisierung: Entwickler und Anwender müssen KI-spezifische Sicherheitsrisiken verstehen: sauberes Prompt-Engineering, Erkennen KI-bedingter Schwachstellen und klares Eskalationsverhalten. Schulungsprogramme sollten KI als neue Risikoklasse behandeln, die spezielles Know-how erfordert.
Unternehmen müssen sich nicht zwischen vollständigem Stopp der KI-Einführung und unbegrenztem Risiko entscheiden. Vielmehr gilt es, Sicherheitspraktiken direkt in KI-gestützte Entwicklungsabläufe zu integrieren und Schutzmechanismen zu schaffen, die mit dem Tempo der Innovation Schritt halten. Dazu gehören angepasste Sicherheitsprüfungen für KI-Code, automatisierte Kontrollen und gezielte menschliche Überwachung an kritischen Punkten – ohne die angestrebten Effizienzgewinne zu blockieren.
Die entscheidende Frage lautet, ob Organisationen ihre Sicherheitsreife schnell genug steigern können, um mit der Geschwindigkeit der KI-Einführung mitzuhalten – bevor Angreifer die im großen Stil entstehenden Schwachstellen systematisch ausnutzen. Wer dieses Gleichgewicht erreicht, verschafft sich einen echten Wettbewerbsvorteil.
Über den Autor: John Mutuski ist Chief Security Information Officer bei Pipedrive.