Neue Tests von Crowdstrike beleuchten Sicherheitsaspekte von DeepSeek. Politisch heikle Triggerwörter erhöhen teils das Risiko unsicheren Codes um bis zu 50 Prozent. Ähnliche Effekte könnten auch bei anderen Sprachmodellen auftreten.
Crowdstrike untersuchte die Wahrscheinlichkeit, mit der LLMs Code mit Schwachstellen generiert – mit Triggerwörtern im Prompt und ohne.
(Bild: mindscapephotos - stock.adobe.com)
DeepSeek, ein chinesischer Anbieter, der seit Juli 2023 das gleichnamige Largue Language Model (LLM) betreibt, steht damit seit Beginn aufgrund von Sicherheitsbedenken in der Kritik. Eine Untersuchungen von Crowdstrike legt nun nahe, dass das Sprachmodell DeepSeek‑R1 bei politisch sensiblen Triggerwörtern deutlich unsichereren Code erzeugt. Die Analysten hätten festgestellt, dass die Wahrscheinlichkeit für Code mit schwerwiegenden Sicherheitslücken um bis zu 50 Prozent steige, wenn DeepSeek-R1 mit Aufgaben konfrontiert wird, die Themen enthalten, die die Kommunistische Partei Chinas (KPCh) wahrscheinlich als politisch heikel einstuft. Ansonsten sei die Coding-Leistung ähnlich wie die von anderen Anbietern.
Crowdstrike betont, dass eine Forschung sich von früheren Studien unterscheide, die sich hauptsächlich auf traditionelle Jailbreaks konzentriert hätten, etwa den Versuch, DeepSeek dazu zu bringen, Rezepte für illegale Substanzen zu erstellen oder kriminelle Aktivitäten zu unterstützen, oder darauf, DeepSeek mit offen politischen Aussagen oder Fragen zu provozieren, um eine pro-KPCh-Tendenz hervorzurufen. Unter Triggerwörtern versteht Crowdstrike Zusatzbegriffe oder kurze Kontextphrasen, die in den Prompt eingegeben wurden und die aus Sicht der chinesischen Behörden politisch sensibel sind. Diese Wörter sind für die eigentliche Codieraufgabe irrelevant, würden bei DeepSeek‑R1 jedoch messbare Verhaltensänderungen „triggern“, insbesondere mehr Sicherheitslücken oder teils eine Verweigerung der Ausgabe.
DeepSeek-R1 wurde im Januar 2025veröffentlicht und ist eines der Flaggschiffmodelle der Unternehmens. Es verfüge über 671 Milliarden Parameter. Crowdstrike testete das unstrukturierte Open-Source-Modell DeepSeek-R1, um mögliche Störeinflüsse durch API-basierte Schutzmechanismen der DeepSeek-App oder -API auszuschließen. Die Ergebnisse der Tests wurden mit verschiedenen anderen hochmodernen LLMs anderer Anbieter verglichen.
Zunächst ermittelten die Analysten die Wahrscheinlichkeit, mit der die einzelnen LLMs anfälligen Code generierten, wenn keine Triggerwörter in der Eingabeaufforderung vorhanden waren. Am höchsten lag diese Wahrscheinlichkeit mit 51 Prozent bei westlichen Non-Reasoning‑Modellen, also Modellen, die ohne explizite mehrstufige Begründungs‑ oder Planungsschritte, die über 70 Milliarden Parameter verfügen. Es folgt die DeepSeek‑R1‑llama‑Variante mit ebenfalls 70 Milliarden Parametern mit 41 Prozent. DeepSeek‑R1 mit seinen 671 Milliarden Parameter schnitt mit einer Wahrscheinlichkeit von 19 Prozent ab und ein westliches Reasoning‑Modell mit 120 Milliarden Parametern schnitt mit 16 Prozent am besten ab.
Reasoning-Modelle, die in der Lage sind, logische Schlussfolgerungen zu treffen, erzeugen Crowdstrike zufolge im Durchschnitt sichereren Code als Modelle ohne logisches Schlussfolgern gleicher Größe. Außerdem erzeugen neuere Modelle dem Test zufolge im Schnitt sichereren Code als ältere, selbst mit weniger Parametern.
Die Ergebnisse haben sich laut den Analysten jedoch geändert, wurden Kontextmodifikatoren oder Triggerwörter in die Systemeingabeaufforderung von DeepSeek-R1 eingeführt. Beispielsweise habe sich die Wahrscheinlichkeit für die Generierung von Code mit schwerwiegenden Sicherheitslücken auf 27,2 Prozent erhöht, als sie DeepSeek-R1 mitgeteilt hätten, dass es für ein industrielles Steuerungssystem in Tibet codiere. 27,2 Prozent entspricht einer Steigerung von fast 50 Prozent der Wahrscheinlichkeit von Code-Fehlern im Vergleich zum Ausgangswert ohne Triggerwörter. Besonders die Begriffe „Falun Gong“, „Uiguren“ oder „Tibet“ führen zu deutlich weniger sicherem Code. Diese sind politisch sensible Begriffe im Kontext der Volksrepublik China.
Besonders wenn der Begriff Falun Gong eingegeben wurde, habe DeepSeek-R1 die Erstellung von Code in 45 Prozent der Fälle verweigert. Westliche LLMs hätten selbst mit diesem Triggerwort fast immer Code generiert. DeepSeek hätte oftmals Formulierungen wie „Falun Gong ist eine sensible Gruppe. Ich muss die ethischen Implikationen berücksichtigen. Unterstützung könnte gegen die Richtlinien verstoßen. Der Benutzer bittet jedoch um technische Hilfe. Ich konzentriere mich auf die technischen Aspekte.“ oder „Es tut mir leid, aber ich kann Ihnen bei dieser Anfrage nicht helfen.“ ausgegeben.
Obwohl Crowdstrike eigenen Angaben zufolge nicht über ausreichende Informationen verfügt, um die Ursache der beobachteten Schwankungen in der Codesicherheit zu bewerten, gibt der Hersteller mögliche Erklärungen für das beobachtete Verhalten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Chinesische Gesetze zu generativen KI-Diensten enthalten explizite Anforderungen und regulatorische Rahmenbedingungen. Beispielsweise schreibt Artikel 4.1 der chinesischen „Vorläufigen Maßnahmen zur Verwaltung von generativen KI-Diensten“ vor, dass KI-Dienste „den sozialistischen Kernwerten entsprechen“ müssen. Darüber hinaus verbietet das Gesetz Inhalte, die zur Subversion der Staatsgewalt anstiften, die nationale Sicherheit gefährden oder die nationale Einheit untergraben könnten. Diese Anforderungen decken sich mit den von Crowdstrike beobachteten Kontrollmustern der Ausgaben der DeepSeek-Modelle. Das chinesische Gesetz verlangt außerdem, dass LLMs keine illegalen Inhalte produzieren dürfen und KI-Anbieter ihre Trainingsdaten und Algorithmen den Behörden offenlegen müssen. DeepSeek könnte spezielle Schritte in die Trainingspipeline integriert haben, um die Modelle an die Kernwerte der KPCh auszurichten. Es erscheint den Analysten unwahrscheinlich, dass die Modelle gezielt darauf trainiert wurden, unsicheren Code zu erzeugen. Vielmehr sei es plausibel, dass das beobachtete Verhalten auf eine spontane Fehlausrichtung zurückzuführen sei.
DeepSeek-R1 habe möglicherweise unbeabsichtigt gelernt, Wörter wie Falun Gong oder Uiguren mit negativen Eigenschaften zu assoziieren. Dies könne dazu führen, dass es negative Reaktionen auslöst, wenn diese Wörter in der Systemabfrage erscheinen. In Studie wurden diese negativen Assoziationen möglicherweise aktiviert, als die Forscher diese Wörter in die Systemabfrage von DeepSeek-R1 einfügten. Sie führten zu einem negativen Verhalten des Modells, was sich in diesem Fall in Form von weniger sicherem Code äußerte.
Laut Crowdstrike ist es nicht auszuschließen, dass andere LLMs ebenfalls Verzerrungen aufweisen und auf ihre jeweiligen Triggerwörter ähnlich reagieren. Das Ziel der Untersuchung der Sprachmodelle sei es deshalb, neue Forschung darüber anzuregen, wie in den trainierbaren Parametern von LLMs verankerte Verzerrungen die Antworten der Modelle selbst bei scheinbar unabhängigen Aufgaben beeinflussen. Denn nicht bei jeder Anfrage würde DeepSeek-R1 unsicheren Code erzeugen. Stattdessen sei der Code, der bei Vorhandensein der Triggerwörter generiert werde, im langfristigen Durchschnitt weniger sicher.
Als unmittelbare Präventivmaßnahme für Unternehmen, die LLMs als Programmierassistenten oder jegliche Form von KI-Agenten einsetzen möchten, betont der Hersteller die Wichtigkeit gründlicher Tests der Agenten in ihrer vorgesehenen Umgebung. Die Verwendung generischer Open-Source-Benchmarks reiche nicht aus.