Was ist DeepSeek und wie funktioniert die KI? DeepSeek, das Datenschutz-Debakel

Von Dipl.-Ing. (FH) Stefan Luber und Marvin Djondo-Pacham 6 min Lesedauer

Anbieter zum Thema

DeepSeek ist ein chinesisches KI-Start-up. Besonderes Aufsehen erregte sein Anfang 2025 vorgestelltes Open-Source-Modell „R1“ – doch nicht nur wegen seiner enormen Leistungsfähigkeit, sondern auch wegen Datenschutz- und Sicherheitsbedenken.

DeepSeek ist praktisch: Man kann sich unkompliziert Fragen beantworten lassen, Bilder generien oder damit komplizierte Matheaufgaben lösen. Doch ist DeepSeek sicher? Und was macht das chinesische Unternehmen mit unseren Daten?(Bild:  Midjourney / KI-generiert)
DeepSeek ist praktisch: Man kann sich unkompliziert Fragen beantworten lassen, Bilder generien oder damit komplizierte Matheaufgaben lösen. Doch ist DeepSeek sicher? Und was macht das chinesische Unternehmen mit unseren Daten?
(Bild: Midjourney / KI-generiert)

DeepSeek ist der Name eines Start-ups aus China, das im Bereich der Künstlichen Intelligenz tätig ist. Bekanntheit erlangte das Unternehmen im Januar 2025 durch die Veröffentlichung seines leistungsfähigen und gleichzeitig ressourcenfreundlichen KI-Reasoning-Sprachmodells „DeepSeek-R1“.

Wer steckt hinter DeepSeek?

DeepSeek wurde im Jahr 2023 von Liang Wenfeng gegründet, der auch CEO des Unternehmens ist. Der Firmensitz befindet sich in Hangzhou, Zhejiang in China. Der Fokus des Start-ups liegt auf der Entwicklung und Vermarktung von KI-Modellen und fortschrittlichen Large Language Models (LLMs). Finanziert wird DeepSeek vom 2015 gegründeten chinesischen Hedgefonds High-Flyer. Wenfeng ist einer der Mitgründer dieses Hedgefonds. Die DeepSeek-Modelle stehen unter Open-Source-Lizenz und sind somit kostenlos, zumindest über die App und den Webbrowser. Über die API ist ein programmatischer Zugang zum Chatbot aus eigenen Anwendungen heraus möglich. Die Abrechnung des API-Zugangs erfolgt über die Anzahl der Input- und Output-Token.

Nutzer können DeepSeek auf lokalen Rechnern installieren und für beliebige Zwecke einsetzen. Das Unternehmen bietet auch eine gehostete Chatbot-Version seiner aktuellen Modelle „V3“ und „R1“ an, auf die per App, Website oder API zugegriffen werden kann. Die wichtigsten von DeepSeek bisher veröffentlichten KI-Modelle sind:

  • die Modelle der Serie DeepSeek-Coder, die Entwicklern bei der Generierung von Code in verschiedenen Programmiersprachen helfen
  • DeepSeek-LLM für allgemeine Sprachverarbeitungsaufgaben
  • DeepSeek-Math, welches speziell für mathematische Aufgaben entwickelt wurde und in der Lage ist, logische Schlussfolgerungen zu ziehen und Problemlösungen zu liefern
  • DeepSeek-R1, die aktuellste und derzeit leistungsstärkste Version von DeepSeek, die auf V3 basiert. R1 ist ein sogenanntes Mixture-of-Experts-Reasoningmodell. MoE ist eine Architektur im Bereich der künstlichen neuronalen Netzwerke, die die Effizienz und Skalierbarkeit von großen Sprachmodellen verbessert. Reasoning bedeutet, dass das Sprachmodell darauf ausgelegt ist, komplexe kognitive Aufgaben, die über bloße Texterzeugung hinausgehen, zu bearbeiten.
  • DeepSeek-V3 ist ebenfalls ein MoE-basiertes Modell, welches über mehr als 600 Milliarden Trainings-Parameter verfügt und damit die Basis der Entwicklung von DeepSeek darstellt.

Ende Januar 2025 veröffentlichte DeepSeek noch das multimodale KI-Modell Janus-Pro, das hinsichtlich seiner Bildgenerierungsfähigkeiten vergleichbar mit DALL-E von OpenAI oder Stable Diffusion von StabilityAI ist. Darüber hinaus plante DeepSeek die Veröffentlichung von R2 bereits für Anfang Mai 2025. Wie Reuters mitteilte, hätten jedoch zwei mit dem Unternehmen vertraute Personen bekannt gegeben, dass Version 2 des Reasoning-Modells nun so früh wie möglich erscheinen soll. Details nannten die Personen jedoch nicht.

DeepSeeks Code sorgt für Sicherheitsbedenken

Wie vergleichbare, große Sprachmodelle von OpenAI, Google, Anthropic oder Meta basiert R1 auf einem künstlichen neuronalen Netzwerk und der ursprünglich von Google entwickelten Transformer-Architektur. Diese Art von Sprachmodell wird mit großen Textmengen trainiert und kann anschließend Texteingaben und Anweisungen verstehen, interpretieren und mithilfe von Wahrscheinlichkeiten für bestimmte Wortfolgen sinnvolle Antworten generieren. Ziel der Transformer-Architektur ist es, das Training und die Datenverarbeitung und -wiedergabe möglichst effizient zu gestalten.

R1 wurde auf Basis des DeepSeek-V3-Modells entwickelt und basiert wie R1 auf der Mixture-of-Experts-Architektur. Innerhalb dieser Architektur sind verschiedene Experteneinheiten in Form von Trainingsdaten miteinander kombiniert, die jeweils für bestimmte Aufgabenstellungen genutzt werden. So sind von den circa 685 Milliarden Parametern des Modells immer nur ein Bruchteil gleichzeitig aktiv. Dadurch ist der Ressourcenbedarf zwar deutlich reduziert, doch diese Architektur schwächt Kritikern zufolge die Sicherheit. Denn durch die Interaktion mit den Experteneinheiten können neue Angriffspunkte entstehen. Außerdem sorgt die dynamische Aktivierung der Experteneinheiten für unvorhersehbares Verhalten, mit dem Cyberangreifer DeepSeek manipulieren könnten. Auch der quelloffene Code ermöglicht Missbrauch. Denn den Open-Source-Code von DeepSeek kann jeder einsehen und damit experimentieren, Sicherheitslücken entdecken und ausnutzen.

Was macht DeepSeek mit meinen Daten?

Neben diesen grundlegenden Sicherheitsbedenken fragen sich Kritiker, aber auch Nutzer: Was macht DeepSeek mit meinen Daten?

In der Datenschutzerklärung von DeepSeek erläutert das Unternehmen, welche Daten es sammelt. Darüber wo und wie lange DeepSeek Nutzerdaten speichert, liefert es kaum Informationen. Die Datenspeicherung ist nach DSGVO zulässig, aber nur solange die Speicherung dieser Daten für die Zwecke, für die sie erhoben wurden, notwendig ist. Das chinesische Unternehmen schreibt, dass es Daten so lange aufbewahrt, wie es für die Bereitstellung der Dienste erforderlich ist. Aber auch, wenn DeepSeek ein berechtigtes Geschäftsinteresse an der Datenspeicherung hat, zum Beispiel für die Verbesserung und Entwicklung der eigenen Dienste. Grundsätzlich erlaubt die DSGVO die Verarbeitung von Daten zur Wahrung von berechtigtem Interesse. Hierbei muss jedoch abgewogen werden, ob die Interessen oder Grundrechte zum Schutz von personenbezogenen Daten der betroffenen Personen überwiegen.

Was den Standort der Server angeht, enthält die Erklärung nur die Information, dass die erfassten Daten auch auf Servern gespeichert werden können, die außerhalb des Landes liegen, in dem ein Nutzer lebt. Grundsätzlich würden die Daten auf „sicheren“ Servern in der Volksrepublik China gespeichert. Entsprechende Datenschutzabkommen zwischen Deutschland und China gibt es allerdings nicht.

Aktuell führen sieben deutsche Landesdatenschutzbehörden ein Prüfverfahren gegen DeepSeek durch. Sie vermuten einen Verstoß gegen Artikel 27, Absatz 1 der DSGVO. Demnach hat jeder Verantwortliche, der in der EU Dienstleistungen anbietet, aber dort nicht ansässig ist, einen Vertreter innerhalb der EU zu benennen. Die italienische Regierung hat bereits Ende Januar die Verarbeitung italienischer Benutzerdaten gestoppt. In Südkorea ist DeepSeek verboten.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

DeepSeek vs ChatGPT (OpenAI)

Das R1-Modell gilt als absolute Neuheit. Denn es ist auf Ressourceneffizienz optimiert und soll in Entwicklung, Training und Betrieb nur einen Bruchteil an Rechenleistung und Energie vergleichbarer Modelle benötigen. DeepSeek gibt an, dass für das Training nur 2.048 Nvidia-GPUs vom Typ „H800“ notwendig waren. Trotz des geringen Ressourcenbedarfs erreicht das R1-Modell ähnliche Leistungen wie die Modelle aktuell großer KI-Player.

Die Versionen DeepSeek-R1, OpenAI-o1-1217, DeepSeek-R1-32B und OpenAI-o1-mini erzielen ähnliche Ergebnisse.(Bild:  Vogel IT-Medien GmbH)
Die Versionen DeepSeek-R1, OpenAI-o1-1217, DeepSeek-R1-32B und OpenAI-o1-mini erzielen ähnliche Ergebnisse.
(Bild: Vogel IT-Medien GmbH)

In verschiedenen Benchmarks erreicht R1 ähnliche Messwerte wie das aktuelle OpenAI-Topmodell „o1“ oder übertrifft es sogar. Getestet wurde DeepSeek von der Online-Lernplattform Datacamp unter anderem mit den Benchmarks AIME 2024 sowie MATH-500 für Mathematik, Codeforces für algorithmische Herausforderungen, GPQA Diamond für Physikfragen und MMLU (Massive Multitask Language Understanding) für allgemeine Sprach- und Wissensfähigkeiten.

OpenAI o1 hat den Ergebnissen zufolge leichte Vorteile in Physik und allgemeinem Sprachverständnis, während DeepSeek-R1 in Mathematik und Software-Engineering führend ist. Insgesamt sind die beiden Modelle fast gleich auf. Doch diese Daten beziehen sich bisher nur auf die Leistung.

Wie sicher ist DeepSeek?

Denn während sich DeepSeek auf Leistungsebene mit Big Playern wie OpenAI erfolgreich messen kann, weißt die chinesische KI in Sachen Datensicherheit verheerende Mängel auf. Die Modelle R1 und V3 scheinen an einigen Stellen Schwachstellen zu besitzen und vulnerabel zu sein. Den Modellen können teils gefährliche oder für missbräuchliche Zwecke nutzbare Inhalte entlockt werden.

Bei einer Sicherheits-Untersuchung von Cisco hat DeepSeek R1 gravierende Mängel offenbart. Die Sicherheitsforscher sind in der Lage gewesen, das LLM mit einer Erfolgsquote von 100 Prozent zu jailbreaken. OpenAI o1 hatte hingegen eine Quote von 26 Prozent und ist damit um einiges sicherer. Dazu kommt, dass eine Datenbank von DeepSeek mit sensiblen Daten zeitweise offen im Netz verfügbar war.

Angriffserfolgsrate beliebter Large Language Models(Bild:  Cisco)
Angriffserfolgsrate beliebter Large Language Models
(Bild: Cisco)

Außerdem fehlt die Transparenz seitens DeepSeek in Bezug auf die Trainingsdaten. Die Modelle stehen zwar unter Open-Source-Lizenz, doch es ist weitgehend unbekannt, mit welchen Daten sie trainiert wurden. Bezüglich der von DeepSeek veröffentlichten Angaben zu den für das Training eingesetzten Hardware-Ressourcen gibt es ebenfalls einige Zweifel. Hinzukommt, dass die Modelle zensiert sind, wenn es um Inhalte geht, die Kritik an China üben.

(ID:50312936)