DeepSeek ist ein chinesisches KI-Start-up. Besonderes Aufsehen erregte sein Anfang 2025 vorgestelltes Open-Source-Modell „R1“ – doch nicht nur wegen seiner enormen Leistungsfähigkeit, sondern auch wegen Datenschutz- und Sicherheitsbedenken.
DeepSeek ist praktisch: Man kann sich unkompliziert Fragen beantworten lassen, Bilder generien oder damit komplizierte Matheaufgaben lösen. Doch ist DeepSeek sicher? Und was macht das chinesische Unternehmen mit unseren Daten?
(Bild: Midjourney / KI-generiert)
DeepSeek ist der Name eines Start-ups aus China, das im Bereich der Künstlichen Intelligenz tätig ist. Bekanntheit erlangte das Unternehmen im Januar 2025 durch die Veröffentlichung seines leistungsfähigen und gleichzeitig ressourcenfreundlichen KI-Reasoning-Sprachmodells „DeepSeek-R1“.
DeepSeek wurde im Jahr 2023 von Liang Wenfeng gegründet, der auch CEO des Unternehmens ist. Der Firmensitz befindet sich in Hangzhou, Zhejiang in China. Der Fokus des Start-ups liegt auf der Entwicklung und Vermarktung von KI-Modellen und fortschrittlichen Large Language Models (LLMs). Finanziert wird DeepSeek vom 2015 gegründeten chinesischen Hedgefonds High-Flyer. Wenfeng ist einer der Mitgründer dieses Hedgefonds. Die DeepSeek-Modelle stehen unter Open-Source-Lizenz und sind somit kostenlos, zumindest über die App und den Webbrowser. Über die API ist ein programmatischer Zugang zum Chatbot aus eigenen Anwendungen heraus möglich. Die Abrechnung des API-Zugangs erfolgt über die Anzahl der Input- und Output-Token.
Nutzer können DeepSeek auf lokalen Rechnern installieren und für beliebige Zwecke einsetzen. Das Unternehmen bietet auch eine gehostete Chatbot-Version seiner aktuellen Modelle „V3“ und „R1“ an, auf die per App, Website oder API zugegriffen werden kann. Die wichtigsten von DeepSeek bisher veröffentlichten KI-Modelle sind:
die Modelle der Serie DeepSeek-Coder, die Entwicklern bei der Generierung von Code in verschiedenen Programmiersprachen helfen
DeepSeek-LLM für allgemeine Sprachverarbeitungsaufgaben
DeepSeek-Math, welches speziell für mathematische Aufgaben entwickelt wurde und in der Lage ist, logische Schlussfolgerungen zu ziehen und Problemlösungen zu liefern
DeepSeek-R1, die aktuellste und derzeit leistungsstärkste Version von DeepSeek, die auf V3 basiert. R1 ist ein sogenanntes Mixture-of-Experts-Reasoningmodell. MoE ist eine Architektur im Bereich der künstlichen neuronalen Netzwerke, die die Effizienz und Skalierbarkeit von großen Sprachmodellen verbessert. Reasoning bedeutet, dass das Sprachmodell darauf ausgelegt ist, komplexe kognitive Aufgaben, die über bloße Texterzeugung hinausgehen, zu bearbeiten.
DeepSeek-V3 ist ebenfalls ein MoE-basiertes Modell, welches über mehr als 600 Milliarden Trainings-Parameter verfügt und damit die Basis der Entwicklung von DeepSeek darstellt.
Ende Januar 2025 veröffentlichte DeepSeek noch das multimodale KI-Modell Janus-Pro, das hinsichtlich seiner Bildgenerierungsfähigkeiten vergleichbar mit DALL-E von OpenAI oder Stable Diffusion von StabilityAI ist. Darüber hinaus plante DeepSeek die Veröffentlichung von R2 bereits für Anfang Mai 2025. Wie Reuters mitteilte, hätten jedoch zwei mit dem Unternehmen vertraute Personen bekannt gegeben, dass Version 2 des Reasoning-Modells nun so früh wie möglich erscheinen soll. Details nannten die Personen jedoch nicht.
Wie vergleichbare, große Sprachmodelle von OpenAI, Google, Anthropic oder Meta basiert R1 auf einem künstlichen neuronalen Netzwerk und der ursprünglich von Google entwickelten Transformer-Architektur. Diese Art von Sprachmodell wird mit großen Textmengen trainiert und kann anschließend Texteingaben und Anweisungen verstehen, interpretieren und mithilfe von Wahrscheinlichkeiten für bestimmte Wortfolgen sinnvolle Antworten generieren. Ziel der Transformer-Architektur ist es, das Training und die Datenverarbeitung und -wiedergabe möglichst effizient zu gestalten.
R1 wurde auf Basis des DeepSeek-V3-Modells entwickelt und basiert wie R1 auf der Mixture-of-Experts-Architektur. Innerhalb dieser Architektur sind verschiedene Experteneinheiten in Form von Trainingsdaten miteinander kombiniert, die jeweils für bestimmte Aufgabenstellungen genutzt werden. So sind von den circa 685 Milliarden Parametern des Modells immer nur ein Bruchteil gleichzeitig aktiv. Dadurch ist der Ressourcenbedarf zwar deutlich reduziert, doch diese Architektur schwächt Kritikern zufolge die Sicherheit. Denn durch die Interaktion mit den Experteneinheiten können neue Angriffspunkte entstehen. Außerdem sorgt die dynamische Aktivierung der Experteneinheiten für unvorhersehbares Verhalten, mit dem Cyberangreifer DeepSeek manipulieren könnten. Auch der quelloffene Code ermöglicht Missbrauch. Denn den Open-Source-Code von DeepSeek kann jeder einsehen und damit experimentieren, Sicherheitslücken entdecken und ausnutzen.
Neben diesen grundlegenden Sicherheitsbedenken fragen sich Kritiker, aber auch Nutzer: Was macht DeepSeek mit meinen Daten?
In der Datenschutzerklärung von DeepSeek erläutert das Unternehmen, welche Daten es sammelt. Darüber wo und wie lange DeepSeek Nutzerdaten speichert, liefert es kaum Informationen. Die Datenspeicherung ist nach DSGVO zulässig, aber nur solange die Speicherung dieser Daten für die Zwecke, für die sie erhoben wurden, notwendig ist. Das chinesische Unternehmen schreibt, dass es Daten so lange aufbewahrt, wie es für die Bereitstellung der Dienste erforderlich ist. Aber auch, wenn DeepSeek ein berechtigtes Geschäftsinteresse an der Datenspeicherung hat, zum Beispiel für die Verbesserung und Entwicklung der eigenen Dienste. Grundsätzlich erlaubt die DSGVO die Verarbeitung von Daten zur Wahrung von berechtigtem Interesse. Hierbei muss jedoch abgewogen werden, ob die Interessen oder Grundrechte zum Schutz von personenbezogenen Daten der betroffenen Personen überwiegen.
Was den Standort der Server angeht, enthält die Erklärung nur die Information, dass die erfassten Daten auch auf Servern gespeichert werden können, die außerhalb des Landes liegen, in dem ein Nutzer lebt. Grundsätzlich würden die Daten auf „sicheren“ Servern in der Volksrepublik China gespeichert. Entsprechende Datenschutzabkommen zwischen Deutschland und China gibt es allerdings nicht.
Aktuell führen sieben deutsche Landesdatenschutzbehörden ein Prüfverfahren gegen DeepSeek durch. Sie vermuten einen Verstoß gegen Artikel 27, Absatz 1 der DSGVO. Demnach hat jeder Verantwortliche, der in der EU Dienstleistungen anbietet, aber dort nicht ansässig ist, einen Vertreter innerhalb der EU zu benennen. Die italienische Regierung hat bereits Ende Januar die Verarbeitung italienischer Benutzerdaten gestoppt. In Südkorea ist DeepSeek verboten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Das R1-Modell gilt als absolute Neuheit. Denn es ist auf Ressourceneffizienz optimiert und soll in Entwicklung, Training und Betrieb nur einen Bruchteil an Rechenleistung und Energie vergleichbarer Modelle benötigen. DeepSeek gibt an, dass für das Training nur 2.048 Nvidia-GPUs vom Typ „H800“ notwendig waren. Trotz des geringen Ressourcenbedarfs erreicht das R1-Modell ähnliche Leistungen wie die Modelle aktuell großer KI-Player.
Die Versionen DeepSeek-R1, OpenAI-o1-1217, DeepSeek-R1-32B und OpenAI-o1-mini erzielen ähnliche Ergebnisse.
(Bild: Vogel IT-Medien GmbH)
In verschiedenen Benchmarks erreicht R1 ähnliche Messwerte wie das aktuelle OpenAI-Topmodell „o1“ oder übertrifft es sogar. Getestet wurde DeepSeek von der Online-Lernplattform Datacamp unter anderem mit den Benchmarks AIME 2024 sowie MATH-500 für Mathematik, Codeforces für algorithmische Herausforderungen, GPQA Diamond für Physikfragen und MMLU (Massive Multitask Language Understanding) für allgemeine Sprach- und Wissensfähigkeiten.
OpenAI o1 hat den Ergebnissen zufolge leichte Vorteile in Physik und allgemeinem Sprachverständnis, während DeepSeek-R1 in Mathematik und Software-Engineering führend ist. Insgesamt sind die beiden Modelle fast gleich auf. Doch diese Daten beziehen sich bisher nur auf die Leistung.
Wie sicher ist DeepSeek?
Denn während sich DeepSeek auf Leistungsebene mit Big Playern wie OpenAI erfolgreich messen kann, weißt die chinesische KI in Sachen Datensicherheit verheerende Mängel auf. Die Modelle R1 und V3 scheinen an einigen Stellen Schwachstellen zu besitzen und vulnerabel zu sein. Den Modellen können teils gefährliche oder für missbräuchliche Zwecke nutzbare Inhalte entlockt werden.
Bei einer Sicherheits-Untersuchung von Cisco hat DeepSeek R1 gravierende Mängel offenbart. Die Sicherheitsforscher sind in der Lage gewesen, das LLM mit einer Erfolgsquote von 100 Prozent zu jailbreaken. OpenAI o1 hatte hingegen eine Quote von 26 Prozent und ist damit um einiges sicherer. Dazu kommt, dass eine Datenbank von DeepSeek mit sensiblen Daten zeitweise offen im Netz verfügbar war.
Angriffserfolgsrate beliebter Large Language Models
(Bild: Cisco)
Außerdem fehlt die Transparenz seitens DeepSeek in Bezug auf die Trainingsdaten. Die Modelle stehen zwar unter Open-Source-Lizenz, doch es ist weitgehend unbekannt, mit welchen Daten sie trainiert wurden. Bezüglich der von DeepSeek veröffentlichten Angaben zu den für das Training eingesetzten Hardware-Ressourcen gibt es ebenfalls einige Zweifel. Hinzukommt, dass die Modelle zensiert sind, wenn es um Inhalte geht, die Kritik an China üben.