Datenschutz bei LLMs ChatGPT, Gemini und Co. unter der Lupe: Welche KI schnüffelt am meisten?

Von Susanne Braun 3 min Lesedauer

Anbieter zum Thema

Die Datenschutz-Analysten von Incogni haben anhand verschiedener Kriterien bekannte Large-Language-Modelle darauf untersucht, wie sicher Ihre privaten Daten sind. Im Ranking gewinnen Le Chat, ChatGPT und Grok, weil sie am wenigsten in die Privatsphäre der Nutzer eingreifen. Gemini, DeepSeek und Meta AI schnüffeln hingegen ausgiebig.

KI für den Alltagsgebrauch ist sehr neugierig, aber manche LLMs schnüffeln mehr als andere.(Bild:  Dall-E / KI-generiert)
KI für den Alltagsgebrauch ist sehr neugierig, aber manche LLMs schnüffeln mehr als andere.
(Bild: Dall-E / KI-generiert)

Künstliche Intelligenz ist im Alltag der meisten Menschen auf diesem Planeten angekommen und oft sogar so subtil, dass die meisten das noch nicht einmal bemerken. Klar, Sprachassistenten, Textgeneratoren oder Recherchehelfer werden von den Nutzern bewusst angesteuert. KI-Suchen in Browsern oder Apps hingegen sind oft weniger eindeutig zu erkennen. Je selbstverständlicher mit Tools wie ChatGPT, Copilot oder Gemini interagiert wird, desto drängender wird eine Antwort auf die Frage: Was passiert mit den Daten der Nutzer?

Das auf Datenschutz spezialisierte Unternehmen Incogni hat im Rahmen des Privacy-Ranking-Reports 2025 neun führende Large Language Models (LLMs) unter die Lupe genommen. Dazu zählen ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Meta AI, Grok (xAI), Le Chat (Mistral AI), DeepSeek, Claude (Anthropic) und Pi (Inflection AI). Bewertet wurde dabei nach einem eigens entwickelten Privacy-Ranking, das elf Kriterien umfasst, die wieder in drei zentrale Kategorien eingeteilt sind: Datenerhebung für das Training, Transparenz sowie Datenverwendung und -weitergabe.

Bildergalerie
Bildergalerie mit 8 Bildern

Klare Sieger: Le Chat, ChatGPT und Grok

Am besten schneidet „Le Chat“ von Mistral AI ab. Das Modell erhebt laut Incogni vergleichsweise wenige Nutzerdaten und bietet eine sehr datensparsame Grundlage, und zwar sowohl in der Trainingsphase als auch im Livebetrieb. Knapp dahinter folgt ChatGPT von OpenAI. Das mag nun viele KI-Kritiker der ersten Stunde verwundern, doch der Dienst punktet hauptsächlich mit Transparenz.

Nutzer können in ihrem Account gezielt festlegen, ob ihre Chats zur Weiterentwicklung des Modells verwendet werden dürfen, und bei deaktiviertem Verlauf wird die Speicherung unterbunden. Das ist längst nicht in jedem LLM der Fall. Platz drei belegt schließlich Grok von xAI (Elon Musks KI-Venture), das ebenfalls durch transparente Datenschutzpraktiken überzeugt.

Abgeschlagen: Gemini, Copilot, Meta AI

Weniger erfreulich fällt das Ergebnis für andere prominente Anbieter aus. Meta AI landet überraschend auf dem letzten Platz des Rankings, sogar noch hinter dem chinesischen Modell von DeepSeek. Meta AI sammelt laut Incogni umfassend Daten, ohne den Nutzern eindeutige Opt-out-Möglichkeiten zu bieten. Auch Google Gemini und Microsoft Copilot rangieren weit hinten und das laut der Incogni-Studie nicht zuletzt auch, weil sie Trainingsdaten aus Nutzereingaben ziehen und über die Verwendung kaum proaktiv informieren.

Methode mit Tiefgang

Die Analysten von Incogni gewichten die Kriterien nicht gleich: Die Kategorie „Datenverwendung und -weitergabe“, also die Frage, was mit persönlichen Informationen passiert, sobald sie erhoben wurden, floss mit 50 Prozent in die Gesamtbewertung ein. Die Kategorien „Transparenz“ (30 Prozent) und „Trainingsdaten“ (20 Prozent) rundeten das Bild ab. Nur vier der neun getesteten Tools ermöglichen überhaupt, Nutzerdaten aktiv vom Training auszuschließen, darunter ChatGPT, Grok, Le Chat und Copilot. Bei Gemini, DeepSeek, Pi AI und Meta AI ist das nicht möglich. Für Claude heißt es, dass Nutzerdaten niemals für das Training der Modelle genutzt wurden.

Das Ranking zeigt deutlich, dass Datenschutz in der Welt der künstlichen Intelligenz alles andere als Standard ist. Zwischen einem klaren Opt-out und einer lückenhaften Datenschutzerklärung liegen Welten und auch bei Big-Tech-Anbietern. Die Analysten von Incogni nehmen an, dass das Problem unter anderem darin besteht, dass bereits bestehende Datenschutzerklärungen der Unternehmen über KI-Angebote gestülpt werden, statt dass sie gezielt für den Dienst entworfen und angeboten werden. 

Unternehmen und Privatpersonen, die KI-Tools nutzen möchten, sollten sich daher aktiv mit den Datenschutzrichtlinien der Anbieter befassen;  besonders wenn es um sensible Inhalte, vertrauliche Kundeninformationen oder personenbezogene Daten geht. Wer Datenschutz auf Basis der Incogni-Ergebnisse ernst nehmen möchte, findet in Le Chat, ChatGPT oder Grok deutlich nachvollziehbare Optionen als bei Gemini oder Copilot. Klar ist aber auch: Wirklich datensparsame LLMs sind 2025 noch die Ausnahme.

Dieser Artikel stammt von unserem Partnerportal ELEKTRONIKPRAXIS.

(ID:50528761)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung