Die Art und Weise, wie wir Künstliche Intelligenz (KI) angehen, wird die Welt definieren, in der wir in Zukunft leben, so die EU-Kommission. Mit dem KI-Gesetz (AI Act) will die EU weltweit Vorreiter bei der Festlegung von KI-Vorschriften sein. Doch welche Rolle spielen dabei EU-Datenschutz und Datenschutz-Grundverordnung (DSGVO)? Aufsichtsbehörden sehen klaren Handlungsbedarf.
Der Datenschutz möchte und wird ein gewichtiges Wort bei der Gestaltung und Nutzung von KI mitreden. Neben dem AI Act der EU werden die Vorgaben der DSGVO eine zentrale Rolle spielen.
Ziel muss es sein, die möglichen KI-Risiken zu minimieren, um die Vorteile von KI unter anderem für die Cybersecurity nutzen zu können. Hier soll der sogenannte AI Act der EU helfen. Das Gesetz über künstliche Intelligenz soll gewährleisten, dass die auf dem EU-Markt in Verkehr gebrachten und in der Union verwendeten Systeme mit künstlicher Intelligenz (KI) sicher sind und die bestehenden Grundrechte und die Werte der Union wahren.
Zu den Grundrechten gehört der Datenschutz, also das Recht auf informationelle Selbstbestimmung. Die oftmals personenbezogenen oder personenbeziehbaren Daten sind die Wissensbasis für eine KI. KI benötigt Daten, um daraus zu lernen. Dabei müssen aber die Grenzen beachtet werden, die der Datenschutz auferlegt.
Welche Herausforderungen bei KI und Datenschutz bestehen
Als Leiter der Taskforce „Künstliche Intelligenz“ hat der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Rheinland-Pfalz Prof. Dr. Dieter Kugelmann inzwischen die Erstellung eines neuen Fragebogens zu dem KI-Sprachmodell ChatGPT koordiniert und den Fragebogen an OpenAI, den Betreiber des Dienstes, versandt.
Der Fragenkatalog mit 79 Einzelfragen knüpft an ein erstes Auskunftsersuchen an, das der LfDI Rheinland-Pfalz innerhalb der Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK) erarbeitet und im April zusammen mit weiteren deutschen Datenschutzaufsichtsbehörden an das US-amerikanische Unternehmen gerichtet hatte.
„OpenAI hat unseren ersten Fragebogen kooperativ und umfangreich beantwortet“, betont Dieter Kugelmann. Die Analyse der Informationen innerhalb der Taskforce KI habe jedoch gezeigt, dass erheblicher Bedarf für Nachfragen bestehe. „Ich habe als Landesdatenschutzbeauftragter die Aufgabe, das Recht der Bürgerinnen und Bürger auf informationelle Selbstbestimmung zu schützen. Um zu bewerten, ob die Regelungen der Datenschutz-Grundverordnung bei der Datenverarbeitung durch ChatGPT eingehalten werden, muss sichtbar sein, was hinter der Oberfläche der App vor sich geht. Ich bestehe darauf, dass Künstliche Intelligenz nachvollziehbar und erklärbar sein muss. Nur so kann sie kontrolliert und an den berechtigten Normen und Werten unserer Gesellschaft gemessen werden. Deshalb setzen wir erheblichen Aufwand für die Prüfung von ChatGPT ein und fördern mit unseren neuerlichen Fragen noch mehr Transparenz“, so Kugelmann weiter.
Die nun gestellten Fragen dienen der vertieften Prüfung, ob die Verarbeitung personenbezogener Daten in ChatGPT rechtmäßig erfolgt. Insbesondere stehen die besonderen Datenkategorien nach Art. 9 DSGVO im Fokus, also jene Daten, die speziellen Schutz genießen und beispielsweise Angaben zur Religion, zur Gesundheit oder zur sexuellen Orientierung betreffen. Auch die Verwirklichung der Rechte betroffener Personen auf Auskunft sowie Berichtigung und Löschung personenbezogener Daten wird kritisch beleuchtet. Nicht zuletzt soll geklärt werden, ob und in welcher Weise personenbezogene Daten beim Training und bei der Nutzung von ChatGPT zuverlässig als solche erkannt und aussortiert werden oder wie eine datenschutzkonforme Verarbeitung anderweitig sichergestellt werden soll.
Was Datenschutzaufsichtsbehörden für einen AI Act fordern
Nun kann man sich zu Recht die Frage stellen, ob mit dem AI Act der EU die Datenschutzrisiken berücksichtigt und minimiert werden können, ob in Zukunft also der AI Act dafür sorgen kann, dass die zuvor erwähnten Datenschutzfragen bereits vor der Einführung eines KI-Dienstes zur Nutzung in der EU positiv geklärt sind.
Die Europäischen Datenschutzbehörden hatten bereits in einer gemeinsamen Stellungnahme zum KI-Gesetz dargelegt, dass es von größter Bedeutung ist, dass der Einsatz von KI-Systemen, die für Einzelpersonen und ihre Grundrechte inakzeptable Risiken darstellen, verboten ist. Dazu gehört zum Beispiel das Verbot, KI-Systeme zur automatisierten Erkennung biometrischer Merkmale zu verwenden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Der Europäische Datenschutzbeauftragte (EDSB) ist zudem der Auffassung, dass Personen, die von der Nutzung von KI-Systemen betroffen sind, das Recht eingeräumt werden sollte, eine Beschwerde bei einer zuständigen Behörde einzureichen, falls Anbieter und Nutzer von KI-Systemen gegen das KI-Gesetz verstoßen.
Zu diesem Zweck sollte das KI-Gesetz ausdrücklich die Zuständigkeit des EDSB für die Entgegennahme von Beschwerden enthalten. Ebenso empfiehlt der EDSB, dass die Datenschutzbehörden im Rahmen des KI-Gesetzes als nationale Aufsichtsbehörden benannt werden, um mit Behörden zusammenzuarbeiten, die über spezifisches Fachwissen beim Einsatz von KI-Systemen verfügen, um die Vertrauenswürdigkeit zu gewährleisten.
Offensichtlich will und wird die Datenschutzaufsicht auch bei KI-Systemen die Einhaltung der Datenschutz-Grundverordnung (DSGVO) überwachen. Alleine eine Risikoeinstufung nach AI Act wird nicht ausreichen. Die verantwortliche Stelle werde unter Umständen weitere sich aus dem Datenschutzrecht der Union ergebende Anforderungen einhalten müssen, so der Europäische Datenschutzbeauftragte. Überdies sollte die Einhaltung der sich aus dem Unionsrecht ergebenden Anforderungen (einschließlich derjenigen über den Schutz personenbezogener Daten) Voraussetzung für die Zulassung als mit CE-Kennzeichnung versehenes Produkt für den europäischen Markt sein.
Worauf Unternehmen bei KI-Projekten achten müssen
Datenschutzaufsichtsbehörden wie der EDSB machen sehr deutlich, dass die Datenschutzrisiken bei KI-Nutzung und im EU AI Actnoch deutlich stärker Berücksichtigung finden müssen. Am Beispiel Generative Artificial Intelligence Systems haben die Datenschützer aufgezeigt:
Wie alle anderen KI-Systeme muss generative KI auf verantwortungsvolle und vertrauenswürdige Weise entworfen, entwickelt und eingesetzt werden, basierend auf den Grundsätzen des Datenschutzes, der Privatsphäre, der menschlichen Kontrolle, der Transparenz und der demokratischen Werte.
Entwickler, Anbieter und Betreiber generativer KI-Systeme sollten Datenschutz und Privatsphäre in die Konzeption, Gestaltung, den Betrieb und die Verwaltung neuer Produkte und Dienstleistungen mithilfe generativer KI-Systeme einbetten, basierend auf den Grundsätzen des Datenschutzes und der Privatsphäre durch Technikgestaltung, und ihre Entscheidungen dokumentieren im Rahmen einer Datenschutz-Folgeabschätzung.
Darüber hinaus sollten Entwickler, Anbieter und Betreiber generativer KI-Systeme die Risiken, Schäden und potenziellen Auswirkungen auf betroffene Einzelpersonen und die Gesellschaft insgesamt verstehen, um eine ethische, vertrauenswürdige und verantwortungsvolle generative KI zu entwickeln.
Zudem sollten Entwickler, Anbieter und Betreiber generativer KI-Systeme auch Maßnahmen ergreifen, um die Einhaltung von Datenschutz- und Privatsphärenverpflichtungen sicherzustellen. Sie sollten zusammenarbeiten, um sicherzustellen, dass Personen, deren Daten von generativen KI-Systemen verarbeitet werden, die Möglichkeit haben, ihre Datenschutz- und Privatsphärenrechte auszuüben.
Entwickler, Anbieter und Betreiber generativer KI-Systeme sollten den rechtlichen Anforderungen und den Leitlinien der Datenschutzbehörden zur Auslegung dieser rechtlichen Anforderungen große Aufmerksamkeit schenken, wie die Datenschützer betonen.
Es zeigt sich: Der Datenschutz möchte und wird ein gewichtiges Wort bei der Gestaltung und Nutzung von KI mitreden. Neben dem AI Act der EU werden die Vorgaben der DSGVO eine zentrale Rolle spielen. Der AI Act wird die Datenschutzvorgaben der DSGVO nicht ersetzen, sondern stellt eine zusätzliche Regulierung dar. Eine KI ohne Datenschutz kann es in der EU nicht geben. Wer also von einem AI Act eine Lockerung im Datenschutz für KI erhofft, muss enttäuscht werden.