Für die Entwicklung von KI-Modellen braucht man große Mengen an guten Trainingsdaten. Je mehr Daten gesammelt werden, desto größer ist allerdings die Wahrscheinlichkeit, dass es zu Datenschutzverletzungen kommen kann. Die DSGVO schreibt deshalb eine Rechtsgrundlage für das Verarbeiten von personenbezogenen Daten vor.
Der Autor: Michael Huth ist CTO der XAIN AG und Professor am Imperial College London
Fakt ist, dass seit dem Inkrafttreten vor zwei Jahren Unternehmen viele Prozesse und Strukturen überprüfen und gegebenenfalls umstellen mussten. In einigen Fällen ließ sich das leichter umsetzen, in anderen Fällen ist dies sehr viel komplizierter – zum Beispiel, wenn Daten in technische Modelle einfließen, die Entscheidungsprozesse unterstützen.
Das AI Privacy Dilemma: Buridans Esel für die Neuzeit
Künstliche Intelligenz (KI) verarbeitet im maschinellen Lernen Daten in sogenannten KI-Modellen. Für die Entwicklung dieser KI-Modelle ergeben sich daraus ganz spezielle Herausforderungen. Dreh- und Angelpunkt ist hierbei das sogenannte AI Privacy Dilemma. Es lässt sich wie folgt zusammenfassen: Für maschinelles Lernen braucht man große Mengen guter Trainingsdaten. Die Qualität eines KI-Modells steht und fällt unter anderem auch mit der Quantität guter Daten. Je mehr Daten gesammelt werden, desto größer ist andererseits allerdings auch die Wahrscheinlichkeit, dass es zu (potenziellen) Datenschutzverletzungen kommen kann. Die DSGVO schreibt deshalb eine Rechtsgrundlage für das Verarbeiten von personenbezogenen Daten vor.
Neben den berechtigten ethisch-moralischen Bedenken kommen hier darüber hinaus auch noch rechtliche Aspekte zum Tragen: Mit der DSGVO ist ein Regelwerk in Kraft getreten, das für Unternehmen bei Datenschutzverletzungen zu empfindlichen Strafen führen kann, wie ein Blick auf den GDPR Enforcement Tracker der internationalen Kanzlei CMS verdeutlicht.
Was können Unternehmen also tun, damit sie bei der KI-Anwendung nicht wie Buridans Esel zwischen zwei Heuhaufen – Privacy Compliance und Effektive KI – verhungern? Welche technischen Möglichkeiten gibt es, um KI-Modelle so zu trainieren, dass der Datenschutz bereits von Beginn an integriert ist?
Lösungsansätze im Vergleich: Datenanonymisierung vs. Federated Learning
Um dieses AI Privacy Dilemma aufzulösen, kann man unterschiedliche Wege einschlagen. Die wohl populärste Methode ist die Datenanonymisierung. Darunter versteht man ein Bündel von Methoden deren Einsatz die Datenmenge so verändern, dass in ihr kein Personenbezug mehr besteht, sie aber immer noch hohen Informationswert für das maschinelle Lernen oder andere Analysen besitzt. Hierfür müssen die einzelnen Anwendungsfälle und Datenmengen evaluiert werden, um zu verstehen, welche Anonymisierungsmethoden im konkreten Falle am besten in welcher Kombination angewandt werden sollten.
Dies ist nicht nur aufwändig, sondern ist zum Teil auch mit erheblichen Risiken verbunden. Zum Beispiel können Ansätze des maschinellen Lernens verwendet werden, um aus derart anonymisierten Datenmengen wieder einen Personenbezug herzustellen. Selbst bei neueren und vielversprechenden Anonymisierungsmethoden – wie der Generierung von synthetischen Daten oder der sogenannten Differential Privacy – muss dieser zusätzliche Aufwand betrieben werden – und auch in diesen Fällen gibt es noch erhebliche Restrisiken.
Einen anderen Ansatz verfolgt das sogenannte Federated Learning. Anstatt die gesammelten Daten zu verändern, setzt diese dezentrale Methode bei den Algorithmen an. Die Daten, die zum Trainieren der KI-Modelle benötigt werden, werden gar nicht erst gesammelt, sondern bleiben auf den Endgeräten und somit beim Nutzer. Es werden hierbei also nicht die Daten zum Algorithmus, sondern der Algorithmus zu den Daten gebracht. Statt eines großen zentralen KI-Modells gibt es hier eine Vielzahl einzelner Modelle, die im ersten Schritt direkt auf den Endgeräten mit den dort befindlichen Daten trainiert werden. In einem zweiten Schritt werden lediglich die Ergebnisse dieser einzelnen Modelle schließlich zu einem aggregierten Modell zusammengefasst. Da bereits trainierte KI-Modelle, unter Berücksichtigung etwaiger technischer Angriffspunkte, aus rechtlicher Sicht nicht unter die DSGVO fallen, erleichtert dies für Unternehmen vieles.
Federated Learning führt insgesamt zu einer viel komplexeren KI, als wenn nur an einer zentralen Stelle mit (eventuell auch noch veränderten) Daten trainiert worden wäre. Zwar ist für diese Methode somit ein größerer Entwicklungsaufwand notwendig, allerdings bietet Federated Learning ein sehr hohes Maß an Datenschutz. Einmal auf die Schiene gestellt, ist sie auch noch hochgradig nutz- und skalierbar. Hinzu kommt, dass die Methode auch asynchron funktioniert und nicht mehr große Datenmengen verschickt werden müssen, was Kosten sparen kann. Außerdem ermöglicht es einen größeren Schutz vor potenziellen Angriffen, da mögliche Angreifer eine Vielzahl an Endgeräten gleichzeitig ins Visier nehmen müssten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Fazit: DSGVO als Innovationstreiber
Die DSGVO hat viele bestehende Prozesse – zurecht – in Frage gestellt. Gleichzeitig führt dies allerdings auch zu einem Innovationsschub, da hier auch gleich grundlegende Parameter neu gedacht werden können. Darüber hinaus hat die Verordnung auch Strahlkraft für weitere Gesetzgebungsprozesse in aller Welt entwickelt. Für Unternehmen bedeutet dies, dass sie ihre Technologien besser heute als morgen „future-proof“ machen sollten – zum Beispiel mit dem Einsatz DSGVO-konformer KI-Modelle.
Professor Michael Huth
Professor Michael Huth (Ph.D.) ist Mitgründer sowie CTO der XAIN AG und lehrt seit 2001 Computer Science am Imperial College London. Seine Spezialgebiete sind u. a. Cybersecurity sowie Sicherheit und Datenschutz beim Machine Learning. Er agierte als Technischer Leiter des Projekts „Harnessing Economic Value“ beim britischen PETRAS IoT Cybersecurity Research Hub. Gemeinsam mit Leif-Nissen Lundbæk und Felix Hahmann gründete er 2017 XAIN. Das Berliner Unternehmen entwickelt eine eigene Plattform und Anwendungen für datenschutzkonforme KI-Lösungen.