In den letzten Jahren hat die künstliche Intelligenz (KI) beeindruckende Fortschritte gemacht, die die bisherige Vorstellungskraft von Verbrauchern übersteigen. Insbesondere die Entwicklung von Sprachmodellen wie ChatGPT, Google Bard oder Dolly hat zu einer neuen Ära des maschinellen Lernens (ML) geführt. Die Möglichkeiten die sich dadurch eröffnen sind vielfältig und revolutionär.
Die derzeitige Flut von Datenschutz- und KI-Vorschriften bedeutet, dass Unternehmen, die KI einsetzen wollen, sich in den kommenden Monaten in einer immer komplexeren Rechts- und Regulierungslandschaft zurechtfinden müssen.
(Bild: alphaspirit - stock.adobe.com)
Die rasche Verbreitung dieser jungen Technologie hat erhebliche Auswirkungen auf nahezu alle Lebensbereiche: Sie führt zu Diskussionen darüber, ob KI menschliche Arbeitsplätze ersetzen wird, wann und wie der Einsatz von LLM-Werkzeugen ethisch vertretbar ist und wie am besten mit den potenziellen Risiken für die Privatsphäre und die Datensicherheit umzugehen ist, die mit dem Einsatz dieser Werkzeuge verbunden sind.
Jenseits ethischer und philosophischer Debatten müssen Unternehmen, die LLM-gestützte Lösungen zur Rationalisierung und Automatisierung von Prozessen oder zur Aggregation und Generierung von Erkenntnissen aus großen Datenmengen einsetzen wollen, die damit verbundenen Risiken angemessen berücksichtigen. Neben der Erstellung interner Richtlinien und Vorgaben, wie, wann und wofür Mitarbeiter solche Tools nutzen dürfen, ist auch das Bewusstsein für die aktuelle rechtliche und regulatorische Situation für den Einsatz dieser Technologie von entscheidender Bedeutung.
Large Language Models (LLM) – was sie sind und wie sie funktionieren
LLM ist eine Art KI-Algorithmus, der Deep-Learning-Techniken und große Datensätze nutzt, um neue Inhalte zu verstehen, zusammenzufassen, zu generieren und vorherzusagen.
LLM eröffnet damit neue Möglichkeiten in einer Reihe von Bereichen. Die potenziellen Anwendungen von LLM sind nahezu unbegrenzt und reichen von Chatbots für den Kundendienst bis hin zur Erkennung von Anomalien und Betrugsanalysen bei Finanzdienstleistungen. Sie werden auch eingesetzt, um die Softwareentwicklung zu beschleunigen, komplexe juristische Zusammenfassungen zu erstellen, Einblicke in Investitionsentscheidungen zu geben und Modelle zu entwickeln, die neue Erkenntnisse über Moleküle, Proteine und DNA für die pharmazeutische und biowissenschaftliche Forschung liefern.
LLM haben sich bereits in vielen Industriezweigen als bahnbrechend erwiesen und sind für jedes Unternehmen von großem Interesse, das seine Effizienz und Produktivität steigern will. Es gibt jedoch eine Reihe von gut dokumentierten Herausforderungen, die mit dem Einsatz dieser Technologie verbunden sind. Dazu gehören Probleme wie falsche oder ungenaue Antworten, Verzerrungen von Modellen und Ergebnissen, Verletzungen des geistigen Eigentums und des Urheberrechts sowie Datenschutzbedenken.
Abwägen von Risiken
Im Rahmen der Risikobewertung und der Due-Diligence-Prüfungen müssen einige zentrale Fragen zu den Quellen der Daten gestellt werden, die für das Training und den Betrieb von LLM-Modellen verwendet werden. Ebenfalls relevant sind Fragen zu den Lizenzvereinbarungen für diese Daten und zur Art und Weise, wie die Daten beschafft werden.
LLMs können alle Arten von Daten, einschließlich personenbezogener und anderer vertraulicher Daten, in einem noch nie dagewesenen Umfang sammeln, speichern und verarbeiten. Dies stellt Organisationen vor einige große Herausforderungen, die sich aus der Frage ergeben, wer für die Rechtmäßigkeit und Qualität der Daten verantwortlich ist, die für das Training generativer Produkte verwendet werden.
Ohne dies zu wissen, könnten Organisationen mit erheblichen rechtlichen oder behördlichen Sanktionen konfrontiert werden, wenn ihre Modelle personenbezogene Daten verwenden, die nicht mit den entsprechenden Genehmigungen eingeholt wurden. Beispielsweise könnten personenbezogene Daten, die an LLMs weitergegeben werden, später für zusätzliche Zwecke verwendet werden, die den Erwartungen oder Genehmigungen der Personen widersprechen, auf die sich diese Daten ausdrücklich beziehen.
Zweitens: Wie kann eine Organisation verhindern oder sich dagegen absichern, dass problematische Inhalte oder Verhaltensweisen erzeugt werden, beispielsweise Voreingenommenheit, tiefgreifende Fälschungen oder offene Diskriminierung? Die Verantwortlichkeiten von Lösungsanbietern und Organisationen für Prävention, Überwachung und Reaktion müssen klar verstanden und dokumentiert werden.
Wenn es um automatisierte Entscheidungsfindung oder andere Ergebnisse geht stellt sich die Frage, wer oder was Zugang zu den Daten oder Ergebnissen hat, die von maschinellen Lernverfahren erzeugt werden, und welche Auswirkungen diese Systeme auf Cybersicherheitsrisiken haben.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Schließlich müssen Organisationen, die den Einsatz von LLMs erwägen, sorgfältig prüfen, wie sie mit Datenschutzverpflichtungen umgehen, z. B. mit Anfragen von betroffenen Personen nach Zugang zu ihren Daten oder deren Löschung.
Die Einhaltung von Rechtsvorschriften
Für maschinelle Lernverfahren wie LLM gelten die gleichen rechtlichen Rahmenbedingungen und Compliance-Anforderungen wie für andere KI-Technologien. Die Geschwindigkeit, mit der sie allgegenwärtig werden, lässt neue Herausforderungen bei der Einhaltung bestehender Datenschutzvorschriften entstehen.
Es ist alternativlos für Unternehmen, einen Überblick über die Rechtsvorschriften zu haben, die sie beachten müssen, um unmittelbar reagieren zu können.
Datenschutz-Grundverordnung (DSGVO)
Die DSGVO fasst die wichtigsten Grundsätze der Datensouveränität zusammen – dass digitale Daten den Gesetzen und Vorschriften des Landes unterliegen, in dem sie sich physisch befinden, dass die Regierung für sie verantwortlich ist und ihre Datenschutzrichtlinien durchsetzen kann - und legt eine Reihe von Kernanforderungen und Grundsätzen für die Verarbeitung personenbezogener Daten fest. Dazu gehören:
Einwilligung – Betroffene haben eine Reihe von Rechten an ihren personenbezogenen Daten, einschließlich des Rechts auf Zugang, Änderung oder Löschung ihrer Daten. Wie die Nutzer diese Rechte in der Praxis wahrnehmen, ist eine schwierige Frage.
Das Recht natürlicher Personen, nicht Entscheidungen unterworfen zu werden, die für sie rechtliche Folgen nach sich ziehen oder sie erheblich beeinträchtigen und die auf einer automatisierten Verarbeitung beruhen. Dies bedeutet, dass bestimmte Entscheidungen zwar durch LLM unterstützt werden können, das letzte Wort jedoch in der Regel ein menschliches Urteilsvermögen erfordert.
Die Datenschutzbehörden in Italien, Frankreich, Deutschland und Irland haben bereits Bedenken zur Vereinbarkeit von LLM mit den Bestimmungen der Datenschutz-Grundverordnung geäußert. Anfang dieses Jahres hat die italienische Datenschutzbehörde Stellung bezogen und ChatGPT daran gehindert, die persönlichen Daten von Millionen Italienern für seine Trainingsdaten zu verwenden (obwohl der Zugang innerhalb eines Monats wiederhergestellt wurde, nachdem OpenAI die Probleme erfolgreich „angesprochen oder gelöst“ hatte).
Künftige Rechtsvorschriften und Trends bei der Anwendung
Die europäischen Datenschutzbehörden bereiten sich bereits darauf vor, Beschwerden über Verstöße gegen die DSGVO aufgrund des Einsatzes von LLM zu bearbeiten.
In Frankreich hat die Datenschutzbehörde CNIL einen Aktionsplan für den Einsatz generativer KI-Systeme erstellt. Ein Schritt, der den Umgang anderer europäischer Aufsichtsbehörden mit diesen Technologien beeinflussen könnte. In ähnlicher Weise hat der Europäische Datenschutzausschuss (European Data Protection Board – EDPB) eine Arbeitsgruppe ins Leben gerufen, die sich darauf konzentriert, das neue KI-Gesetz der EU mit der Datenschutz-Grundverordnung in Einklang zu bringen.
Das KI-Gesetz der EU, das vom Europäischen Parlament im Juni 2023 verabschiedet wurde, soll KI auf der Grundlage ihres Schadenspotenzials regulieren und wird wahrscheinlich strengere Anforderungen an die Grundmodelle stellen, auf denen LLM basieren. Die Verordnung hat bereits ein Verbot bestimmter KI-Anwendungen wie Social Scoring vorgeschlagen und skizziert die Schutzmaßnahmen, die für das sich schnell entwickelnde technologische Umfeld von heute erforderlich sind.
In der Zwischenzeit hat die britische Regierung kürzlich ein eigenes KI-Whitepaper veröffentlicht, das Leitlinien für den Einsatz von KI enthält, um verantwortungsvolle Innovationen zu fördern und gleichzeitig das Vertrauen der Öffentlichkeit in diese Technologie zu erhalten. Es ist wahrscheinlich, dass dies in den kommenden Jahren zu weiteren neuen Gesetzen und Vorschriften führen wird.
Die derzeitige Flut von Datenschutz- und KI-Vorschriften bedeutet, dass Unternehmen, die KI einsetzen wollen, sich in den kommenden Monaten in einer immer komplexeren Rechts- und Regulierungslandschaft zurechtfinden und sicherstellen müssen, dass sie mit den Entwicklungen Schritt halten. Zum jetzigen Zeitpunkt sollte der Schwerpunkt \ darauf liegen, sicherzustellen, dass Compliance-Maßnahmen vorhanden sind, um zu gewährleisten, dass Daten im Einklang mit den aktuellen rechtlichen und regulatorischen Anforderungen erhoben und verarbeitet werden.
Über den Autor: Jakub Lewandowski ist Global Data Governance Officer bei Commvault.