Kommentar von Jörg Bienert, Alexander Thamm GmbHRechtliche Herausforderungen beim Einsatz von generativer KI
Von
Jörg Bienert
5 min Lesedauer
Besser früher vorsorgen als später nachbessern: Um die Möglichkeiten von generativer KI nachhaltig erfolgreich zu nutzen, sollten sich Unternehmen schon jetzt auf die juristischen Rahmenbedingungen – v. a. auf den künftigen EU AI Act – vorbereiten.
Der Autor: Jörg Bienert ist CCO der Alexander Thamm GmbH
(Bild: BERND MAIER)
Alles neu macht die KI. Künstliche Intelligenz verändert unsere Arbeits- und Lebenswelten in einem bislang ungekannten Ausmaß. Speziell generative KI-Modelle wie ChatGPT haben das Potenzial, vom gesellschaftlichen Hype-Thema zum Gamechanger auf dem Arbeitsmarkt und bei der Weiterentwicklung unserer Ökonomien zu werden. Damit möglichst viele Unternehmen von diesen Möglichkeiten langfristig profitieren können, braucht es vorab Klarheit über die rechtlichen Herausforderungen beim Einsatz von generativer KI – und dies auf Seiten der Gesetzgeber ebenso wie bei den Anwendern.
Generative KI – von der Idee zum Gamechanger
Manche Revolutionen haben einen langen Vorlauf. Nicht so bei der generativen KI. Nachdem erst 2017 erste neuronale Netze entwickelt wurden, präsentierte OpenAI Ende 2022 mit ChatGPT eine generative KI-Anwendung mit bislang ungekannten Fähigkeiten – von der Texterstellung auf Knopfdruck über die Generierung von Programmcode bis zur Kreation täuschend echter Bilder.
In der ersten Begeisterung über die faszinierenden Fähigkeiten der KI wurde allerdings häufig übersehen, dass wir gerade erst beginnen, das Potenzial solcher Anwendungen zu erfassen. Ähnlich wie beim Start des iPhones sind auch mit den neuen Sprachmodellen noch bislang ungeahnte Anwendungen und Geschäftsmöglichkeiten verbunden. Doch spätestens mit dem Auftauchen KI-generierter Bilder vom Papst im Designermantel oder von Donald Trump in Handschellen wurden im öffentlichen Diskurs erstmals auch Fragen nach den rechtlichen Rahmenbedingungen für Anwendungen auf Basis von generativer KI aufgeworfen. Fragen, die dringend beantwortet werden müssen.
Copyright und Compliance zwischen Input, Prompt und Output
Bei der juristischen Einschätzung des Umgangs mit generativer KI unterscheidet man grundsätzlich zwischen den Bereichen Input, also allem, was in ein KI-System im Rahmen des Trainings eingegeben wird, Prompt – den Anweisungen an ein KI-System durch den Nutzer – und Output – sämtlichen Fragen rund um den von einer KI generierten Content.
KI-Input: Anforderungen an ein legales KI-Training
Die hier rechtlich nach wie vor offene Grundsatzfrage lautet: Ist für das Training einer KI mit urheberrechtlich geschützten Werken eine Zustimmung bzw. Lizenz erforderlich? Der auf jeden Fall sicherste Weg sind lizenzierte Datensätze, die einige KI-Anbieter bereits verwenden. Andere Entwickler nutzen hingegen Daten aus Open-Source-Projekten, wobei hier rechtlich strittig ist, inwiefern die Programmierer zur Namensnennung verpflichtet sind. Ebenso findet sich aber auch der Standpunkt, dass das Training der KI mit Inhalten keine urheberrechtliche Nutzung, sondern ein erlaubtes Text- und Data-Mining darstelle (nach Art. 4 der DSL-Richtlinie bzw. § 44 UrhG).
Angesichts dieser unklaren Rechtslage wundert es nicht, dass derzeit v. a. auch in den USA zahlreiche Klagen gegen KI-Anbieter anhängig sind. Etwa die Sammelklage von Autoren wie Jonathan Franzen oder George R. R. Martin gegen OpenAI wegen des Vorwurfs der Urheberrechtsverletzung, da ChatGPT ohne Erlaubnis urheberrechtlich geschützte Werke und minderwertige Nachahmungen erstelle und vervielfältige. Mit ersten gerichtlichen Entscheidungen in diesem und ähnlichen Prozessen ist allerdings noch nicht so schnell zu rechnen.
Input rechtssicher verwenden – KI-Prompts
Auch hinsichtlich der Nutzung des Inputs bei der Erstellung von Prompts durch KI-Anbieter gibt es einige juristisch relevante Themen. Diese umfassen etwa den Schutz der eingegebenen persönlichen Daten sowie urheberrechtliche Fragen durch die Eingabe geschützter Werke und markenrechtliche Probleme bei Prompts mit Markenbezug. Folglich kann es bei der Umsetzung entsprechender Befehle durch die KI zu entsprechenden marken- oder urheberrechtlichen Verletzungen kommen.
Uneinheitliche Kennzeichnungspflicht für KI-Output
Offene rechtliche Fragen stellen sich auch hinsichtlich des Outputs generativer KI. So besteht etwa in der EU, den USA und vielen anderen Ländern kein Urheberrechtsschutz für KI-generierte Werke. Dementsprechend wurde auch eine erste Klage in den USA entschieden: Der Kläger wollte ein computergeneriertes Bild beim US Copyright Office registrieren lassen, was dieses unter Hinweis auf die notwendige menschliche Urheberschaft ablehnte. Dies wurde auch von Seiten des Gerichts bestätigt. Weiterhin unklar ist jedoch, wie hoch der Anteil menschlicher Urheberschaft für eine rechtliche Anerkennung sein muss. Die Verfeinerung eines KI-generierten Bilds durch mehrere Prompts reicht aktuell dafür nicht aus.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Ebenfalls noch nicht abschließend rechtlich definiert ist die Kennzeichnungspflicht von KI-Content. Manche Nutzungsbedingungen von KI-Anwendern, etwa ChatGPT, verlangen dies jedoch bereits jetzt. Und auch im Rahmen des künftigen EU AI Act werden Kennzeichnungspflichten für KI-generierten Output enthalten sein – insbesondere im Hinblick auf die Kennzeichnung von Deep Fakes oder bei Systemen, mit denen die Stimme einer Person erzeugt oder manipuliert werden kann. Darüber hinaus bestehen Kennzeichnungspflichten bereits in diversen Branchen- bzw. Unternehmensstandards, etwa im Journalistenverband.
Grundsätzlich ist bei der Verwendung von KI-generiertem Content zu beachten, dass man als Nutzer die Verantwortung für Rechtsverletzungen durch KI-Inhalte trägt, z. B. in Bezug auf Persönlichkeitsrechte, Urheberrechte, Datenschutz oder Falschbehauptungen. Die Haftung der KI-Betreiber ist meist in den Geschäftsbedingungen ausgeschlossen.
European AI Act – dickes Brett mit noch zu vielen Schwachstellen
Für rechtliche Klarheit soll der geplante EU AI Act sorgen, an dem seit 2018 gearbeitet wird. Das Ziel: ein europäisches Regelwerk für rechtskonforme, sichere und vertrauenswürdige KI-Anwendungen, das zum einen zur Förderung von Investitionen Rechtssicherheit gewährleistet und zum anderen Governance, Rechtsdurchsetzung und Sicherheitsanforderungen an KI-Systeme stärkt. Nach Abschluss der derzeitigen Trilog-Beratungen soll das Gesetz Ende 2023 verabschiedet werden und dann 24 Monate später in Kraft treten.
Unternehmen sollten sich allerdings schon jetzt auf die geplanten Vorgaben des Gesetzes vorbereiten. Denn die wirtschaftlichen Sanktionen bei Nichteinhaltung sind noch größer als bei der DSGVO – sie können bis zu 30 Millionen Euro oder sechs Prozent des weltweiten Jahresumsatzes betragen.
Im aktuellen Entwurf werden KI-Anwendungen in vier Risiko-Gruppen unterteilt und entsprechend unterschiedlich reguliert. Das Spektrum reicht von „Minimal Risk“-Anwendungen, etwa in Spam-Filtern, über „Low Risk“-Anwendungen wie Chatbots und „High Risk“-Systeme in sensiblen Bereichen wie Bildung, Verwaltung oder Sicherheit bis hin zu „Unacceptable Risk“-Anwendungen wie Social Scoring oder bestimmte biometrische Anwendungen, die nach Art. 5 verboten werden sollen.
Ungeachtet der Notwendigkeit einer verlässlichen EU-weiten Regulierung bietet der aktuelle Entwurf des AI Act aber dennoch Anlass zur Kritik – etwa angesichts einer zu breiten Definition von Künstlicher Intelligenz. Diese entspricht zwar der OECD-Definition, beschränkt sich dabei allerdings nicht auf die wesentlichen Merkmale einer KI. Die Folge: Theoretisch können somit auch sämtliche elaboriertere Software-Systeme, von regelbasierten Tabellenkalkulationsprogrammen bis zu Heizthermostaten, reguliert werden – dies würde KI-Innovationen innerhalb der EU langfristig im Keim ersticken. Ebenso kritisch sind die aktuell vorgesehenen zusätzlichen Anforderungen für Foundation Models, die bestimmte KI-Modelle unverhältnismäßig unter den Generalverdacht einer Hochrisiko-Anwendung stellen und damit in ihrer Entwicklung dauerhaft gefährden.
Jetzt vorbereiten und später profitieren!
Doch wie können sich Unternehmen bereits vor Inkrafttreten des EU AI Act möglichst gut auf eine erfolgreiche und rechtssichere KI-Nutzung vorbereiten? Zum Beispiel indem man schon jetzt mögliche Anwendungsbereiche für generative KI identifiziert. Oder indem man abklärt, inwiefern eigene Daten für die Erstellung eigener KI-Systeme bzw. für die KI-Services Dritter genutzt und unter welchen Bedingungen externe KI-Dienste eingesetzt werden können, etwa auch hinsichtlich des Schutzes von Urheberrechten.
Ebenso empfiehlt es sich, vorab interne Policies und Mitarbeiterrichtlinien zur Nutzung von KI-Systemen festzulegen. Und mit dem rechtzeitigen Aufbau eines KI-Governance-Systems inklusive internem KI-Expertenteam und klaren Entwicklungs- und Einsatzstandards können sich Unternehmen präventiv gut für die nicht allzu fernen Zeiten aufstellen, in denen die KI alles neu machen wird.