Kommentar von Jörg Bienert, Alexander Thamm GmbH Rechtliche Herausforderungen beim Einsatz von generativer KI

Von Jörg Bienert 5 min Lesedauer

Besser früher vorsorgen als später nachbessern: Um die Möglichkeiten von generativer KI nachhaltig erfolgreich zu nutzen, sollten sich Unternehmen schon jetzt auf die juristischen Rahmenbedingungen – v. a. auf den künftigen EU AI Act – vorbereiten.

Der Autor: Jörg Bienert ist CCO der Alexander Thamm GmbH(Bild:  BERND MAIER)
Der Autor: Jörg Bienert ist CCO der Alexander Thamm GmbH
(Bild: BERND MAIER)

Alles neu macht die KI. Künstliche Intelligenz verändert unsere Arbeits- und Lebenswelten in einem bislang ungekannten Ausmaß. Speziell generative KI-Modelle wie ChatGPT haben das Potenzial, vom gesellschaftlichen Hype-Thema zum Gamechanger auf dem Arbeitsmarkt und bei der Weiterentwicklung unserer Ökonomien zu werden. Damit möglichst viele Unternehmen von diesen Möglichkeiten langfristig profitieren können, braucht es vorab Klarheit über die rechtlichen Herausforderungen beim Einsatz von generativer KI – und dies auf Seiten der Gesetzgeber ebenso wie bei den Anwendern.

Generative KI – von der Idee zum Gamechanger

Manche Revolutionen haben einen langen Vorlauf. Nicht so bei der generativen KI. Nachdem erst 2017 erste neuronale Netze entwickelt wurden, präsentierte OpenAI Ende 2022 mit ChatGPT eine generative KI-Anwendung mit bislang ungekannten Fähigkeiten – von der Texterstellung auf Knopfdruck über die Generierung von Programmcode bis zur Kreation täuschend echter Bilder.

In der ersten Begeisterung über die faszinierenden Fähigkeiten der KI wurde allerdings häufig übersehen, dass wir gerade erst beginnen, das Potenzial solcher Anwendungen zu erfassen. Ähnlich wie beim Start des iPhones sind auch mit den neuen Sprachmodellen noch bislang ungeahnte Anwendungen und Geschäftsmöglichkeiten verbunden. Doch spätestens mit dem Auftauchen KI-generierter Bilder vom Papst im Designermantel oder von Donald Trump in Handschellen wurden im öffentlichen Diskurs erstmals auch Fragen nach den rechtlichen Rahmenbedingungen für Anwendungen auf Basis von generativer KI aufgeworfen. Fragen, die dringend beantwortet werden müssen.

Copyright und Compliance zwischen Input, Prompt und Output

Bei der juristischen Einschätzung des Umgangs mit generativer KI unterscheidet man grundsätzlich zwischen den Bereichen Input, also allem, was in ein KI-System im Rahmen des Trainings eingegeben wird, Prompt – den Anweisungen an ein KI-System durch den Nutzer – und Output – sämtlichen Fragen rund um den von einer KI generierten Content.

KI-Input: Anforderungen an ein legales KI-Training

Die hier rechtlich nach wie vor offene Grundsatzfrage lautet: Ist für das Training einer KI mit urheberrechtlich geschützten Werken eine Zustimmung bzw. Lizenz erforderlich? Der auf jeden Fall sicherste Weg sind lizenzierte Datensätze, die einige KI-Anbieter bereits verwenden. Andere Entwickler nutzen hingegen Daten aus Open-Source-Projekten, wobei hier rechtlich strittig ist, inwiefern die Programmierer zur Namensnennung verpflichtet sind. Ebenso findet sich aber auch der Standpunkt, dass das Training der KI mit Inhalten keine urheberrechtliche Nutzung, sondern ein erlaubtes Text- und Data-Mining darstelle (nach Art. 4 der DSL-Richtlinie bzw. § 44 UrhG).

Angesichts dieser unklaren Rechtslage wundert es nicht, dass derzeit v. a. auch in den USA zahlreiche Klagen gegen KI-Anbieter anhängig sind. Etwa die Sammelklage von Autoren wie Jonathan Franzen oder George R. R. Martin gegen OpenAI wegen des Vorwurfs der Urheberrechtsverletzung, da ChatGPT ohne Erlaubnis urheberrechtlich geschützte Werke und minderwertige Nachahmungen erstelle und vervielfältige. Mit ersten gerichtlichen Entscheidungen in diesem und ähnlichen Prozessen ist allerdings noch nicht so schnell zu rechnen.

Input rechtssicher verwenden – KI-Prompts

Auch hinsichtlich der Nutzung des Inputs bei der Erstellung von Prompts durch KI-Anbieter gibt es einige juristisch relevante Themen. Diese umfassen etwa den Schutz der eingegebenen persönlichen Daten sowie urheberrechtliche Fragen durch die Eingabe geschützter Werke und markenrechtliche Probleme bei Prompts mit Markenbezug. Folglich kann es bei der Umsetzung entsprechender Befehle durch die KI zu entsprechenden marken- oder urheberrechtlichen Verletzungen kommen.

Uneinheitliche Kennzeichnungspflicht für KI-Output

Offene rechtliche Fragen stellen sich auch hinsichtlich des Outputs generativer KI. So besteht etwa in der EU, den USA und vielen anderen Ländern kein Urheberrechtsschutz für KI-generierte Werke. Dementsprechend wurde auch eine erste Klage in den USA entschieden: Der Kläger wollte ein computergeneriertes Bild beim US Copyright Office registrieren lassen, was dieses unter Hinweis auf die notwendige menschliche Urheberschaft ablehnte. Dies wurde auch von Seiten des Gerichts bestätigt. Weiterhin unklar ist jedoch, wie hoch der Anteil menschlicher Urheberschaft für eine rechtliche Anerkennung sein muss. Die Verfeinerung eines KI-generierten Bilds durch mehrere Prompts reicht aktuell dafür nicht aus.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ebenfalls noch nicht abschließend rechtlich definiert ist die Kennzeichnungspflicht von KI-Content. Manche Nutzungsbedingungen von KI-Anwendern, etwa ChatGPT, verlangen dies jedoch bereits jetzt. Und auch im Rahmen des künftigen EU AI Act werden Kennzeichnungspflichten für KI-generierten Output enthalten sein – insbesondere im Hinblick auf die Kennzeichnung von Deep Fakes oder bei Systemen, mit denen die Stimme einer Person erzeugt oder manipuliert werden kann. Darüber hinaus bestehen Kennzeichnungspflichten bereits in diversen Branchen- bzw. Unternehmensstandards, etwa im Journalistenverband.

Grundsätzlich ist bei der Verwendung von KI-generiertem Content zu beachten, dass man als Nutzer die Verantwortung für Rechtsverletzungen durch KI-Inhalte trägt, z. B. in Bezug auf Persönlichkeitsrechte, Urheberrechte, Datenschutz oder Falschbehauptungen. Die Haftung der KI-Betreiber ist meist in den Geschäftsbedingungen ausgeschlossen.

European AI Act – dickes Brett mit noch zu vielen Schwachstellen

Für rechtliche Klarheit soll der geplante EU AI Act sorgen, an dem seit 2018 gearbeitet wird. Das Ziel: ein europäisches Regelwerk für rechtskonforme, sichere und vertrauenswürdige KI-Anwendungen, das zum einen zur Förderung von Investitionen Rechtssicherheit gewährleistet und zum anderen Governance, Rechtsdurchsetzung und Sicherheitsanforderungen an KI-Systeme stärkt. Nach Abschluss der derzeitigen Trilog-Beratungen soll das Gesetz Ende 2023 verabschiedet werden und dann 24 Monate später in Kraft treten.

Unternehmen sollten sich allerdings schon jetzt auf die geplanten Vorgaben des Gesetzes vorbereiten. Denn die wirtschaftlichen Sanktionen bei Nichteinhaltung sind noch größer als bei der DSGVO – sie können bis zu 30 Millionen Euro oder sechs Prozent des weltweiten Jahresumsatzes betragen.

Im aktuellen Entwurf werden KI-Anwendungen in vier Risiko-Gruppen unterteilt und entsprechend unterschiedlich reguliert. Das Spektrum reicht von „Minimal Risk“-Anwendungen, etwa in Spam-Filtern, über „Low Risk“-Anwendungen wie Chatbots und „High Risk“-Systeme in sensiblen Bereichen wie Bildung, Verwaltung oder Sicherheit bis hin zu „Unacceptable Risk“-Anwendungen wie Social Scoring oder bestimmte biometrische Anwendungen, die nach Art. 5 verboten werden sollen.

Ungeachtet der Notwendigkeit einer verlässlichen EU-weiten Regulierung bietet der aktuelle Entwurf des AI Act aber dennoch Anlass zur Kritik – etwa angesichts einer zu breiten Definition von Künstlicher Intelligenz. Diese entspricht zwar der OECD-Definition, beschränkt sich dabei allerdings nicht auf die wesentlichen Merkmale einer KI. Die Folge: Theoretisch können somit auch sämtliche elaboriertere Software-Systeme, von regelbasierten Tabellenkalkulationsprogrammen bis zu Heizthermostaten, reguliert werden – dies würde KI-Innovationen innerhalb der EU langfristig im Keim ersticken. Ebenso kritisch sind die aktuell vorgesehenen zusätzlichen Anforderungen für Foundation Models, die bestimmte KI-Modelle unverhältnismäßig unter den Generalverdacht einer Hochrisiko-Anwendung stellen und damit in ihrer Entwicklung dauerhaft gefährden.

Jetzt vorbereiten und später profitieren!

Doch wie können sich Unternehmen bereits vor Inkrafttreten des EU AI Act möglichst gut auf eine erfolgreiche und rechtssichere KI-Nutzung vorbereiten? Zum Beispiel indem man schon jetzt mögliche Anwendungsbereiche für generative KI identifiziert. Oder indem man abklärt, inwiefern eigene Daten für die Erstellung eigener KI-Systeme bzw. für die KI-Services Dritter genutzt und unter welchen Bedingungen externe KI-Dienste eingesetzt werden können, etwa auch hinsichtlich des Schutzes von Urheberrechten.

Ebenso empfiehlt es sich, vorab interne Policies und Mitarbeiterrichtlinien zur Nutzung von KI-Systemen festzulegen. Und mit dem rechtzeitigen Aufbau eines KI-Governance-Systems inklusive internem KI-Expertenteam und klaren Entwicklungs- und Einsatzstandards können sich Unternehmen präventiv gut für die nicht allzu fernen Zeiten aufstellen, in denen die KI alles neu machen wird.

Artikelfiles und Artikellinks

(ID:49916080)