Rechtliche Fragestellungen beim Einsatz generativer KI Risiken von ChatGPT am Arbeitsplatz
Anbieter zum Thema
Unternehmen setzen KI-Tools, wie ChatGPT zunehmend für die Erstellung von Software-/Computercodes und journalistischen Inhalten sowie für Kundenservice oder Recherchezwecke ein. Der Einsatz künstlicher Intelligenz (KI) im Arbeitsalltag bietet zahlreiche Chancen. Allerdings bringen KI-Tools, wie ChatGPT, gleichzeitig eine Fülle an Unwägbarkeiten und Risiken mit sich.

Zunächst ist darauf hinzuweisen, dass sowohl Arbeitnehmer als auch Arbeitgeber beim Einsatz solcher Tools Vorsicht walten lassen sollten. Derzeit enthalten KI-generierte Texte oft ungenaue oder gänzlich falsche Informationen. Es ist daher dringend zu empfehlen, die erstellten Inhalte eingehend auf Fehler zu prüfen und ggf. zu überarbeiten. Abzuwarten bleibt, ob künftige Weiterentwicklungen zu verlässlicheren Ergebnissen führen werden.
Darüber hinaus ist die Qualität KI-generierter Inhalte stark abhängig von einer möglichst detaillierten Beschreibung des gewünschten Inhalts. Für Arbeitgeber wird es daher in Zukunft von großer Relevanz sein, Arbeitnehmer zu beschäftigen, die im Umgang mit KI-Tools besonders qualifiziert sind. Der verbreiteten Angst, KI könnte den Wegfall vieler Millionen Arbeitsplätze bedeuten (laut Goldman-Sachs weltweit bis zu 300 Mio. Arbeitsplätze), kann also entgegengehalten werden, dass der verbreitete Einsatz von KI gleichzeitig eine Vielzahl völlig neuer Berufe, wie z.B. des „Prompt Engineer“, erwarten lässt.
Abgesehen von der Frage der Verlässlichkeit und Qualität der Ergebnisse von KI, ergeben sich zahlreiche rechtliche Fragestellungen bzw. Risiken.
Problemfeld 1: Urheberrecht
Der Mensch ist bequem und daher werden Nutzungsbedingungen von Online-Diensten in der Praxis oft ignoriert. Dies kann generell und im Fall von KI im Besonderen – hier am Beispiel ChatGPT – weitreichende rechtliche Folgen haben. Zunächst regelt Abschnitt 3 a) der ChatGPT-Nutzungsbedingungen, dass alle Rechte an generierten Inhalten auf den Nutzer übertragen werden. Der Abschnitt ist nach dem deutschen Recht so auszulegen, dass dem Nutzer mutmaßlich damit die Nutzungsrechte an den Inhalten eingeräumt werden sollen. Völlig offen ist allerdings bisher, ob an KI-generierten Inhalten überhaupt Urheberrechte bestehen können. Die deutsche Rechtsprechung vertritt bislang die Auffassung, dass nur ein Mensch Schöpfer eines urheberrechtlich geschützten Werks sein kann. Solange von dieser Rechtsprechung nicht abgewichen wird bzw. eine Gesetzesänderung erfolgt, müssen Unternehmen fürchten, dass z.B. ein KI-generierter journalistischer Beitrag oder Softwarecode keinerlei Schutz genießt und daher von Wettbewerbern unentgeltlich und ohne Einschränkungen genutzt werden könnte. Daneben regelt Abschnitt 3 c) der Nutzungsbedingungen, dass OpenAI als Betreiber durch den Nutzer das Recht gewährt wird, die eingegebenen Inhalte weiterzuverwenden. Es besteht also die Gefahr, dass Unternehmen unbewusst Nutzungsrechte an eigenen, urheberrechtlich geschützten Inhalten gewähren. Dem kann im Fall der Nutzung der regulären (Non-API) Webversion nur entgegengewirkt werden, indem mittels Opt-Out einer solchen Rechteeinräumung aktiv widersprochen wird.
Problemfeld 2: Geschäftsgeheimnisse
Ein wesentliches Kapital eines Unternehmens stellen regelmäßig Geschäftsgeheimnisse dar ¬– ganz gleich, ob es sich dabei um Kundendaten, Konstruktionszeichnungen, Rezepturen oder Hintergrundinformationen für Marketingkampagnen handelt. Geschützt sind diese insbesondere durch das Geschäftsgeheimnisgesetz (GeschGehG). Der sorglose Umgang mit Geheimnissen, etwa durch Eingabe in ein KI-Tool, kann dazu führen, dass der Schutz unter dem GeschGehG nicht länger besteht. Unternehmen setzen sich nämlich in diesem Zusammenhang dem Vorwurf aus, keine „angemessenen Geheimhaltungsmaßnahmen“ getroffen zu haben. Dieser Vorwurf erschließt sich, wenn man sich z.B. erneut die Nutzungsbedingungen von ChatGPT vor Augen führt. Demnach werden die eingegebenen Daten OpenAI zur weiteren Verwendung (u.a. zur Verbesserung des Algorithmus) zur Verfügung gestellt. In der Folge ist nicht auszuschließen, dass diese Daten einer unbegrenzten Zahl weiterer Nutzer ausgespielt werden und so zur Kenntnis gelangen. Wie dargelegt besteht zwar die Möglichkeit des aktiven Opt-Outs, der einzig sichere Weg zum Schutz von Geschäftsgeheimnissen bleibt allerdings, es schlichtweg zu unterlassen, solche Informationen in ein KI-Tool einzugeben.
Problemfeld 3: Datenschutz
Die datenschutzrechtliche Bedenklichkeit der Nutzung von KI-Tools hat nicht zuletzt das zeitweise Verbot von ChatGPT durch die italienische Datenschutzaufsichtsbehörde (GPDP) offenbar gemacht. Das KI-Tool bringt zum einen Kollisionen mit der Datenschutzgrundverordnung (DSGVO) mit sich, die auch bereits in Bezug auf andere US-amerikanische Dienste (Google Analytics etc.) von Datenschutzbehörden kritisch beäugt werden. Im Mittelpunkt stand dabei die Datenübermittlung in die USA, die von der EU, bis zum Angemessenheitsbeschluss vom 11.7.2023, als nicht dem Datenschutzniveau der DSGVO entsprechendes Drittland eingestuft wurden. Nach dem neuen Angemessenheitsbeschluss greifen diese Bedenken – zunächst – nicht mehr. Es ist aber damit zu rechnen, dass der Angemessenheitsbeschluss sehr zeitnah wieder dem EuGH zur Prüfung vorliegen wird und ob dieser standhält, kann bezweifelt werden.
Zum anderen kritisierte die GDPD die unzureichende Ausgestaltung der von OpenAI zur Verfügung gestellten Datenschutzhinweise. Die GPDP bezog sich, neben mangelhaftem Jugendschutz, vor allem auf den unangemessenen Umgang mit Betroffenenrechten (Auskunft über und Löschung von erhobenen Daten). Es sei insbesondere nicht ausreichend nachvollziehbar, welche Daten zu welchen Zwecken, wie lange und auf welcher Rechtsgrundlage verarbeitet und gespeichert werden. Inzwischen hat OpenAI seine Datenschutzhinweise überarbeitet und die GPDP das Verbot in Italien wieder aufgehoben. Dennoch bleiben die Datenschutzhinweise unzureichend, da insbesondere notwendige Rechtsgrundlagen nicht dargelegt werden.
Für Einzelne mögen bestehende datenschutzrechtliche Unzulänglichkeiten unproblematisch erscheinen, solange es sich nur um die eigenen personenbezogenen Daten handelt. Aus derzeitiger Sicht bleibt jedoch zu befürchten, dass spätestens bei Eingabe z.B. von Kundendaten oder Daten anderer Mitarbeiter eine bußgeldbewehrte Datenschutzverletzung begangen werden könnte.
Problemfeld 4: Persönlichkeitsrechte
Beim Einsatz von KI-Tools bestehen sowohl in Bezug auf den Input als auch den Output des Weiteren auch persönlichkeitsrechtliche Risiken. So kann die Eingabe personenbezogener Daten neben Datenschutzverletzungen (vgl. III.) auch die Verletzung von Persönlichkeitsrechten Betroffener verursachen. ChatGPT bietet zudem die Möglichkeit z.B. Songtexte im Stile bestimmter Künstler zu generieren. Dem Stil eines Künstlers kommt zwar kein urheberrechtlicher Schutz zu, allerdings kann der generierte Songtext als „Werkfälschung“ das allgemeine Persönlichkeitsrecht der Person verletzen, der er zugeschrieben wird (BGH NJW 1990, 1986 [1988] – Emil Nolde).
Fazit
Festzuhalten ist, dass es bei der Nutzung von KI-Tools für Arbeitnehmer und Arbeitgeber einiges zu beachten gibt: Arbeitnehmerinnen und Arbeitnehmer sollten weder personenbezogene Daten noch vertrauliche Informationen in solche Tools eingeben – denn diese sind im Zweifel nicht geschützt oder verletzen im schlimmsten Fall Rechte Dritter. Arbeitgeber sollten ihre Mitarbeiter*innen für die Risiken sensibilisieren. Aufklärung und Schulung sind im Hinblick auf KI-Tools für die Zukunft unabdingbar. Vor diesem Hintergrund sollten Unternehmen ihre Arbeitsverträge, internen Richtlinien und Arbeitsanweisungen zum Geheimnisschutz sowie zur erlaubten Nutzung des Internets (AUP) prüfen. Zusätzlich sollte hinterfragt werden, ob, in welchem Umfang und durch welche Mitarbeiter eine Nutzung von KI-Anwendungen für das Unternehmen sinnvoll ist. Ausgehend vom Ergebnis dieser Auswertung kann als ergänzende Maßnahme zum Geheimnisschutz die Nutzung solcher KI-Tools für bestimmte Mitarbeiterkreise verboten und auch der Zugang zu diesen technisch beschränkt werden.
Es bleibt abzuwarten, inwieweit KI-Anbieter die Nutzungsbedingungen ihrer Dienste an die rechtlichen Anforderungen in der EU anpassen und was die Gesetzgebung vorsieht. Ein Verbot wie in Italien erscheint kontraproduktiv. Angesichts der möglichen Innovationen mittels KI bleibt zu hoffen, dass Anbieter und Gesetzgeber zeitnah Lösungen für einen rechtskonformen Einsatz entwickeln, um bestehende Chancen und Risiken in Einklang bringen.
Über den Autor:Dr. Christian Engelhardt, LL.M., ist Partner und Rechtsanwalt bei Baker Tilly am Standort Hamburg. Der promovierte Jurist berät Unternehmen bei Fragen zum Datenschutzrecht, Gewerblichen Schutzrecht und Urheberrecht (IP) sowie IT-Recht. Zudem unterstützt er Mandanten rechtlich bei Transaktionen.
(ID:49620792)