Wie (weit) sollte Künstliche Intelligenz (KI) reguliert werden? Diese Frage hat durch den KI-Boom der letzten Monate eine neue Dringlichkeit erhalten. Häufig dreht sich die Diskussion dabei um die Sorge, dass unregulierte KIs schwerwiegende Folgen für die Gesellschaft haben können, zum Beispiel durch die Verbreitung von Desinformationen. Doch auch der Datenschutz spielt eine wichtige Rolle, schließlich werden die Systeme mit riesigen Datenmengen trainiert.
Die Autorin: Adriana Calomfirescu ist Group Head of Data Delivery bei Endava
(Bild: Endava)
OpenAI hat eine wahre Welle losgetreten: Seitdem das Start-up seinen Chatbot ChatGPT und den Bildgenerator DALL-E 2 im vergangenen Jahr für die Öffentlichkeit verfügbar gemacht hat, springen mehr und mehr Unternehmen auf den KI-Trend auf oder werden neu gegründet, um KI-Modelle und ‑Anwendungen zu entwickeln. In Deutschland stufen laut dem aktuellen Emerging Technologies Report von Endava zudem knapp drei Viertel der Organisationen (73 Prozent) KI-basierte Automatisierung als relevant oder sehr relevant ein. Und zwei von fünf (39 Prozent) Befragten haben bereits eine Strategie für die Implementierung umgesetzt.
Unternehmen müssen sich der Gefahren und Chancen bewusst sein
Doch der Hype um KI bringt auch neue Risiken mit sich: So warnten etwa verschiedene KI-Forscher, darunter auch der CEO von OpenAI, in einem gemeinsamen Aufruf, dass KI das Potenzial besäße, die Menschheit auszulöschen. Konkrete Gefahr drohe beispielsweise durch die Entwicklung von Chemiewaffen durch KI-Systeme oder eine Machtergreifung durch mehrere KIs, die kollaborieren.
Wann (und ob) sie dazu in der Lage sein könnten, ist derzeit zwar fraglich, aber schon jetzt ist ernsthaftes Konfliktpotenzial erkennbar. So hat ein von einer KI erstelltes Bild von einer Explosion am Pentagon kürzlich für Aufregung gesorgt. Realistische Fälschungen und sogenannte Deepfakes, nicht nur von Bilder, sondern auch Videos, Stimmen und mehr, können sich schnell verbreiten und zu einem Klima der Desinformation beitragen. Auf persönlicher Ebene sollte sich darüber hinaus jeder Internetnutzer fragen, inwieweit KI-Unternehmen seine Daten verarbeiten, um die ihren Anwendungen zugrundeliegenden Modelle zu trainieren.
Die Thematik des Datenschutzes kam rund um die Veröffentlichung von ChatGPT bereits auf: Da laut der italienischen Datenschutzbehörde unter anderem für die Nutzer nicht ersichtlich war, welche der von ihnen eingegebenen Informationen gespeichert wurden, wurde der Chatbot kurzzeitig in dem Land verboten. Inzwischen ist er zwar wieder verfügbar, doch die Europäische Union drängt angesichts der rasanten Fortschritte inzwischen umso stärker auf die Regulierung von Künstlicher Intelligenz.
Unternehmen, die KI-Anwendungen in der täglichen Arbeit einsetzen oder eigene anbieten wollen, müssen daher umsichtig agieren und brauchen eine Strategie für den (rechts-)sicheren Umgang mit Daten. Diese sollte dabei verschiedene Aspekte umfassen, die auch ineinandergreifen:
Die gesetzlichen Vorgaben
Auch fünf Jahre nach ihrem Inkrafttreten stellt die Datenschutzgrundverordnung (DSGVO) viele Unternehmen noch immer vor Herausforderungen – obwohl zuvor eine zweijährige Übergangsfrist galt. In dieser Zeit sollten sie ihre internen Systeme so aufstellen, dass sie beispielsweise Fragen zur Verarbeitung persönlicher Daten problemlos beantworten können. Doch stattdessen wurden viele Unternehmen von der DSGVO und ihren Implikationen überrascht.
Das sollte sich bei der Regulierung von Künstlicher Intelligenz nicht wiederholen. Noch ist KI ein Spielplatz, an dem man sich weitestgehend frei ausprobieren kann. Doch das wird sich ändern und Organisationen müssen darauf vorbereitet sein. Das bedeutet konkret, dass sie zunächst ihre Kernmärkte definieren sollten: die Märkte, die für ihr Geschäft die größte Bedeutung haben und in denen sie mit hoher Wahrscheinlichkeit KI einsetzen werden. Anschließend können Unternehmen sich auf die KI-Debatten und -Regulierungsvorhaben in diesen Märkten konzentrieren. In der EU ist dies der AI Act. Aber beispielsweise auch in den USA wird zunehmend über dieses Thema diskutiert – auch weil die Anbieter selbst sich dafür einsetzen.
Letzteres passiert sicher nicht (nur) aus dem Gedanken heraus, dass KI einen gesetzlichen Rahmen braucht, sondern auch aus dem Wunsch, diesen mitzugestalten. Durch Partizipation können Organisationen sicherstellen, dass sie in Zukunft genug Freiraum für echte Innovationen haben. Gleichzeitig sind diejenigen, die sich proaktiv an Diskussionen beteiligen, natürlich viel besser auf Gesetze vorbereitet als Unternehmen, die die Entwicklungen nur von der Peripherie aus beobachten.
Die IT-Architektur
Daten sind der Schlüssel für KI, keine Frage – doch wie gehen Unternehmen mit diesen Daten konkret um? Das war schon ein zentraler Punkt bei der DSGVO und wird es nun erneut sein, allerdings in noch größerem Ausmaß. Unternehmen müssen deshalb heute schon entscheiden, wie sie ihr Datenmanagement im KI-Zeitalter aufstellen wollen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Derzeit werden Unternehmensdaten oft in zentralen Repositories wie einem Data Lake oder Data Warehouse gespeichert – zumindest in der Theorie. In der Praxis sind Datensätze oft im gesamten Unternehmen auf verschiedensten Servern und anderen Speicherorten verteilt und nicht miteinander verbunden, sie befinden sich also in Silos. Dies ist in vielerlei Hinsicht ein Problem: Wollen Unternehmen eine eigene KI-Anwendung mit ihren Daten trainieren, müssen sie relevante Datensätze erst suchen und zusammenführen. Das ist mühsam und kostet Zeit. Zudem werden Daten dafür oft kopiert, was wiederum dazu führen kann, dass deren Qualität sinkt – je nachdem wie gut die Daten gepflegt wurden, war sie womöglich schon von vornerein nicht wirklich gut . Aber um KI-Systeme zu trainieren, brauchen Organisationen qualitativ hochwertige, vertrauenswürdige Daten. Ist dies nicht der Fall, könnte dies zu Verzerrungen und falschen Entscheidungen führen. Schließlich verursacht das Kopieren von Daten auch zusätzliche Kosten für die Speicherung und kreiert neue Datensilos.
Unternehmen sollten sich daher überlegen, welche Daten für ihre KI-Anwendungen relevant sind und wie sie ihre IT-Architektur anpassen können, um diese Daten so nahtlos wie möglich für die entsprechenden Zwecke zu nutzen. Womöglich ist ein zentrales Repository der richtige Weg, wenn eine hohe Datenqualität sichergestellt wird. Vielleicht bietet sich aber auch eine Data-Mesh-Lösung an, bei der die Daten dezentral verbleiben und bei Bedarf in einer virtuellen Schicht zusammengeführt werden können.
Eine unternehmensweite Aufgabe
Unabhängig davon, wo und wie KI-relevante Daten gespeichert werden, müssen Unternehmen in der Lage sein, Data-Governance-Richtlinien und ‑Kontrollen umzusetzen. Dies ist entscheidend, damit tatsächlich nur die Daten für das Training von KIs verwendet werden, die dafür verwendet werden dürfen. So möchten manche Kunden vielleicht nicht, dass ihre persönlichen Daten oder Interaktionen zu diesem Zweck eingesetzt werden. Und, wie ein Beispiel von Samsung zeigt, fehlt unter Mitarbeitern manchmal das Bewusstsein, dass unternehmenskritische oder vertrauliche Informationen nicht in öffentlich zugängliche Anwendungen eingefügt werden sollten.
Das heißt: Neben technischen Lösungen, die den Umgang mit Daten regeln und den Datenschutz sicherstellen sollen, müssen Unternehmen auch Aufklärungsarbeit betreiben. KI und Daten sollten als unternehmensweite Aufgabe betrachtet werden. Denn früher oder später werden nahezu alle Mitarbeiter mit KI in Berührung kommen und müssen dann zumindest die Grundregeln für den Umgang kennen. Ist dies nicht der Fall, wird es womöglich – ähnlich wie bei der DSGVO – zu hohen Strafen für Organisationen kommen. Dies gilt es zu verhindern. Zudem sollte es Unternehmen ein Anliegen sein, die Arbeit mit KI intern zu fördern, weil sich dadurch die Produktivität steigern und die innerbetriebliche Effizienz erhöhen lässt, während die Mitarbeiter monotone Aufgaben abgeben können.
Unternehmen brauchen eine ganzheitliche KI-Strategie
Der Hype um KI ist nicht verwunderlich – ChatGPT ist zwar für Nutzer erstmal nur ein Textfeld, doch der Mehrwert erschließt sich vielen sofort, wenn sie sich Informationen zusammenfassen, Texte vorschreiben oder Ideen liefern lassen. Doch stehen wir dabei gerade erst am Anfang und können uns noch nicht vorstellen, wie KI die Welt verändern wird. Unternehmen müssen sich dennoch heute schon darauf vorbereiten und neben den Chancen auch die Risiken in den Blick nehmen. Dafür brauchen sie eine holistische Strategie, die KI in der gesamten Organisation etabliert und dabei Compliance in den Mittelpunkt stellt. Teil dieser Strategie sollte auch „AI-Alignment“ sein – ein Forschungsbereich, der sicherstellen will, dass KI-Systeme zuverlässig das tun, was Menschen von ihnen erwarten. So können Unternehmen KI-Systeme entwickeln, die an menschlichen Werten ausgerichtet sind und so einen gesellschaftlichen Mehrwert bieten.