Nicht nur Staat, Wirtschaft und Hochschulen verfügen über künstliche Intelligenz (KI), sondern auch Geheimdienste, Kriminelle und Terroristen – etwa um ihre Opfer zu bestehlen, zu erpressen oder Terror zu verbreiten. Die DSGVO verlangt den Nachweis, dass und wie hohe Risiken begrenzt wurden. Vor allem „innovative“ Jungunternehmen und Hochschulausgründungen müssen überlegen, ob sie das leisten können.
Die Nutzung von KI zur Verarbeitung personenbezogener Daten verpflichtet, nach Ansicht der Aufsichtsbehörden, Unternehmen grundsätzlich zu einer Datenschutz-Folgenabschätzung.
Am 5. Dezember hat die Gesellschaft für Informatik e.V. (GI) die „10 KI-Newcomer*innen“ im Wissenschaftsjahr 2019 ausgezeichnet. Diese Veranstaltung fand im Rahmen des Projektes „#KI50: Künstliche Intelligenz in Deutschland – gestern, heute, morgen“ des Bundesministeriums für Bildung und Forschung (BMBF) statt. Nach Vereinsangaben wurden die Ausgezeichneten in einem offenen Online-Abstimmungsprozess ausgewählt, bei dem mehr als 11.000 Stimmen abgegeben wurden. Zuvor seien die 30 Jungforscherinnen und -forscher bereits aus über 100 Bewerberinnen und Bewerbern in die engere Vorauswahl gewählt worden. Anschließend habe die breite Öffentlichkeit sowie Mitglieder unterschiedlicher Forschungsgemeinschaften ihre Favoriten online wählen können.
Mit den KI-Newcomer*innen würden nun „10 junge KI-Nachwuchsforscherinnen und -forscher in fünf Kategorien geehrt, die bereits heute die KI-Entwicklung in Deutschland und darüber hinaus vorantreiben“. Die Preisträger sind:
Informatik:
Niki Kilbertus, Max-Planck-Institut für Intelligente Systeme
Gunay Kazimzade, Weizenbaum-Institut für die vernetzte Gesellschaft
Geistes- und Sozialwissenschaften:
Leonid Berov, Universität Osnabrück
Shirley Ogolla, Humboldt Institut für Internet und Gesellschaft
Naturwissenschaften:
Ankit Kariryaa, Universität Bremen
Theresa Tran, Lufthansa Industry Solutions
Technik- und Ingenieurwissenschaften:
Dorothea Koert, Technische Universität Darmstadt
Michael Lutter, Technische Universität Darmstadt
Lebenswissenschaften:
Elisabeth Hoppe, Friedrich-Alexander-Universität Erlangen-Nürnberg
Titus Brinker, Nationales Centrum für Tumorerkrankungen Heidelberg
Technische Leistungsfähigkeit – für die GI wichtiger als Datenschutz und -sicherheit?
Das Vorantreiben der Entwicklung war dem Veranstalter offenbar besonders wichtig. Eine ähnliche Bedeutung hätten Datenschutz und Datensicherheit verdient: Die Datenschutzaufsichtsbehörden aus Bund und Ländern wollen Belege dafür gefunden haben, „dass mit KI-Systemen häufig personenbezogene Daten verarbeitet werden und diese Verarbeitung Risiken für die Rechte und Freiheiten von Menschen birgt“.
Zu den Risiken gehört, dass sich Sprache, Mimik und Gestik der Menschen in Zukunft massenhaft und bösartig imitieren lassen könnten – in der Konsequenz könnte das zu besonders „innovativen“ Formen des Chefbetrugs führen: Irgendwann erhält der Buchhalter seine betrügerischen Nachrichten vom vermeintlichen Chef nicht mehr wie heute per Mail, sondern per Videoanruf.
Die Verantwortlichen nach Datenschutzgrundverordnung (DSGVO) sind daher zu Maßnahmen verpflichtet, mit deren Hilfe sich die Risiken begrenzen lassen, die mit einer „Offenlegung“ der (multimedialen) personenbezogenen Daten verbunden sind. Dies gilt nach Artikel 32, Absatz 2 DSGVO unabhängig davon, ob diese Offenlegung „unbeabsichtigt oder unrechtmäßig“ zustande kommt. Damit noch lange nicht genug: Der Verantwortliche ist nicht nur für das Umsetzen der Vorschrift „verantwortlich“, sondern muss die Umsetzung – der „Rechenschaftspflicht“ sei dank! – auch noch „nachweisen können“.
Ergeben sich aus dem Risikomanagement des Unternehmens „hohe Risiken“, so ist nach Artikel 35 DSGVO außerdem eine Datenschutzfolgenabschätzung (DSFA) vorzunehmen. Die Verwendung von KI zur Verarbeitung personenbezogener Daten verpflichtet nach Ansicht der Behörden grundsätzlich zu dieser Maßnahme.
DSFA verlangt nach Beschreibung, Bewertung und Begrenzung der Risiken
Die Datenschutz-Folgenabschätzung (DSFA) enthält dem Gesetzgeber zufolge „zumindest Folgendes:
1. eine systematische Beschreibung der geplanten Verarbeitungsvorgänge und der Zwecke der Verarbeitung, gegebenenfalls einschließlich der von dem Verantwortlichen verfolgten berechtigten Interessen; eine Bewertung der Notwendigkeit und Verhältnismäßigkeit der Verarbeitungsvorgänge in Bezug auf den Zweck; eine Bewertung der Risiken für die Rechte und Freiheiten der betroffenen Personen [...] und
2. die zur Bewältigung der Risiken geplanten Abhilfemaßnahmen, einschließlich Garantien, Sicherheitsvorkehrungen und Verfahren, durch die der Schutz personenbezogener Daten sichergestellt und der Nachweis dafür erbracht wird, dass diese Verordnung eingehalten wird, wobei den Rechten und berechtigten Interessen der betroffenen Personen und sonstiger Betroffener Rechnung getragen wird.“
Kriminelle KI: Nur die Stärksten werden überleben!
Wer die Durchführung der DSFA nachweisen kann, hat alles in seiner Macht stehende getan, um sich vor krimineller künstlicher Intelligenz zu schützen. Das ist das SOLL nach DSGVO. Tatsächlich sollen „einige Unternehmen und Hochschulen“ nach Beobachtung von Ansgar Hinz, dem Chef des VDE Verbands der Elektrotechnik Elektronik Informationstechnik e.V. noch nicht einmal einen „Überblick darüber“ haben, „ob sie schon einmal Ziel eines Cyber-Angriffs waren“.
Das Problem besteht nun darin, dass nicht nur die Konzerne, sondern jedes KMU, jedes Jungunternehmen, jede Hochschulausgründung und jedes Forschungsprojekt sich auf dieses Angriffsniveau wird einstellen müssen; es gilt: Je erfolgversprechender die jeweilige Anwendung ist, desto attraktiver ist sie für kriminelle KI!
KI-Newcomerinnen verarbeiten keine personenbezogenen Daten?
Auf die Frage, welche Bedeutung die Kriterien Datenschutz und -sicherheit bei dem Wettbewerb hatten, antwortet GI-Pressesprecher Nagel: „Wir konnten bei der Vorauswahl keine tiefergehende Bewertung der jeweiligen Arbeiten der Newcomer*innen vornehmen – das wäre bei mehr als 100 Nominierungen und Bewerbungen leider aus Ressourcengründen nicht möglich gewesen“. Ob derartige Erwägungen bei der der Online-Wahl durch die Öffentlichkeit in einzelnen Fällen eine Rolle gespielt hätten „können wir nicht sagen“.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Leonid Berov, Ankit Kariryaa, Theresa Tran, Dorothea Koert, Michael Lutter und Titus Brinker haben auf die Mail von Security-Insider nicht geantwortet. Gunay Kazimzade hat die Fragen nicht beantwortet, aber immerhin ein Gespräch angeboten. Shirley Ogolla und Elisabeth Hoppe halten diesbezügliche Fragen für ihre Projekte für irrelevant – etwa weil sie sich mit Forschung und „Vorentwicklung“ beschäftigen würden. Niki Kilbertus ist der Ansicht, dass „Datenschutz und -sicherheit natürlich immer auch eine große Rolle“ spielten. Da er jedoch „nicht direkt auf die Anwendung im Unternehmen/der echten Welt“ aus ist, ist ihm „nicht bekannt, dass eine von uns entwickelte Idee irgendwo tatsächlich bereits Anwendung finden würde“.
Nicht nur die GI vernachlässigt die Risiken
Der Wettbewerb der GI scheint regelrecht stellvertretend für die Situation in der Wissenschaftsgemeinde insgesamt zu stehen: In ihrer „Strategie Künstliche Intelligenz“ kündigt die Bundesregierung Ende 2018 an, sie werde „einen Runden Tisch mit Datenschutzaufsichtsbehörden und Wirtschaftsverbänden einberufen, um gemeinsam Leitlinien für eine datenschutzrechtskonforme Entwicklung und Anwendung von KI-Systemen zu erarbeiten und Best-Practice-Anwendungsbeispiele aufbereiten.“
Einen Runden Tisch, der der Wissenschaft bei der Anwendung der DSGVO helfen würde, konnte der Autor nicht finden – sinnvoll könnte ein solches Angebot für die Verwaltungen sein: Bei einem Angriff auf die Universität Gießen sollen auch die „Lehrplattform Stud.IP, die Homepage, das Prüfungsverwaltungssystem sowie die digitalen Systeme der Universitätsbibliothek“ zumindest zeitweise funktionsuntüchtig gewesen sein.
Genauso in der Forschung – eine wissenschaftliche Datenbank der Universität Maastricht soll von Angreifern zwecks Erpressung verschlüsselt und womöglich zuvor auch noch gestohlen worden sein. Die Wissenschaft kämpft wie alle anderen Institutionen gegen bösartige Angriffe – und darum, ihrer „Rechenschaftspflicht“ nach DSGVO zu genügen.
Leistung, mehr Leistung, noch mehr Leistung!
Ohne auf eine diesbezügliche Erfolgsmeldung zu warten, wird weiter an „innovativen“ Lösungen geschraubt: Das Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration (IZM) hat zusammen mit dem Robert-Bosch-Krankenhaus in Stuttgart ein „vollkommen kabelloses Verfahren" entwickelt, um die diagnostische Magenspiegelung mit flexiblen Endoskopen durch eine Kapsel zu ersetzen: Diese soll sich magnetisch steuern lassen. Die Projektpartner hoffen, dass die Magenspiegelung künftig vom Hausarzt durchgeführt werden kann. Wenn jedoch „Gesundheitsdaten durch Sensoren beim Patienten (z.B. Blutzucker, Sauerstoffmaske,...) detailliert und systematisch“ erhoben und verarbeitet werden sollen, unterstellen die Datenschutzaufsichtsbehörden in Bund und Ländern per se „hohe Risiken“ und verlangen nach einer DSFA. Weder das IZM noch das Krankenhaus haben sich zu der Frage geäußert, wie aufwendig die Maßnahmen zu den nach DSGVO vorgeschriebenen Maßnahmen waren – neben der DSFA werden etwa auch die Verschlüsselung und die Pentests in der Verordnung verlangt. Und: Verantwortlich wären auf lange Sicht nach DSGVO nicht Bosch oder das IZM, sondern der untersuchende Hausarzt.
Dabei wollen nicht nur große Institutionen, sondern auch junge Unternehmen die künstliche Intelligenz zur Verarbeitung personenbezogener Daten einsetzen – etwa beim personalisierten Lernen, zur Unterstützung von Servicemitarbeitern mit Hilfe „intelligenter Brillen“ oder für die Kundenkommunikation durch virtuelle Roboter. Mit diesen drei Anwendungen haben frühere Mitarbeiter des DFKI Unternehmen gegründet; auf der Internetseite des Forschungsinstitut heißt es: „Seit seinem Bestehen sind aus dem Deutschen Forschungszentrum für Künstliche Intelligenz 96 Ausgründungen mit mehr als 2500 Arbeitsplätzen hervorgegangen. Davon sind derzeit 56 Spin-off Unternehmen aktiv.“
Die Charité beschäftigt 15 Personen zur Bewältigung der DSFA
Die genannten Beispiele verarbeiten personenbezogene Daten. Für diese gilt daher die DSGVO; das bedeutet jedoch für die Übrigen noch lange nicht, dass sie in Zukunft keine Folgen abschätzen müssen; die Datenethikkommission verlangt in einem Gutachten: „Bei algorithmischen Systemen ab einem gewissen Schädigungspotenzial [...] ist es jedoch sachgerecht und zumutbar, dem Anbieter/Anwender eine angemessene Risikofolgenabschätzung zur Einschätzung des mit einem System verbundenen Risikos und ihre Veröffentlichung gesetzlich abzuverlangen. Je kritischer das System, desto umfangreicher muss die Risikofolgenabschätzung ausfallen.“
Bei der Berliner Charité scheint es besonders kritische Systeme zu geben; deren Chef will – so die „Zahnärztlichen Mitteilungen“ „allein 15 Mitarbeiter eingestellt (haben), die sich ausschließlich um die Folgenabschätzung der Datenverarbeitung kümmern, wie sie die neue EU-Datenschutz-Grundverordnung vorschreibt.“ Innovative Unternehmer müssen also vornweg überlegen, ob sie sich das Abschätzen der Folgen leisten können.
Die Rödl & Partner GmbH Wirtschaftsprüfungsgesellschaft ist der Ansicht, die Meinung zur Datenschutzgesetzgebung habe sich vielerorts „nicht geändert“: „Sie wird häufig als Behinderung der betrieblichen Praxis und der Wettbewerbsfähigkeit angesehen – immens aufwendig und realitätsfern“. Dabei bleiben die Wirtschaftsprüfer jedoch die Antwort auf eine Frage schuldig: Wie können sich die Verantwortlichen mit einer geänderten DSGVO besser vor krimineller künstlicher Intelligenz schützen als mit der vorhandenen?