Suchen

Künstliche Intelligenz und der Datenschutz Kriminelle KIs überfordern Unternehmen

| Autor / Redakteur: Joachim Jakobs / Peter Schmitz

Nicht nur Staat, Wirtschaft und Hochschulen verfügen über künstliche Intelligenz (KI), sondern auch Geheimdienste, Kriminelle und Terroristen – etwa um ihre Opfer zu bestehlen, zu erpressen oder Terror zu verbreiten. Die DSGVO verlangt den Nachweis, dass und wie hohe Risiken begrenzt wurden. Vor allem „innovative“ Jungunternehmen und Hochschulausgründungen müssen überlegen, ob sie das leisten können.

Firmen zum Thema

Die Nutzung von KI zur Verarbeitung personenbezogener Daten verpflichtet, nach Ansicht der Aufsichtsbehörden, Unternehmen grundsätzlich zu einer Datenschutz-Folgenabschätzung.
Die Nutzung von KI zur Verarbeitung personenbezogener Daten verpflichtet, nach Ansicht der Aufsichtsbehörden, Unternehmen grundsätzlich zu einer Datenschutz-Folgenabschätzung.
(Bild: gemeinfrei / Pixabay )

Am 5. Dezember hat die Gesellschaft für Informatik e.V. (GI) die „10 KI-Newcomer*innen“ im Wissenschaftsjahr 2019 ausgezeichnet. Diese Veranstaltung fand im Rahmen des Projektes „#KI50: Künstliche Intelligenz in Deutschland – gestern, heute, morgen“ des Bundesministeriums für Bildung und Forschung (BMBF) statt. Nach Vereinsangaben wurden die Ausgezeichneten in einem offenen Online-Abstimmungsprozess ausgewählt, bei dem mehr als 11.000 Stimmen abgegeben wurden. Zuvor seien die 30 Jungforscherinnen und -forscher bereits aus über 100 Bewerberinnen und Bewerbern in die engere Vorauswahl gewählt worden. Anschließend habe die breite Öffentlichkeit sowie Mitglieder unterschiedlicher Forschungsgemeinschaften ihre Favoriten online wählen können.

Mit den KI-Newcomer*innen würden nun „10 junge KI-Nachwuchsforscherinnen und -forscher in fünf Kategorien geehrt, die bereits heute die KI-Entwicklung in Deutschland und darüber hinaus vorantreiben“. Die Preisträger sind:

Informatik:

  • Niki Kilbertus, Max-Planck-Institut für Intelligente Systeme
  • Gunay Kazimzade, Weizenbaum-Institut für die vernetzte Gesellschaft

Geistes- und Sozialwissenschaften:

  • Leonid Berov, Universität Osnabrück
  • Shirley Ogolla, Humboldt Institut für Internet und Gesellschaft

Naturwissenschaften:

  • Ankit Kariryaa, Universität Bremen
  • Theresa Tran, Lufthansa Industry Solutions

Technik- und Ingenieurwissenschaften:

  • Dorothea Koert, Technische Universität Darmstadt
  • Michael Lutter, Technische Universität Darmstadt

Lebenswissenschaften:

  • Elisabeth Hoppe, Friedrich-Alexander-Universität Erlangen-Nürnberg
  • Titus Brinker, Nationales Centrum für Tumorerkrankungen Heidelberg

Technische Leistungsfähigkeit – für die GI wichtiger als Datenschutz und -sicherheit?

Das Vorantreiben der Entwicklung war dem Veranstalter offenbar besonders wichtig. Eine ähnliche Bedeutung hätten Datenschutz und Datensicherheit verdient: Die Datenschutzaufsichtsbehörden aus Bund und Ländern wollen Belege dafür gefunden haben, „dass mit KI-Systemen häufig personenbezogene Daten verarbeitet werden und diese Verarbeitung Risiken für die Rechte und Freiheiten von Menschen birgt“.

Zu den Risiken gehört, dass sich Sprache, Mimik und Gestik der Menschen in Zukunft massenhaft und bösartig imitieren lassen könnten – in der Konsequenz könnte das zu besonders „innovativen“ Formen des Chefbetrugs führen: Irgendwann erhält der Buchhalter seine betrügerischen Nachrichten vom vermeintlichen Chef nicht mehr wie heute per Mail, sondern per Videoanruf.

Die Verantwortlichen nach Datenschutzgrundverordnung (DSGVO) sind daher zu Maßnahmen verpflichtet, mit deren Hilfe sich die Risiken begrenzen lassen, die mit einer „Offenlegung“ der (multimedialen) personenbezogenen Daten verbunden sind. Dies gilt nach Artikel 32, Absatz 2 DSGVO unabhängig davon, ob diese Offenlegung „unbeabsichtigt oder unrechtmäßig“ zustande kommt. Damit noch lange nicht genug: Der Verantwortliche ist nicht nur für das Umsetzen der Vorschrift „verantwortlich“, sondern muss die Umsetzung – der „Rechenschaftspflicht“ sei dank! – auch noch „nachweisen können“.

Ergeben sich aus dem Risikomanagement des Unternehmens „hohe Risiken“, so ist nach Artikel 35 DSGVO außerdem eine Datenschutzfolgenabschätzung (DSFA) vorzunehmen. Die Verwendung von KI zur Verarbeitung personenbezogener Daten verpflichtet nach Ansicht der Behörden grundsätzlich zu dieser Maßnahme.

DSFA verlangt nach Beschreibung, Bewertung und Begrenzung der Risiken

Die Datenschutz-Folgenabschätzung (DSFA) enthält dem Gesetzgeber zufolge „zumindest Folgendes:

  • 1. eine systematische Beschreibung der geplanten Verarbeitungsvorgänge und der Zwecke der Verarbeitung, gegebenenfalls einschließlich der von dem Verantwortlichen verfolgten berechtigten Interessen; eine Bewertung der Notwendigkeit und Verhältnismäßigkeit der Verarbeitungsvorgänge in Bezug auf den Zweck; eine Bewertung der Risiken für die Rechte und Freiheiten der betroffenen Personen [...] und
  • 2. die zur Bewältigung der Risiken geplanten Abhilfemaßnahmen, einschließlich Garantien, Sicherheitsvorkehrungen und Verfahren, durch die der Schutz personenbezogener Daten sichergestellt und der Nachweis dafür erbracht wird, dass diese Verordnung eingehalten wird, wobei den Rechten und berechtigten Interessen der betroffenen Personen und sonstiger Betroffener Rechnung getragen wird.“

Kriminelle KI: Nur die Stärksten werden überleben!

Wer die Durchführung der DSFA nachweisen kann, hat alles in seiner Macht stehende getan, um sich vor krimineller künstlicher Intelligenz zu schützen. Das ist das SOLL nach DSGVO. Tatsächlich sollen „einige Unternehmen und Hochschulen“ nach Beobachtung von Ansgar Hinz, dem Chef des VDE Verbands der Elektrotechnik Elektronik Informationstechnik e.V. noch nicht einmal einen „Überblick darüber“ haben, „ob sie schon einmal Ziel eines Cyber-Angriffs waren“.

Das Problem besteht nun darin, dass nicht nur die Konzerne, sondern jedes KMU, jedes Jungunternehmen, jede Hochschulausgründung und jedes Forschungsprojekt sich auf dieses Angriffsniveau wird einstellen müssen; es gilt: Je erfolgversprechender die jeweilige Anwendung ist, desto attraktiver ist sie für kriminelle KI!

KI-Newcomerinnen verarbeiten keine personenbezogenen Daten?

Auf die Frage, welche Bedeutung die Kriterien Datenschutz und -sicherheit bei dem Wettbewerb hatten, antwortet GI-Pressesprecher Nagel: „Wir konnten bei der Vorauswahl keine tiefergehende Bewertung der jeweiligen Arbeiten der Newcomer*innen vornehmen – das wäre bei mehr als 100 Nominierungen und Bewerbungen leider aus Ressourcengründen nicht möglich gewesen“. Ob derartige Erwägungen bei der der Online-Wahl durch die Öffentlichkeit in einzelnen Fällen eine Rolle gespielt hätten „können wir nicht sagen“.

Leonid Berov, Ankit Kariryaa, Theresa Tran, Dorothea Koert, Michael Lutter und Titus Brinker haben auf die Mail von Security-Insider nicht geantwortet. Gunay Kazimzade hat die Fragen nicht beantwortet, aber immerhin ein Gespräch angeboten. Shirley Ogolla und Elisabeth Hoppe halten diesbezügliche Fragen für ihre Projekte für irrelevant – etwa weil sie sich mit Forschung und „Vorentwicklung“ beschäftigen würden. Niki Kilbertus ist der Ansicht, dass „Datenschutz und -sicherheit natürlich immer auch eine große Rolle“ spielten. Da er jedoch „nicht direkt auf die Anwendung im Unternehmen/der echten Welt“ aus ist, ist ihm „nicht bekannt, dass eine von uns entwickelte Idee irgendwo tatsächlich bereits Anwendung finden würde“.

Nicht nur die GI vernachlässigt die Risiken

Der Wettbewerb der GI scheint regelrecht stellvertretend für die Situation in der Wissenschaftsgemeinde insgesamt zu stehen: In ihrer „Strategie Künstliche Intelligenz“ kündigt die Bundesregierung Ende 2018 an, sie werde „einen Runden Tisch mit Datenschutzaufsichtsbehörden und Wirtschaftsverbänden einberufen, um gemeinsam Leitlinien für eine datenschutzrechtskonforme Entwicklung und Anwendung von KI-Systemen zu erarbeiten und Best-Practice-Anwendungsbeispiele aufbereiten.“

Einen Runden Tisch, der der Wissenschaft bei der Anwendung der DSGVO helfen würde, konnte der Autor nicht finden – sinnvoll könnte ein solches Angebot für die Verwaltungen sein: Bei einem Angriff auf die Universität Gießen sollen auch die „Lehrplattform Stud.IP, die Homepage, das Prüfungsverwaltungssystem sowie die digitalen Systeme der Universitätsbibliothek“ zumindest zeitweise funktionsuntüchtig gewesen sein.

Genauso in der Forschung – eine wissenschaftliche Datenbank der Universität Maastricht soll von Angreifern zwecks Erpressung verschlüsselt und womöglich zuvor auch noch gestohlen worden sein. Die Wissenschaft kämpft wie alle anderen Institutionen gegen bösartige Angriffe – und darum, ihrer „Rechenschaftspflicht“ nach DSGVO zu genügen.

Leistung, mehr Leistung, noch mehr Leistung!

Ohne auf eine diesbezügliche Erfolgsmeldung zu warten, wird weiter an „innovativen“ Lösungen geschraubt: Das Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration (IZM) hat zusammen mit dem Robert-Bosch-Krankenhaus in Stuttgart ein „vollkommen kabelloses Verfahren" entwickelt, um die diagnostische Magenspiegelung mit flexiblen Endoskopen durch eine Kapsel zu ersetzen: Diese soll sich magnetisch steuern lassen. Die Projektpartner hoffen, dass die Magenspiegelung künftig vom Hausarzt durchgeführt werden kann. Wenn jedoch „Gesundheitsdaten durch Sensoren beim Patienten (z.B. Blutzucker, Sauerstoffmaske,...) detailliert und systematisch“ erhoben und verarbeitet werden sollen, unterstellen die Datenschutzaufsichtsbehörden in Bund und Ländern per se „hohe Risiken“ und verlangen nach einer DSFA. Weder das IZM noch das Krankenhaus haben sich zu der Frage geäußert, wie aufwendig die Maßnahmen zu den nach DSGVO vorgeschriebenen Maßnahmen waren – neben der DSFA werden etwa auch die Verschlüsselung und die Pentests in der Verordnung verlangt. Und: Verantwortlich wären auf lange Sicht nach DSGVO nicht Bosch oder das IZM, sondern der untersuchende Hausarzt.

Dabei wollen nicht nur große Institutionen, sondern auch junge Unternehmen die künstliche Intelligenz zur Verarbeitung personenbezogener Daten einsetzen – etwa beim personalisierten Lernen, zur Unterstützung von Servicemitarbeitern mit Hilfe „intelligenter Brillen“ oder für die Kundenkommunikation durch virtuelle Roboter. Mit diesen drei Anwendungen haben frühere Mitarbeiter des DFKI Unternehmen gegründet; auf der Internetseite des Forschungsinstitut heißt es: „Seit seinem Bestehen sind aus dem Deutschen Forschungszentrum für Künstliche Intelligenz 96 Ausgründungen mit mehr als 2500 Arbeitsplätzen hervorgegangen. Davon sind derzeit 56 Spin-off Unternehmen aktiv.“

Die Charité beschäftigt 15 Personen zur Bewältigung der DSFA

Die genannten Beispiele verarbeiten personenbezogene Daten. Für diese gilt daher die DSGVO; das bedeutet jedoch für die Übrigen noch lange nicht, dass sie in Zukunft keine Folgen abschätzen müssen; die Datenethikkommission verlangt in einem Gutachten: „Bei algorithmischen Systemen ab einem gewissen Schädigungspotenzial [...] ist es jedoch sachgerecht und zumutbar, dem Anbieter/Anwender eine angemessene Risikofolgenabschätzung zur Einschätzung des mit einem System verbundenen Risikos und ihre Veröffentlichung gesetzlich abzuverlangen. Je kritischer das System, desto umfangreicher muss die Risikofolgenabschätzung ausfallen.“

Bei der Berliner Charité scheint es besonders kritische Systeme zu geben; deren Chef will – so die „Zahnärztlichen Mitteilungen“ „allein 15 Mitarbeiter eingestellt (haben), die sich ausschließlich um die Folgenabschätzung der Datenverarbeitung kümmern, wie sie die neue EU-Datenschutz-Grundverordnung vorschreibt.“ Innovative Unternehmer müssen also vornweg überlegen, ob sie sich das Abschätzen der Folgen leisten können.

Die Rödl & Partner GmbH Wirtschaftsprüfungsgesellschaft ist der Ansicht, die Meinung zur Datenschutzgesetzgebung habe sich vielerorts „nicht geändert“: „Sie wird häufig als Behinderung der betrieblichen Praxis und der Wettbewerbsfähigkeit angesehen – immens aufwendig und realitätsfern“. Dabei bleiben die Wirtschaftsprüfer jedoch die Antwort auf eine Frage schuldig: Wie können sich die Verantwortlichen mit einer geänderten DSGVO besser vor krimineller künstlicher Intelligenz schützen als mit der vorhandenen?

(ID:46639411)