Risikoanalyse vor Big-Data-Projekten Das sind die Big Data Risks 2018

Autor / Redakteur: Dipl.-Phys. Oliver Schonschek / Nico Litzel

Big Data, Artificial Intelligence (AI) und Internet of Things (IoT) gehören zu den wichtigsten IT-Trends 2018. Wer entsprechende Big-Data-Projekte plant, sollte aber an die Risikoanalyse denken.

Anbieter zum Thema

Neben dem Fachkräftemangel und einem damit einhergehenden Know-how-Problem gefährdet auch die ab Mai gültige Datenschutz-Grundverordnung (DSGVO / GDPR) Big-Data-Projekte.
Neben dem Fachkräftemangel und einem damit einhergehenden Know-how-Problem gefährdet auch die ab Mai gültige Datenschutz-Grundverordnung (DSGVO / GDPR) Big-Data-Projekte.
(Bild: © SBphotos - stock.adobe.com)

Umfragen der letzten Jahre haben immer wieder gezeigt, dass viele Big-Data-Projekte nicht die in sie gesetzten Erwartungen erfüllt haben. Bevor Unternehmen 2018 neue Big-Data-Projekte starten und erneut die Erwartungen verfehlen, sollten die an sich bekannten Risiken sowie die neu hinzukommenden Risiken von Big Data ausreichend Beachtung finden. Die Evergreens unter den Risiken lauten: Bad Analytics und Bad Data.

Nicht jede Big-Data-Analytics-Lösung und nicht jedes Konzept für eine Big-Data-Analyse kann die Ergebnisse in der gewünschten Art, Zeit und Qualität liefern. Einfach gesagt, liefert eine schlechte Analyse (Bad Analytics) auch schlechte Ergebnisse.

Das nächste Risiko, das nach Binsenweisheit klingt, aber nicht genug beachtet wird, ist Bad Data. Stimmt die Datenqualität nicht, werden nicht die geeigneten Datenquellen und Datenkategorien gewählt, können die Ergebnisse des Big-Data-Projektes nur nicht zufriedenstellend sein. Anstatt Bad Data zu analysieren, müssen Unternehmen die bisher außer Acht gelassen Daten (Dark Data) in den Projekten auswerten.

Wer an die Risiken Bad Analytics und Bad Data denkt und diese vermeidet, hat schon viel gewonnen. Doch 2018 bringt auch neue Risiken für Big-Data-Projekte mit sich.

1. Sich verschärfende Risiken für Big Data: Mangel an passendem Know-how

Big-Data-Projekte erfordern bekanntlich viel Know-how. Denkt man an die meistens mit Big-Data-Projekten zusammenhängenden Technologien wie Künstliche Intelligenz, Machine Learning und Internet of Things wird die Lage nicht besser. Obendrein müssen auch umfangreiche Kenntnisse in den Bereichen Compliance und Security verfügbar sein.

Die zahlreichen Prognosen für den steigenden Fachkräftemangel 2018 werden dieses Know-how-Problem in Big-Data-Projekten noch verstärken. Nicht nur kleine und mittlere Unternehmen werden dieses Risiko beachten müssen, auch die größeren Unternehmen sind davon betroffen.

Schulungsmaßnahmen im Bereich Big Data sind eine sinnvolle Maßnahme, wer jedoch kurzfristig 2018 ein Big-Data-Projekt starten will, sollte an die verschiedenen „as a Service“-Angebote denken, wie zum Beispiel Big Data Analytics as a Service und AI as a Service. Auch dafür sind geeignete Beschäftigte als interne Administratoren und Fachnutzer erforderlich, doch das Know-how-Problem lässt sich etwas eindämmen. Wichtig sind dabei Tools und Services, die die Administration und Nutzung durch Visualisierungsfunktionen möglichst einfach machen (Self-Service-Funktionen).

2. Neue Risiken für Big Data: neue Compliance-Forderungen

Die Datenschutz-Grundverordnung (DSGVO / GDPR), die ab 25. Mai 2018 anzuwenden ist, ist ein prominentes Beispiel für sich verschärfende sowie neue Compliance-Anforderungen, denen sich Big-Data-Projekte stellen müssen.

Nichteinhaltung der Anforderungen kann in Zeiten der DSGVO zu deutlich höheren Bußgeldern führen als bisher, ebenso muss an mögliche Haftungsrisiken und Schadensersatzklagen gedacht werden. Auf diese rechtlichen Risiken weist die DSGVO explizit hin.

Beispiele für neue Datenschutz-Anforderungen, deren Nichtbeachtung zu Risiken (wie Bußgelder und Haftung) führen kann, sind:

  • Datenschutzfolgenabschätzung (Artikel 35 DSGVO), diese ist erforderlich insbesondere bei einer „systematischen und umfassenden Bewertung persönlicher Aspekte natürlicher Personen, die sich auf automatisierte Verarbeitung einschließlich Profiling gründet und die ihrerseits als Grundlage für Entscheidungen dient, die Rechtswirkung gegenüber natürlichen Personen entfalten oder diese in ähnlich erheblicher Weise beeinträchtigen“, sowie bei einer „umfangreichen Verarbeitung besonderer Kategorien von personenbezogenen Daten“
  • Einwilligung der Betroffenen, wenn keine andere Rechtsgrundlage zur Verarbeitung besteht
  • Recht auf Vergessenwerden (erweiterte Löschpflichten)
  • Recht auf Datenübertragbarkeit
  • Privacy by Design, auch für Big-Data-Analysen

Weitere neue Forderungen bestehen an die Belastbarkeit der Big-Data-Systeme, zusätzlich zur Integrität, Vertraulichkeit und Verfügbarkeit.

Werden Big-Data-Services zum Beispiel aus der Cloud genutzt, müssen auch die Anforderungen an eine Auftragsverarbeitung erfüllt werden, um keine Datenschutzverletzung zu begehen. Dazu gehört, dass Big-Data-Anwender nur mit Auftragsverarbeitern zusammenarbeiten dürfen, die „hinreichend Garantien dafür bieten, dass geeignete technische und organisatorische Maßnahmen so durchgeführt werden, dass die Verarbeitung im Einklang mit den Anforderungen der DSGVO erfolgt und den Schutz der Rechte der betroffenen Person gewährleistet“.

Es zeigt sich: Es gibt es Vielzahl an bestehenden, sich verschärfenden und neuen Risiken, die in Big-Data-Projekten beachtet und minimiert werden müssen. Es wäre jedoch ebenso ein geschäftliches Risiko, einfach auf die Möglichkeiten einer datenschutzkonformen Big-Data-Nutzung zu verzichten, wenn die organisatorischen (Know-how) und technischen Voraussetzungen (geeignete Big-Data-Tools) erfüllt sind. Deshalb sollten Unternehmen dieses Jahr nicht auf Big-Data-Analysen verzichten, aber auch nicht auf die zugehörige Risikoanalyse.

(ID:45137019)