Security und Künstliche Intelligenz Welche Sicherheitsrisiken bei KI vergessen werden

Autor / Redakteur: Dipl.-Phys. Oliver Schonschek / Nico Litzel

Wenn es um Sicherheit und KI geht, dreht es sich meist um KI zur Unterstützung der Security sowie um KI als Werkzeug der Angreifer. Weniger im Fokus sind die Angriffe auf und Schwachstellen bei KI, die vielschichtiger sein können, als die vorherrschende Diskussion erahnen lässt. Dabei können diese Schwachstellen die KI als Sicherheitswerkzeug nutzlos werden lassen.

Firmen zum Thema

Die Nutzung von AI (Artificial Intelligence) setzt eine umfassende Risikoanalyse voraus, denn es gibt zahlreiche Schwachstellen, die bei Attacken auf eine AI-Lösung ausgenutzt werden könnten. Hierzu hat die EU-Agentur für Cybersicherheit den ENISA AI Threat Landscape Report veröffentlicht.
Die Nutzung von AI (Artificial Intelligence) setzt eine umfassende Risikoanalyse voraus, denn es gibt zahlreiche Schwachstellen, die bei Attacken auf eine AI-Lösung ausgenutzt werden könnten. Hierzu hat die EU-Agentur für Cybersicherheit den ENISA AI Threat Landscape Report veröffentlicht.
(Bild: ENISA)

Künstliche Intelligenz (KI) wird zunehmend als eine treibende Kraft der digitalen Transformation gesehen. Es ist daher notwendig, die Implikationen der Verwendung von KI in Bezug auf die IT-Sicherheit zu verstehen, das sehen auch IT-Sicherheitsbehörden für das BSI (Bundesamt für Sicherheit in der Informationstechnik) so.

Die meisten Diskussionen über die Folgen von KI für die Cybersecurity betrachten zum einen die Vorteile, die KI zur Unterstützung von Security-Lösungen und Security-Analysten bieten kann. Zum anderen wurde bereits in der Praxis deutlich, dass KI-basierte Verfahren auch den Angreifern nützlich sein können, zum Beispiel bei der Optimierung von Phishing-Attacken oder bei der Vortäuschung eines menschlichen Nutzers.

Neben Erkennung und Abwehr unterstützt durch KI und den Angriffswerkzeugen mit Unterstützung von KI gilt es jedoch, die möglichen Angriffe auf und Schwachstellen bei der KI selbst zu betrachten. Angriffe auf KI können einerseits als spezielle Cyberattacken auf digitale Systeme gesehen werden, um zum Beispiel Datenanalysen zu stören, zu manipulieren und zu blockieren. Daneben bilden aber Angriffe auf eine KI einen Weg, die Security-Erkennung und -Abwehr zu schwächen, bei hoher Abhängigkeit von der KI sogar zu lähmen.

Welche Schwachstellen KI-Lösungen haben können

Generell können bei KI-Lösungen alle Sicherheitsziele in Gefahr sein, die Vertraulichkeit, die Verfügbarkeit, die Integrität und auch die Belastbarkeit. Meistens wird über die Manipulation der KI gesprochen, gemeint ist damit zum Beispiel, dass die Trainingsdaten gezielt verändert werden, um die KI „umzuerziehen“ oder bewusst falsch anzulernen. Aber auch ganze KI-Modelle können verändert oder „vergiftet“ werden.

Schwachstellen bei KI können leicht übersehen werden, wenn die KI nicht genug transparent ist. Ohne Transparenz kann man auch nicht prüfen, ob die ethischen Maßstäbe umgesetzt werden, die die Gesellschaft erwartet. Prüfungen sind jedoch nicht einfach, weshalb viel Hoffnung gesetzt wird auf anerkannte KI-Zertifizierungen.

Eine KI-Ethik kann aber nur sinnvoll zertifiziert werden, wenn die KI-Sicherheit stimmt. So erklärt das EU-Parlament: Die dringend benötigte Forderung nach Ethik in der KI bedarf einer soliden Cybersicherheit, da die Cybersicherheit die ordnungsgemäße Umsetzung dieser Ethik garantiert und sicherstellt.

KI-Sicherheit ist aber deutlich vielschichtiger als der notwendige Schutz vor Manipulation von Modellen und Trainingsdaten. Das aber wird gerne in den Diskussionen übersehen.

ENISA berichtet über KI-Bedrohungen

Die EU-Agentur für Cybersicherheit ENISA hat sich die mit KI verbundenen Bedrohungen genauer angesehen. Wie der Bericht „Artificial Intelligence Cybersecurity Challenges“ deutlich macht, sollte man sich bei einer Risikoanalyse den ganzen Lebenszyklus einer KI-Lösung ansehen, zuerst auf Datenebene, also von den Rohdaten bis hin zu den von der KI ausgewerteten und angereicherten Daten. Dabei sollte man sich überlegen, wie die Daten bei jedem Schritt im Lebenszyklus geschützt sind, denn Manipulationen, Ausspähung und Zerstörung der Daten können letztlich zu jedem Zeitpunkt der KI-Entwicklung und -Nutzung auftreten.

Dann gilt es, alle beteiligten Rollen und Personen zu betrachten, von den KI-Designern und KI-Entwicklern und den Data Scientists bis hin zu den Data Ownern, Model Ownern, KI-Service Providern und den Cloud-Providern, wenn die KI cloudbasiert ist. Ebenso müssen alle Prozess-Schritte vom dem Design über das Training bis hin zur Nutzung und Wartung auf Risiken hin untersucht werden.

Neben den Daten, den beteiligten Rollen / Personen und den Prozessen können auch die genutzten Tools, Plattformen, Modelle und die Entwicklungsumgebungen zu Schwachstellen und Risiken beitragen.

Vorhandene Schwachstellen können ausgenutzt werden, Angriffe ermöglichen und Störungen verursachen. ENISA nennt als Bedrohungen zum Beispiel den Missbrauch, das Abhören und Abfangen, Attacken auf Infrastrukturen wie KI-Hardware, unabsichtlichen Schaden, Fehler / Fehlfunktionen, wobei hier nochmals zahlreiche, verschiedene Typen von Angriffen, Störungen und Fehlern denkbar sind.

Umfassender Blick auf KI-Sicherheitsrisiken notwendig

Offensichtlich sollte bei KI-Sicherheit nicht nur an möglichst viele Anwendungsmöglichkeiten der KI in der Security oder auf Seiten der Online-Kriminellen gedacht werden, sondern auch an die vielen Facetten der Sicherheit bei der KI selbst, also die möglichen Schwachstellen bei der und Angriffe auf die KI.

Nicht nur Trainingsdaten könnten manipuliert werden, sondern auch die Modelle, die Daten können nicht nur verändert, sondern auch ausgespäht werden, Ergebnisse können ebenfalls manipuliert werden. Neben der Integrität der Daten müssen auch zum Beispiel die Modelle manipulationssicher sein, die Infrastrukturen wie Hardware und Cloud-Dienste müssen ebenso geschützt werden.

Deshalb benötigt KI zweifellos ein sehr detailliertes Sicherheitskonzept, denn ohne KI-Schutz kann die KI nicht schützen. Was auf den ersten Blick klar ist, hat weitaus mehr Implikationen, denn mit einer KI sind viele Prozesse, Rollen und Infrastrukturen verbunden, die alle abgesichert und geprüft werden müssen. KI-Sicherheit ist deshalb ein Beispiel für den Schutz komplexer, digitaler Systeme, als Schutzfaktor, als Angriffsfaktor und als Infrastrukturfaktor.

(ID:47320722)

Über den Autor

Dipl.-Phys. Oliver Schonschek

Dipl.-Phys. Oliver Schonschek

IT-Fachjournalist, News Analyst und Commentator bei Insider Research