Infrastrukturrisiken minimieren und sensible Daten schützen Wie sicher sind KI-Modelle?

Ein Gastbeitrag von Ralf Baumann* 3 min Lesedauer

Anbieter zum Thema

Die rasante Entwicklung von Generative Pre-trained Transformers (GPT) und künstlicher Intelligenz (KI) treibt Innovationen in der Technologiebranche voran und eröffnet ihr neue Horizonte. Die Veränderungen in der Kommunikation und anderen Unternehmensabläufen durch den Einsatz von GPT-Modellen sind evident.

Innovative Technologien wie GPT und KI erlauben es Unternehmen, agiler, flexibler und effizienter zu handeln; allerdings existieren falsche Vorstellungen insbesondere bei Sicherheits- und Datenschutzaspekten.(Bild:  Dar1930 - stock.adobe.com)
Innovative Technologien wie GPT und KI erlauben es Unternehmen, agiler, flexibler und effizienter zu handeln; allerdings existieren falsche Vorstellungen insbesondere bei Sicherheits- und Datenschutzaspekten.
(Bild: Dar1930 - stock.adobe.com)

Allerdings herrscht vielerorts Unklarheit über die Sicherheit und den Datenschutz dieser Modelle. Vor kurzem verständigte sich die EU auf das weltweit erste umfassende Gesetz, das den Einsatz von KI regulieren soll. Es sieht strengere Regeln für riskante Anwendungen und möglicherweise auch Verbote vor. Große KI-Konzerne wie OpenAI, Microsoft und Google müssen Transparenzvorgaben befolgen und Details zum Training preisgeben, darunter auch zur Datenherkunft und Urheberrechtskonformität. Das EU-Gesetz könnte wegweisend für weltweite Regulierungen im KI-Bereich werden.

GPT und Datenschutz

Datenschutzbedenken bei GPT-Modellen, die komplexe Sprachmuster verstehen und generieren können, sind zwar grundsätzlich berechtigt. Sie erfordern jedoch eine differenzierte Betrachtung. Die Befürchtung, dass die neuronalen Netzwerkmodelle durch das Training mit sensiblen Daten die Privatsphäre gefährden, ist weitgehend unbegründet. Denn die Modelle speichern keine spezifischen Details der Trainingsdaten, sie lernen auf Basis allgemeiner Sprachmuster und Konzepte.

Die Verantwortung für den Datenschutz liegt bei den Experten, die die Modelle trainieren. Sie müssen Maßnahmen zur Anonymisierung der Daten während des Trainings implementieren. Die Wahrung der Privatsphäre sollte bereits in der Entwicklungsphase Priorität haben, alle Anwendungen müssen den Datenschutzbestimmungen entsprechen.

Sicherheitsrisiken minimieren

GPT-basierte Modelle können für Phishing-E-Mails oder automatisierte Cyberangriffe missbraucht werden. Diese Sicherheitsrisiken lassen sich aber mit Basismaßnahmen wie der Datenbereinigung minimieren. Denn damit werden sensible Informationen aus den Trainingsdaten entfernt, sodass das Modell vor unbefugter Nutzung und potenziellen Angriffen geschützt ist. Zusätzliche Zugangskontrollen stellen sicher, dass nur autorisierte Personen oder Systeme auf das GPT-Modell zugreifen können.

Die Implementierung robuster Authentifizierungs- und Autorisierungsmechanismen ist ein wesentlicher Bestandteil der Sicherheitsstrategie. Der CISO (Chief Information Security Officer) sollte zudem dafür sorgen, dass das Verhalten des GPT-Modells kontinuierlich überwacht wird. Wichtig sind auch regelmäßige Sicherheitsaudits und Penetrationstests, durch die sich Schwachstellen identifizieren lassen und frühzeitige Reaktionen auf mögliche Sicherheitsbedrohungen erfolgen können. Entscheidend ist, dass all diese Maßnahmen während des gesamten Lebenszyklus des Modells erfolgen – von der Entwicklung über das Training bis hin zur Anwendung.

Speicherung von Nutzerdaten

Bei GPT-Modellen analysiert die Textvorhersage den Kontext einer bestimmten Eingabe und generiert eine Folge von Wörtern oder Text basierend auf Mustern, die aus umfangreichen Trainingsdaten erlernt wurden. Die sogenannten Predictive-Text-Modelle speichern in der Regel keine spezifischen Nutzerdaten über den unmittelbaren Kontext der Antwort hinaus. Obwohl sie auf umfangreichen Datensätzen trainiert werden, lernen sie allgemeine Sprachmuster, ohne auf individuelle Nutzerinformationen zuzugreifen.

Dennoch sollten die Datenschutz- und Löschrichtlinien der Modelle sorgfältig geprüft werden, um ihre Einhaltung sicherzustellen. Wichtig ist dabei auch, klare Vorgaben für die Verwendung und Speicherung von Nutzerdaten festzulegen. Dazu zählen unter anderem das regelmäßige Löschen von temporären Datensätzen sowie der Einsatz von Anonymisierungsverfahren für sensible Informationen.

Gefährdung sensibler Informationen

Auch wenn Predictive-Text-Modelle keine spezifischen Nutzerdaten speichern, ist die potenzielle Gefährdung sensibler Informationen hier ein zentrales Thema. Denn es besteht die Gefahr, dass die Modelle Trainingsdaten, die sensible oder vertrauliche Informationen enthalten, in den generierten Texten preisgeben.

Der CISO trägt die Verantwortung für die Datensicherheit im Unternehmen. Um die Offenlegung sensibler Informationen durch Predictive-Text-Modelle zu minimieren, sollte er veranlassen, dass die Trainingsdaten gründlich geprüft werden und eine Technologie zur Datenanonymisierung implementiert wird. Damit lässt sich sicherstellen, dass selbst bei der Nutzung sensibler Informationen im Training keine identifizierbaren oder rückverfolgbaren Daten im Modell verbleiben.

Predictive-Text-Modelle sollten kontinuierlich überwacht werden, um potenzielle Datenlecks in der Infrastruktur zu verhindern. Denn diese können Angreifer auszunutzen, um auf sensible Informationen zuzugreifen. Verhindern lässt sich dies neben der Verschlüsselung der Daten mit einer Netzwerksegmentierung, die den Zugriff auf kritische Systeme begrenzt, sowie durch Intrusion-Detection-Systemen, die verdächtige Aktivitäten erkennen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Mit den genannten Sicherheitsmaßnahmen lassen sich nicht nur die Modelle selbst, sondern die gesamte Infrastruktur vor möglichen Angriffen und Datenlecks schützen. Der CISO sollte die Mechanismen kontinuierlich optimieren, um in der Lage zu sein, proaktiv auf Sicherheitsbedrohungen zu reagieren. Da Predictive-Text-Modelle potenziell als Ziele für Datenlecks genutzt werden können, kommt es auf eine ganzheitliche Sicherheitsstrategie an. Nur mit effektiven Kontrollen und einer kontinuierlichen Überwachung sind die die Integrität und die Vertraulichkeit von Daten geschützt.


* Der Autor Ralf Baumann ist Country Manager bei Veritas Technologies.

Bildquelle: Veritas Technologies

(ID:50000358)