KI einsetzen und dabei Daten schützen – viele Unternehmen wissen nicht, welche Sicherheitsmodelle es gibt. Sie können KI-Modelle in der Cloud nutzen, über Third-Party-Anbieter absichern oder selbst hosten. Die drei Ansätze unterscheiden sich aber stark in Kosten, Aufwand und Sicherheitsniveau. Ein zentrales Risiko bleibt: Daten liegen während der Verarbeitung im Arbeitsspeicher im Klartext vor.
KI einsetzen und Daten schützen: Welche Optionen gibt es und wie sicher sind sie? Wir zeigen drei KI-Sicherheitsansätze im Vergleich.
Bei der KI-Nutzung fehlt häufig ein Verständnis dafür, welche grundlegenden Sicherheitsmodelle es gibt. Die drei wichtigsten Ansätze bieten verschiedene Schutzmechanismen und unterscheiden sich stark hinsichtlich Kosten, Aufwand und Skalierbarkeit.
KI einsetzen wollen mittlerweile fast alle Unternehmen und Organisationen. Wie sich das aber so umsetzen lässt, dass Daten dabei bestmöglich geschützt sind, ist für viele gar nicht so leicht zu beantworten. An Empfehlungen mangelt es nicht. Was aber häufig zu fehlen scheint, ist ein Verständnis der grundlegenden Sicherheitsansätze. Diese unterscheiden sich nämlich stark in puncto Aufwand, Risiken und Skalierbarkeit. Umso entscheidender ist es, sie zu kennen und einordnen zu können, um auf dieser Basis gute Entscheidungen treffen zu können.
Drei solcher grundlegenden Ansätze gibt es derzeit, die sich wiederum in weitere Unterkategorien clustern lassen. Im Folgenden eine Übersicht einschließlich ihrer jeweiligen Vor- und Nachteile.
Bei diesem Ansatz werden KI-Modelle in Public Clouds genutzt, zum Beispiel OpenAI-Modelle über Microsoft Azure oder Anthropic-Modelle über AWS oder Google Cloud. Innerhalb dieses Ansatzes gibt es wiederum eine große Bandbreite an Sicherheitsstufen. Die niedrigste ist die direkte Nutzung cloudbasierter KI-Dienste ohne zusätzliche Absicherung, unabhängig davon, ob dies über eine API, eine Web-Oberfläche oder eine integrierte Anwendung geschieht. In diesem Fall hat der Nutzer kaum technische Kontrolle über die Ausführungsumgebung und verlässt sich im Wesentlichen auf vertragliche Zusagen, interne Prozesse und Compliance-Rahmen der Anbieter. Alle US-basierten Dienste unterliegen zudem dem US CLOUD Act, unabhängig davon, wo die Daten physisch gespeichert oder verarbeitet werden.
Eine höhere Sicherheitsstufe innerhalb dieses cloudbasierten Ansatzes entsteht durch Audits und Zertifizierungen unabhängiger Prüfer. Solche Nachweise erhöhen die Transparenz, bestätigen definierte Sicherheitskontrollen und schaffen Vertrauen. Sie ersetzen jedoch keine technische Absicherung der Laufzeitumgebung. Vor allem schließen sie keine Risiken aus, die während der Verarbeitung entstehen, da Prüfende weder Einblick in laufende Workloads noch Kontrolle über den Umgang mit Klartextdaten im Arbeitsspeicher haben.
Die höchste Sicherheitsstufe innerhalb dieses Ansatzes sind cloudbasierte Lösungen, die Confidential Computing nutzen, auch Confidential AI genannt. Dabei läuft die KI-Verarbeitung in einer hardware-isolierten Umgebung, in der Daten selbst während der Verarbeitung nicht im Klartext einsehbar sind. In Kombination mit Remote Attestation und clientseitiger Verschlüsselung bedeutet das: Weder der Infrastrukturbetreiber noch der Service Provider oder der Modellanbieter können auf Daten im Klartext zugreifen. Beispiele solcher Modelle sind Apples Private Cloud Compute oder Googles Private AI Compute sowie weitere unabhängige Dienste, die auf Confidential-Computing-fähigen CPUs oder GPUs laufen und dadurch eine abgeschottete, auch zur Laufzeit geschützte KI-Verarbeitung ermöglichen.
Ansatz 2: Third-Party-Anbieter für mehr Sicherheit
Bei diesem ebenfalls cloudbasierten Ansatz soll eine vorgelagerte Sicherheitskomponente den Zugriff auf sensible Daten verhindern. Beispiele sind Privacy-Anbieter wie Nenna.ai. Diese Systeme analysieren Daten lokal, bevor sie an ein KI-Modell gesendet werden, und anonymisieren, filtern oder tokenisieren sensible Inhalte. Dieses Vorgehen erscheint sinnvoll, hat aber Schwächen. Es eignet sich eigentlich nur für Fälle, bei denen ausschließlich personenbezogene Daten entfernt werden müssen, während der übrige Kontext unkritisch ist. Sobald der Kontext insgesamt Rückschlüsse auf sensible Informationen zulässt – was beispielsweise in internen Dokumenten von Unternehmen meist der Fall ist – kommt so ein Filter an seine Grenzen. Und werden zu viele Informationen unkenntlich gemacht, wird das Ergebnis schnell unbrauchbar.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Innerhalb dieses zweiten Ansatzes finden sich auch die meisten „AI Wrapper”, also SaaS-Dienste, die ein eigenes Interface vor bestehende KI-Modelle setzen und deren Nutzung orchestrieren. Solche Anbieter investieren häufig in klassische IT-Sicherheitsmaßnahmen wie Segmentierung, isolierte Kundeninstanzen, gehärtete Hosts, restriktive IAM-Konzepte, MFA, WAF, kontinuierliches Monitoring mit SIEM und EDR sowie Verschlüsselung im Ruhezustand und im Transport. Wirksam sind diese Sicherheitsmaßnahmen aber natürlich nur, wenn sie vollständig und fehlerfrei umgesetzt werden. Darauf müssen Kunden dieser Anbieter vertrauen, und nicht immer geht das gut. Der massive Sicherheitsvorfall bei Localmind im Oktober 2025 hat das deutlich gezeigt.
Unabhängig von der Stärke der vorhandenen Sicherheitsmaßnahmen bei all diesen Drittanbieter-Lösungen bleibt eine zentrale Lücke bestehen: Bei der Ausführung eines KI-Modells müssen Daten im Arbeitsspeicher entschlüsselt vorliegen. Diese In-Use-Phase ist mit herkömmlichen Maßnahmen nicht absicherbar, sodass Risiken durch kompromittierte Hostsysteme, Schwachstellen in der Laufzeitumgebung oder privilegierte technische Zugriffe bestehen bleiben.
Beim Self-Hosting-Ansatz betreiben Unternehmen KI-Modelle selbst, entweder on-premise, on-device oder in einer Private Cloud. Viele Enterprise-orientierte KI-Anbieter bieten solche Optionen an, etwa Cohere, Mistral oder Aleph Alpha. Dieser Ansatz ist für bestimmte Anwendungen sinnvoll, für die meisten Anwendungsfälle ist er aber nicht praktikabel.
On-premise-Lösungen sind teuer, komplex in der Implementierung und im Betrieb und erfordern spezialisierte Teams. Dazu kommt, dass die Hardware schnell veraltet. On-device-Ansätze scheitern meist an der verfügbaren Rechenleistung und eignen sich daher praktisch nur für kleine Modelle, nicht für große LLMs oder anspruchsvolle Unternehmensanwendungen.
Private-Cloud-Umgebungen wirken auf den ersten Blick wie ein sinnvoller Mittelweg zwischen Public Cloud und lokalem Deployment, sind in der Praxis aber fast immer fragwürdig. Der Cloud-Betreiber behält weiterhin privilegierten Zugriff auf die Infrastruktur, das grundlegende Vertrauensmodell ändert sich also nicht. Gleichzeitig steigen Aufwand und Kosten deutlich. Für die meisten Unternehmen ist dieser Ansatz daher weder wirtschaftlich noch sicherheitstechnisch die beste Wahl.
Alle drei Ansätze haben grundsätzlich ihre Berechtigung, aber nicht jeder für jeden Use Case. Für viele Unternehmen ist ein Weg am sinnvollsten, der hohe technische Sicherheit mit der Praktikabilität der Cloud verknüpft. Confidential AI, wie in Ansatz 1 beschrieben, bietet das. Confidential-AI-Modelle reduzieren das zentrale In-Use-Risiko und bleiben gleichzeitig flexibel und skalierbar. Sie erlauben es zudem, kombinierte Infrastrukturen aufzubauen: LLM-Hubs, in denen je nach Datenklasse und Anwendungsfall entschieden wird, ob die Verarbeitung lokal erfolgen muss, abgesichert in der CLoud stattfinden kann oder - wenn keine sensiblen Daten vorliegen – sogar ohne zusätzliche Absicherung in den gängigen Tools wie ChatGPT verarbeitet werden. Auf diese Weise ist die KI-Nutzung sicher, aber auch für kleinere Unternehmen, Behörden und Organisationen bezahlbar und umsetzbar.
Über den Autor: Felix Schuster ist Gründer und Geschäftsführer von Edgeless Systems, einem Unternehmen für Cloud- und KI-Sicherheit aus Bochum. Nach Studium und Promotion in IT-Sicherheit arbeitete er bei Microsoft Research, bevor er 2020 Edgeless Systems mit Fokus auf Confidential Computing gründete.