Vereinbarkeit von KI und Compliance GenAI-Firewalls schützen sensible Daten bei KI-Interaktionen

Ein Gastbeitrag von Andreas Walbrodt 5 min Lesedauer

Anbieter zum Thema

KI-Lösungen gehören in vielen Unternehmen und Organisationen zum Alltag. Doch beim Umgang mit KI lauern Gefahren für die Datensicherheit und Compliance-Verstöße. GenAI-Firewalls bündeln Confidential Computing, RAG und Pseudonymisierung, damit Teams LLMs nutzen, ohne Patientendaten, Finanzdaten oder geistiges Eigentum offenzulegen.

Verschlüsselte KI-Interaktionen über eine GenAI-Firewall sollen den Austausch mit Sprachmodellen ermöglichen, ohne dass sensible Unternehmensdaten die geschützte Ausführungsumgebung verlassen.(Bild: ©  Saulo Collado - stock.adobe.com)
Verschlüsselte KI-Interaktionen über eine GenAI-Firewall sollen den Austausch mit Sprachmodellen ermöglichen, ohne dass sensible Unternehmensdaten die geschützte Ausführungsumgebung verlassen.
(Bild: © Saulo Collado - stock.adobe.com)

Seit dem Launch der ersten ChatGPT-Version und dem darauffolgenden Hype sind generative KI-Systeme aus dem privaten und geschäftlichen Alltag nicht mehr wegzudenken – von Large Language Models (LLMs) über Specialized Language Models (SLMs) bis hin zu weiteren ge­ne­ra­ti­ven Technologien. Einer Konjunkturumfrage des Ifo Instituts aus Juni 2025 zufolge verwenden bereits über 40 Prozent der deutschen Wirtschaftsunternehmen KI in ihren Geschäftsprozessen, mit stark steigender Tendenz.

Dies ist wenig verwunderlich, denn die Potenziale generativer KI in Kombination mit den Datenschätzen von Organisationen sind enorm. So könnten sichere Interaktionen mit Patientendaten etwa die Effizienz der Behandlungen im Krankenhaus deutlich steigern. In einem anderen Beispiel wiederum ließe sich die Analyse großer Mengen von Fi­nanz­trans­ak­ti­onen – ein Vorgang, der in Finanzhäusern zum alltäglichen Geschäft gehört – wesentlich schneller umsetzen.

Herausforderungen im Zusammenhang mit der KI-Nutzung

Mit der Nutzung gehen allerdings auch zahlreiche Herausforderungen einher, deren Bewältigung vor allem für Unternehmen in streng regulierten Sektoren eine große Hürde darstellt. Denn sobald sensible Informationen in die KI-Interaktionen einfließen, entstehen Gefahren für den Datenschutz und die Einhaltung regulatorischer Vorschriften wie DSGVO (Datenschutz-Grundverordnung) und HIPAA (Health Insurance Portability and Accountability Act). Vor allem in der Kombination mit öffentlichen oder falsch konfigurierten LLMs drohen Datenlecks, durch die sensible Daten und geistiges Eigentum offengelegt werden könnten.

Zudem haben bösartige Akteure längst auch ihrerseits das Potenzial künstlicher Intelligenzen erkannt und neuartige KI-basierte Angriffsvektoren entwickelt – wie etwa die „OWASP Top 10 for LLM Applications 2025“ zeigen. Dazu gehören unter anderem Techniken wie Prompt Injection oder Jailbreaking, im Zuge dessen LLMs so manipuliert werden, dass sie entgegen eigener Schutzmechanismen vertrauliche Informationen preisgeben.

Auch operative und betriebswirtschaftliche Herausforderungen spielen beim Einsatz von KI-Systemen eine nicht unerhebliche Rolle. So sind Unternehmen bei der Nutzung externer LLM-Modelle oft an limitierte Datenmengen gebunden oder müssen im Zuge des Token Pricing mit ausufernden Kosten rechnen – denn die Rechenleistung des Anbieters steigt mit der Menge der eingespielten internen Daten. Eine weitere operative Herausforderung stellen Abhängigkeiten von Organisationen in Bezug auf ihre spezifischen Security-Lösungen und -Anbieter dar, was es oft erschwert, andere Systeme zum Schutz der Daten bei KI-Nutzung zu integrieren. Diese Abhängigkeit kann ebenfalls zu steigenden Kosten und einer geringeren Flexibilität bei der Verwaltung der Sicherheit über verschiedene Plattformen hinweg führen.

Sichere Daten – selbst während der Verarbeitung

Eine Antwort auf all diese Herausforderungen liefern sogenannte GenAI-Firewalls, die zu jeder Zeit den Schutz der Daten gewährleisten, die Einhaltung regulatorischer Vorgaben ermöglichen und somit sichere Interaktionen mit KI-Systemen zulassen. Realisiert wird dies durch die Kombination ver­schie­dener Technologien. Die Grundlage bildet der Ansatz des Confidential Computing, bei dem sämtliche Daten in allen drei Dimensionen (at rest, in transit, in use) verschlüsselt sind.

Diese „3D-Verschlüsselung“ schließt eine wichtige Lücke im konsistenten Schutz von Daten, die vor allem während des Verarbeitungsprozesses in Applikationen, etwa in RAM oder CPU, oft ungeschützt und angreifbar sind. Um dies zu verhindern, erfolgt die Kommunikation mit der KI ausschließlich über das User Interface der GenAI-Firewall, die wiederum in einer sicheren Enklave ausgeführt wird, also auf vertraulichen virtuellen Maschinen mit Hardware-basierter Isolierung. Dieser Ansatz schützt die verarbeiteten Daten vor sämtlichen nicht autorisierten Zugriffen, sogar vor Cloud Service Providern oder privilegierten Accounts wie Administratoren.

LLM-Nutzung durch GenAI-Firewall in der Praxis

Doch wie genau sieht nun der Prozess der LLM-Nutzung per GenAI-Firewall aus? Zunächst erfolgt die Verknüpfung der benötigten (internen) Daten mit der verschlüsselten Enklave. Diese werden dort automatisch vektorisiert, mit Metadaten angereichert und in einer Vector Database hinterlegt. Anschließend erzeugen Nutzer über ein User Interface, ähnlich wie bei bekannten LLMs, einen Chatroom und starten die Interaktion in natürlicher Sprache. Die GenAI-Firewall vektorisiert diese Fragen, führt eine Datenabfrage an die Vector Database durch und gibt eine passende Antwort aus. In diesem ersten Schritt interagieren die Nutzer demnach zunächst mit ihren eigenen Datenbeständen im Sinne einer Retrieval Augmented Generation (RAG).

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die Schematische Darstellung veranschaulicht den Workflow der KI-Interaktion über die GenAI-Firewall Garnet.(Bild:  enclaive)
Die Schematische Darstellung veranschaulicht den Workflow der KI-Interaktion über die GenAI-Firewall Garnet.
(Bild: enclaive)

Um die Ergebnisse dieser Interaktionen über generative KI-Systeme wie öffentliche LLMs mit zusätzlichen Infos anzureichern, oder interne Ergebnisse validieren zu lassen, müssen allerdings persönliche oder ver­trau­liche Daten verborgen werden. Dazu iden­ti­fi­zie­rt die GenAI-Firewall bereits bei der RAG sensible Informationen und entwickelt eine Replacement Map, die pseudonymisierte Informationen für die externe LLM-Kom­mu­ni­ka­ti­on vorschlägt. Da sich die Definition der sensiblen Daten je nach Branche und Anwendungsfall unterscheiden kann, lässt sich die GenAI-Firewall darauf trainieren, die richtigen Informationen zu identifizieren.

Alternativ ist auch eine manuelle Nachbearbeitung der Replacement Map möglich. Bei der folgenden Kommunikation mit einem LLM oder SLM durch den pseudonymisierten Prompt ist nun gewährleistet, dass das Modell keine Informationen erhält, die es nicht hätte bekommen dürfen. Die Antwort wird anschließend in der sicheren Enklave wieder mit den vertraulichen Daten angereichert und liefert dem User ein weitreichendes, vollumfängliches Ergebnis aus den internen Daten, validiert mit einer externen Perspektive durch das LLM.

Mehr KI, weniger Abhängigkeit

Neben den offensichtlichen Vorteilen hinsichtlich des Datenschutzes profitieren Un­ter­neh­men jedoch auch darüber hinaus von modernen GenAI-Firewalls. So reduziert die Vorfilterung des eigenen Datenbestandes über die Vector Database die Menge an Informationen, mit der ein LLM gespeist wird. Auf diese Weise können Unternehmen große Datenmengen sicher und effizient nutzen, ohne an externe Modellbeschränkungen gebunden zu sein. Gleichzeitig sorgt die Vorfilterung für niedrigere Kosten bei der Nutzung generativer KI-Modelle, da die niedrigere Datenmenge auch die benötigte Rechenleistung auf Seiten des Anbieters reduziert.

Um das freigewordene Kapital nicht gleich an anderer Stelle wieder zu binden, sollten bei der Wahl einer GenAI-Firewall in jedem Fall herstellerunabhängige Lösungen in Betracht gezogen werden. Denn Organisationen entwickeln bezüglich ihrer Security-Lösungen häufig eine Abhängigkeit zu spezifischen Herstellern. Dadurch ist es schwerer, zwischen Anbietern zu wechseln oder andere Systeme zu integrieren. Diese Abhängigkeit erhöht wiederum die Gefahr steigender Kosten und einer geringeren Flexibilität bei der Verwaltung der Sicherheit über verschiedene Plattformen hinweg.

Unter Berücksichtigung aller genannten Aspekte und Herausforderungen profitieren Unternehmen und Organisationen von den enormen Effizienzsteigerungen, die fortschrittliche generative KI-Modelle für Unternehmensprozesse bieten können. GenAI-Firewalls markieren einen Wendepunkt im sicheren Umgang mit KI im Enterprise-Umfeld. Sie verbinden technologische Innovation mit regulatorischer Absicherung und eröffnen neue Wege für den Wissenstransfer – ohne dabei die Kontrolle über oder die Vertraulichkeit von Daten zu opfern. Wer heute in solche Schutzmechanismen investiert, stellt die Weichen für die vertrauenswürdige und zukunftsfähige Nutzung generativer KI-Systeme in Unternehmen.

Über den Autor: Andreas Walbrodt ist CEO und Co-Founder von enclaive, dem Confidential-Computing-Spezialisten hinter der GenAI-Firewall Garnet. Der Experte für innovative Geschäftsmodelle und Start-Up-Gründung verfügt über mehr als 30 Jahre Erfahrung im Bereich Cloud und IT-Security – und war unter anderem als Direktor bei IBM sowie Mitglied der Geschäftsleitung der TÜV Rheinland i-SEC GmbH tätig.

(ID:50675619)