KI-Lösungen gehören in vielen Unternehmen und Organisationen zum Alltag. Doch beim Umgang mit KI lauern Gefahren für die Datensicherheit und Compliance-Verstöße. GenAI-Firewalls bündeln Confidential Computing, RAG und Pseudonymisierung, damit Teams LLMs nutzen, ohne Patientendaten, Finanzdaten oder geistiges Eigentum offenzulegen.
Verschlüsselte KI-Interaktionen über eine GenAI-Firewall sollen den Austausch mit Sprachmodellen ermöglichen, ohne dass sensible Unternehmensdaten die geschützte Ausführungsumgebung verlassen.
Seit dem Launch der ersten ChatGPT-Version und dem darauffolgenden Hype sind generative KI-Systeme aus dem privaten und geschäftlichen Alltag nicht mehr wegzudenken – von Large Language Models (LLMs) über Specialized Language Models (SLMs) bis hin zu weiteren generativen Technologien. Einer Konjunkturumfrage des Ifo Instituts aus Juni 2025 zufolge verwenden bereits über 40 Prozent der deutschen Wirtschaftsunternehmen KI in ihren Geschäftsprozessen, mit stark steigender Tendenz.
Dies ist wenig verwunderlich, denn die Potenziale generativer KI in Kombination mit den Datenschätzen von Organisationen sind enorm. So könnten sichere Interaktionen mit Patientendaten etwa die Effizienz der Behandlungen im Krankenhaus deutlich steigern. In einem anderen Beispiel wiederum ließe sich die Analyse großer Mengen von Finanztransaktionen – ein Vorgang, der in Finanzhäusern zum alltäglichen Geschäft gehört – wesentlich schneller umsetzen.
Herausforderungen im Zusammenhang mit der KI-Nutzung
Mit der Nutzung gehen allerdings auch zahlreiche Herausforderungen einher, deren Bewältigung vor allem für Unternehmen in streng regulierten Sektoren eine große Hürde darstellt. Denn sobald sensible Informationen in die KI-Interaktionen einfließen, entstehen Gefahren für den Datenschutz und die Einhaltung regulatorischer Vorschriften wie DSGVO (Datenschutz-Grundverordnung) und HIPAA (Health Insurance Portability and Accountability Act). Vor allem in der Kombination mit öffentlichen oder falsch konfigurierten LLMs drohen Datenlecks, durch die sensible Daten und geistiges Eigentum offengelegt werden könnten.
Zudem haben bösartige Akteure längst auch ihrerseits das Potenzial künstlicher Intelligenzen erkannt und neuartige KI-basierte Angriffsvektoren entwickelt – wie etwa die „OWASP Top 10 for LLM Applications 2025“ zeigen. Dazu gehören unter anderem Techniken wie Prompt Injection oder Jailbreaking, im Zuge dessen LLMs so manipuliert werden, dass sie entgegen eigener Schutzmechanismen vertrauliche Informationen preisgeben.
Auch operative und betriebswirtschaftliche Herausforderungen spielen beim Einsatz von KI-Systemen eine nicht unerhebliche Rolle. So sind Unternehmen bei der Nutzung externer LLM-Modelle oft an limitierte Datenmengen gebunden oder müssen im Zuge des Token Pricing mit ausufernden Kosten rechnen – denn die Rechenleistung des Anbieters steigt mit der Menge der eingespielten internen Daten. Eine weitere operative Herausforderung stellen Abhängigkeiten von Organisationen in Bezug auf ihre spezifischen Security-Lösungen und -Anbieter dar, was es oft erschwert, andere Systeme zum Schutz der Daten bei KI-Nutzung zu integrieren. Diese Abhängigkeit kann ebenfalls zu steigenden Kosten und einer geringeren Flexibilität bei der Verwaltung der Sicherheit über verschiedene Plattformen hinweg führen.
Sichere Daten – selbst während der Verarbeitung
Eine Antwort auf all diese Herausforderungen liefern sogenannte GenAI-Firewalls, die zu jeder Zeit den Schutz der Daten gewährleisten, die Einhaltung regulatorischer Vorgaben ermöglichen und somit sichere Interaktionen mit KI-Systemen zulassen. Realisiert wird dies durch die Kombination verschiedener Technologien. Die Grundlage bildet der Ansatz des Confidential Computing, bei dem sämtliche Daten in allen drei Dimensionen (at rest, in transit, in use) verschlüsselt sind.
Diese „3D-Verschlüsselung“ schließt eine wichtige Lücke im konsistenten Schutz von Daten, die vor allem während des Verarbeitungsprozesses in Applikationen, etwa in RAM oder CPU, oft ungeschützt und angreifbar sind. Um dies zu verhindern, erfolgt die Kommunikation mit der KI ausschließlich über das User Interface der GenAI-Firewall, die wiederum in einer sicheren Enklave ausgeführt wird, also auf vertraulichen virtuellen Maschinen mit Hardware-basierter Isolierung. Dieser Ansatz schützt die verarbeiteten Daten vor sämtlichen nicht autorisierten Zugriffen, sogar vor Cloud Service Providern oder privilegierten Accounts wie Administratoren.
Doch wie genau sieht nun der Prozess der LLM-Nutzung per GenAI-Firewall aus? Zunächst erfolgt die Verknüpfung der benötigten (internen) Daten mit der verschlüsselten Enklave. Diese werden dort automatisch vektorisiert, mit Metadaten angereichert und in einer Vector Database hinterlegt. Anschließend erzeugen Nutzer über ein User Interface, ähnlich wie bei bekannten LLMs, einen Chatroom und starten die Interaktion in natürlicher Sprache. Die GenAI-Firewall vektorisiert diese Fragen, führt eine Datenabfrage an die Vector Database durch und gibt eine passende Antwort aus. In diesem ersten Schritt interagieren die Nutzer demnach zunächst mit ihren eigenen Datenbeständen im Sinne einer Retrieval Augmented Generation (RAG).
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Schematische Darstellung veranschaulicht den Workflow der KI-Interaktion über die GenAI-Firewall Garnet.
(Bild: enclaive)
Um die Ergebnisse dieser Interaktionen über generative KI-Systeme wie öffentliche LLMs mit zusätzlichen Infos anzureichern, oder interne Ergebnisse validieren zu lassen, müssen allerdings persönliche oder vertrauliche Daten verborgen werden. Dazu identifiziert die GenAI-Firewall bereits bei der RAG sensible Informationen und entwickelt eine Replacement Map, die pseudonymisierte Informationen für die externe LLM-Kommunikation vorschlägt. Da sich die Definition der sensiblen Daten je nach Branche und Anwendungsfall unterscheiden kann, lässt sich die GenAI-Firewall darauf trainieren, die richtigen Informationen zu identifizieren.
Alternativ ist auch eine manuelle Nachbearbeitung der Replacement Map möglich. Bei der folgenden Kommunikation mit einem LLM oder SLM durch den pseudonymisierten Prompt ist nun gewährleistet, dass das Modell keine Informationen erhält, die es nicht hätte bekommen dürfen. Die Antwort wird anschließend in der sicheren Enklave wieder mit den vertraulichen Daten angereichert und liefert dem User ein weitreichendes, vollumfängliches Ergebnis aus den internen Daten, validiert mit einer externen Perspektive durch das LLM.
Neben den offensichtlichen Vorteilen hinsichtlich des Datenschutzes profitieren Unternehmen jedoch auch darüber hinaus von modernen GenAI-Firewalls. So reduziert die Vorfilterung des eigenen Datenbestandes über die Vector Database die Menge an Informationen, mit der ein LLM gespeist wird. Auf diese Weise können Unternehmen große Datenmengen sicher und effizient nutzen, ohne an externe Modellbeschränkungen gebunden zu sein. Gleichzeitig sorgt die Vorfilterung für niedrigere Kosten bei der Nutzung generativer KI-Modelle, da die niedrigere Datenmenge auch die benötigte Rechenleistung auf Seiten des Anbieters reduziert.
Um das freigewordene Kapital nicht gleich an anderer Stelle wieder zu binden, sollten bei der Wahl einer GenAI-Firewall in jedem Fall herstellerunabhängige Lösungen in Betracht gezogen werden. Denn Organisationen entwickeln bezüglich ihrer Security-Lösungen häufig eine Abhängigkeit zu spezifischen Herstellern. Dadurch ist es schwerer, zwischen Anbietern zu wechseln oder andere Systeme zu integrieren. Diese Abhängigkeit erhöht wiederum die Gefahr steigender Kosten und einer geringeren Flexibilität bei der Verwaltung der Sicherheit über verschiedene Plattformen hinweg.
Unter Berücksichtigung aller genannten Aspekte und Herausforderungen profitieren Unternehmen und Organisationen von den enormen Effizienzsteigerungen, die fortschrittliche generative KI-Modelle für Unternehmensprozesse bieten können. GenAI-Firewalls markieren einen Wendepunkt im sicheren Umgang mit KI im Enterprise-Umfeld. Sie verbinden technologische Innovation mit regulatorischer Absicherung und eröffnen neue Wege für den Wissenstransfer – ohne dabei die Kontrolle über oder die Vertraulichkeit von Daten zu opfern. Wer heute in solche Schutzmechanismen investiert, stellt die Weichen für die vertrauenswürdige und zukunftsfähige Nutzung generativer KI-Systeme in Unternehmen.
Über den Autor: Andreas Walbrodt ist CEO und Co-Founder von enclaive, dem Confidential-Computing-Spezialisten hinter der GenAI-Firewall Garnet. Der Experte für innovative Geschäftsmodelle und Start-Up-Gründung verfügt über mehr als 30 Jahre Erfahrung im Bereich Cloud und IT-Security – und war unter anderem als Direktor bei IBM sowie Mitglied der Geschäftsleitung der TÜV Rheinland i-SEC GmbH tätig.