„Pssst…vertraulich!“Cloud Computing mit Laufzeit-Verschlüsselung
Von
CTO und CISO Anna Kobylinska
und
Filipe Pereira Martins
8 min Lesedauer
In mehrmandantenfähigen IT-Umgebungen geht das Gespenst von CPU-Datenlecks und das Risiko von Seitenkanalangriffen mit Privilegieneskalation schon länger um. Bald fließt die NIS-2-Richtlinie der Europäischen Union in deutsche Gesetzgebung hinein und hebt die Messlatte hinsichtlich der IT-Sicherheit noch weiter an. Cloud Computing mit Laufzeit-Verschlüsselung wäre da die Idee.
Confidential Computing zieht eine zusätzliche Sicherheitsebene ein und verschlüsselt Daten während der Laufzeit, indem Workloads in isolierten, hardwareverschlüsselten Umgebungen oder vertrauenswürdigen Umgebungen ausgeführt werden.
(Bild: Gefo - stock.adobe.com)
Vertrauenswürdig in der Cloud rechnen (Stichwort: Confidential Computing), das gibt es ja schon.— und nicht nur bei den Hyperscalern. Die Berliner Enclaive GmbH beispielsweise meistert den Drahtseilakt mit VMs und Containern sogar in der Multicloud.
NIS-2 kommt – bitte anschnallen!
Die NIS-2-Richtlinie der EU fordert verschärfte Cybersicherheitsmaßnahmen und erweitert gleichzeitig den Geltungsbereich der regulierten Organisationen — kritische Infrastrukturen und essenzielle Dienste — auf zusätzliche Sektoren. Betroffen sind erstmals auch zahlreiche mittelständische Versorgungsunternehmen. Das NIS-2-Umsetzungs- und Cybersicherheitsstärkungsgesetz (NIS2UmsuCG) könnte bereits im März 2025 in Kraft treten.
Die erweiterten Sicherheitsmaßnahmen haben zum Ziel, den Schutz von Daten und Arbeitslasten auch während der Verarbeitung zu stärken. Cloud-Nutzern stehen einige Anpassungen ihrer Sicherheitslage bevor.
Seit dem Bekanntwerden gravierender Verwundbarkeiten in marktüblichen Prozessoren von Anbietern wie Intel, AMD und ARM sind die Risiken im Cloud-Umfeld deutlich gestiegen. Aktive Bedrohungen von Cloud-Arbeitslasten umfassen neue Varianten von Spectre (Zugriffe auf beliebige Speicherbereiche), Meltdown auf älteren Prozessoren und Reptar (CVE-2023-23583). Diese Schwachstellen ermöglichen es potenziellen Angreifern, auf sensible Informationen zuzugreifen, selbst wenn sie verschlüsselt gespeichert und verschlüsselt übertragen werden, durch Seitenkanalangriffe mit Privilegieneskalation und Datenlecks.
Das grundlegende Problem liegt darin, dass die Daten in traditionellen Cloud-Umgebungen während der Verarbeitung selbst auf mehrmandantenfähiger Hardware im Klartext gehandhabt werden. Bei mehrmandantenfähigen Systemen nutzen mehrere Kunden dieselbe physische Systemhardware. Gängige Verwundbarkeiten in Prozessorarchitekturen steigern das Risiko einer Datenverletzung oder eines unbefugten Zugriffs.
Seitenkanalangriffe via Spectre nutzen die sogenannten spekulativen Ausführungen der CPU, um unerlaubte Zugriffe auf den CPU-Speicher zu tätigen. Durch geschickte Manipulationen während der spekulativen Ausführung hinterlässt die CPU seitliche Spuren beispielsweise in den Cache-Speichern, die Timing-basierte Rückschlüsse auf die Daten zulassen. So können Angreifer sensible Daten wie Passwörter oder Verschlüsselungsschlüssel anderer Cloud-Nutzer aus dem Speicher der CPU extrahieren, wenn sie eigene VMs oder Docker-Container auf derselben Hardware ausführen.
Sechs Jahre nach der Entdeckung der Sicherheitslücken Spectre und Meltdown haben Forscher Johannes Wikner und Kaveh Razavi der ETH Zürich neue Schwachstellen in Prozessoren von Intel und AMD aufgedeckt. Die neue Variante von Spectre, getauft auf den Namen „Post-Barrier Spectre“, ermöglicht es Angreifern, hardwarebasierte Sicherheitsvorkehrungen (konkret die Indirect Branch Predictor Barrier) neuerer CPUs zu umgehen und sensible Informationen wie den Hash des Root-Passworts aus einem suid-Prozess zu extrahieren.
Während CPU-Anbieter wie Intel oder AMD und der Architekturdesigner ARM inzwischen hardwarebasierte und softwareseitige Schutzmaßnahmen bereitstellen, bleibt Spectre ein grundlegendes Designproblem moderner Prozessoren und ein gravierendes Sicherheitsrisiko für Cloud-Arbeitslasten.
Mit Meltdown (Intel, ARM und AMD) können Angreifer auf geschützte Speicherbereiche von Prozessoren zugreifen, die normalerweise unzugänglich sind, und Daten daraus extrahieren. Für die meisten Systeme, die regelmäßig aktualisiert werden, stellt diese kritische Verwundbarkeit nach dem heutigen Wissensstand kein aktives Risiko mehr dar — doch Cloud-Nutzern stehen keinerlei Möglichkeiten zur Verfügung, die nachweislich zu überprüfen oder Maßnahmen zu erwirken.
Trotz Schutzmaßnahmen wie Intel eIBRS oder AMD SEV-SNP, die solche Angriffe verhindern sollten, sind Cloud-Nutzer also nicht ganz immun, vor allem da sie auf die Wahl der CPU oder der eingespielten Firmware und die Software-Updates im Normalfall keinen Einfluss haben. Die Entdeckung von Spectre und Meltdown hat die Bedeutung von Confidential Computing und die Notwendigkeit von Trusted Execution Environments (TEEs) ins Bewusstsein vieler Cloud-Nutzer gebracht.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Cloud-Anbieter wie AWS, Microsoft Azure und Google Cloud haben umfangreiche Sicherheitsmaßnahmen implementiert, darunter zusätzliche Isolationsmaßnahmen in den Hypervisoren, um die Risiken durch Seitenkanalangriffe zu minimieren. Allerdings ist die direkte Überwachung solcher Angriffe sowie die Erkennung von Datenlecks kompliziert. Die rückblickende Analyse eines Vorfalls hat nach Verlust sensibler Daten nur fragwürdigen Nutzen. Privilegieneskalation und Datenlecks könnten in der Cloud an der Tagesordnung sein, da sie größtenteils unbemerkt stattfinden können.
Confidential Computing umfasst den Schutz von Daten im Transport, im Ruhezustand und während der Verarbeitung. Dieser bahnbrechende Ansatz stützt sich auf hardwarebasierte Sicherheitsfunktionen moderner Prozessoren, um den Umgang mit vertraulichen Informationen während der Verarbeitung kryptographisch abzusichern. Die sogenannten Trusted Execution Environments (TEEs) schaffen eine sichere Laufzeitumgebung für Cloud-native Arbeitslasten, die sowohl Cloud-Daten als auch den Anwendungscode vor unbefugtem Zugriff schützen.
In einer On-Premises-Umgebung oder auf dedizierten Cloud-Servern mit TEE-fähigen Prozessoren — Stichwort Bare-Metal-Server — können Unternehmen direkt auf die Funktionen der verwendeten Hardware zugreifen, also etwa AMD SEV (Secure Encrypted Virtualization), Intel SGX (Software Guard Extensions), Intel TDX (Trust Domain Extensions) oder ARM CCA (Confidential Compute Architecture). Die Entwicklungsteams benötigen hierzu Kenntnisse in der Speicherverwaltung auf Kernel-Ebene und Kryptografie, um Verschlüsselungstechniken wie AES, RSA, ECDSA oder PQC zu implementieren.
Confidential-Computing-Services der Hyperscaler
Cloud-Anbieter wie Microsoft Azure, AWS und Google Cloud Platform (GCP) haben Confidential-Computing-Dienste im Portfolio.
AWS bietet mit AWS Nitro Enclaves eine Technologie für vertrauenswürdiges Cloud Computing auf der Basis der AWS Nitro-Plattform. Nitro bildet die Vertrauensbasis (Root of Trust) für die gesamte AWS-Plattform. AWS Nitro Enclaves sind isolierte Umgebungen, die die Workloads von dem Betriebssystem der Hauptinstanz vollständig trennen, um sie vor potenziellen Angriffen durch Malware, Insider-Bedrohungen oder Schwachstellen in der übrigen Infrastruktur abzuschotten.
Die Sicherheitsarchitektur von Nitro umfasst mehrere Komponenten. Der Nitro Security Chip lagert eine Reihe sicherheitskritischer Aufgaben wie die Initialisierung von EC2-Instanzen von der Software auf dedizierte Hardware aus. Nitro TPM (Trusted Platform Module) ermöglicht die Erstellung und Speicherung von kryptografischen Schlüsseln und wacht über die Integrität von EC2-Instanzen durch die Authentifizierung ihrer Hardware-Komponenten. Mit Nitro Enclaves bietet AWS eine isolierte Ausführungsumgebung in EC2 für besonders sensible Daten und Berechnungen. Nitro ist das Herzstück von Confidential Computing auf AWS.
Erstellen eines vertrauenswürdigen Kubernetes-Clusters mit Enclaive auf AWS.
(Bild: Enclaive GmbH)
Die Enklave hat keinen Netzwerkzugriff, keinen persistenten Speicher und keine Admin- oder Root-Rechte. Selbst Administratoren oder privilegierte Nutzer haben keinen Zugriff auf die Daten, die in der Enklave verarbeitet werden. Die Enklave schützt ihre Arbeitslasten mit Hilfe kryptografischer Funktionen, verwaltet aber auch selbst die Schlüssel (im AWS-Dienst Key Management Service). Entwickler können die Nitro Enclaves mit Hilfe von APIs und Toolkits wie AWS Nitro CLI einrichten und verwalten, ohne tiefgreifende Änderungen an den eigenen Anwendungen vorzunehmen — solange sie das AWS-Ökosystem nicht verlassen.
Microsoft Azure bietet speziell angepasste virtuelle Maschinen und vertrauenswürdige Container auf der Basis von Intel SGX (Software Guard Extensions). Die Technologie ermöglicht es, Daten in einer sicheren Ausführungsumgebung zu verarbeiten. Daten werden verschlüsselt an die Enklave gesendet und bleiben während der gesamten Verarbeitung verschlüsselt.
Azure stellt den Nutzern einen Attestation Service zur Verfügung, der dazu dient, den Vertrauensstatus einer Confidential-Computing-Instanz nachzuweisen. Mit diesem Service können Cloud-Nutzer die Integrität und Authentizität der verwendeten Enklave überprüfen. Über die Sicherheit der Schlüssel wacht Azure Key Vault, Hardware-Sicherheitsmodule (HSMs) oder Azure Dedicated HSM.
Confidential Computing sei „ein Durchbruch in der Cloud-Sicherheit“, glaubt Thomas Kurian, CEO von Google Cloud. Google Cloud bietet unter anderem Confidential VMs auf der Basis der AMD SEV-Technologie (Secure Encrypted Virtualization) und Confidential GKE (Google Kubernetes Engine). Auch Google verwaltet die Schlüssel seiner Kunden in der eigenen Cloud.
Die höhere Abstraktion standardisierter Plattformlösungen erleichtert den Zugriff auf hardwarebasierte Sicherheitsmechanismen in der Cloud, aber stärkt gleichzeitig auch die Kundenbindung und erschwert die Portierung von Workloads zwischen Clouds unterschiedlicher Anbieter. Die Vielfalt an konkurrierenden Technologien in den verschiedenen Cloud-Ökosystemen führt zur Entstehung von operativen Silos und erhöht die Komplexität der IT-Landschaft.
Hinzu kommt die fragwürdige Problematik der Schlüsselverwaltung. „Bring Your Own Key“ sei keine optimale Lösung, argumentiert Andreas Walbrodt, Mitgründer und CEO von Enclaive GmbH. Cloud-Nutzer würden nämlich den eigenen Schlüssel bei ihrem Anbieter „in den Schlüsselkasten hängen“. Damit hätten sie bloß eine Illusion des eigenen Schlüssels, denn dieser hänge ja trotzdem bei dem Dienstleister im Schlüsselkasten und „er könnte ihn theoretisch nehmen und damit was tun oder es könnte ein böser Bube kommen“, kommentiert Walbrodt.
Wer sich auf die nativen Lösungen der HyperScaler AWS (Nitro Enclaves), Google (Confidential VMs) oder Azure (Confidential Computing) nicht festnageln lassen will, kann grundsätzlich einen von zwei Wegen einschlagen: eine sichere Ausführungsumgebung im „Do it yourself“-Verfahren implementieren (DIY) oder auf cloudanbieter-agnostische Lösungen von Drittanbietern zurückgreifen.
Ein Blick auf das Dashboard von Enclaive sagt mehr als tausend Worte.
(Bild: Enclaive GmbH)
Das DIY-Verfahren verspricht punktegenaue Compliance im Hinblick auf branchenspezifische Vorschriften in hochregulierten Branchen, hat jedoch auch gravierende Nachteile. Fehler in der Implementierung können zu Schwachstellen führen, die den gesamten Sicherheitsansatz untergraben. Der DIY-Weg mag mehr Kontrolle und Flexibilität bieten, erfordert jedoch auch ein höheres Maß an technischer Expertise und Verantwortung, darunter umfassendes Fachwissen in den Bereichen Kryptografie, Sicherheit und Hardware-Integration.
Zum Glück geht es auch anders, und zwar ohne die nativen Dienste der Hyperscaler, ohne die Notwendigkeit von Infrastrukturanpassungen, ohne DevOps, ohne Code-Änderungen, ohne Leistungseinbuße. Enclaive hat dieses Versprechen bereits für zahlreiche Unternehmen vorbildlich erfüllt. Zu den Kunden des Berliner Startups zählen Rohde & Schwarz GmbH & Co. KG (technologieführend in den Bereichen Messtechnik, Technologie-Systeme sowie Netzwerke und Cybersicherheit), Lufthansa Industry Solutions (IT-Beratung und Systemintegration), Hensoldt AG (eine global tätige Sensorik-Spezialistin), Zenner IoT Solutions aus Hamburg (Anbieter der Plattform Element IoT) und Eviden (Dienstleister in den Bereichen Cloud-Computing, Cybersicherheit, Datenanalyse, Künstliche Intelligenz und digitale Arbeitsplatzlösungen aus Frankreich).
„Das Schöne an der Technologie ist, dass sie so einfach zu deployen ist; ich muss meine Software nicht neu schreiben und brauche nur drei Prozent mehr Compute“, erklärt Andreas Walbrodt, Mitgründer und CEO von Enclaive GmbH.
(Bild: Enclaive GmbH)
Während AWS, Azure und Google Cloud standardisierte Angebote rund um Confidential Computing bereitstellen, die in ihre bestehenden Cloud-Infrastrukturen eingebettet sind, trumpft Enclaive mit einer höheren Flexibilität bei der Gestaltung und Implementierung von Sicherheitslösungen auf. Unternehmen können mit Enclaive spezifische Sicherheitsarchitekturen entwickeln, die zu ihrer IT-Landschaft passen, unabhängig davon, ob sie eine Multicloud-Strategie verfolgen oder hybride Umgebungen nutzen. Ihre geheimen Schlüssel müssten die Cloud-Nutzer nicht aus der Hand geben. So mache man die Cloud sicher.
Lückenloser Schutz sensibler Daten ist auch in der Cloud möglich
Dank Confidential Computing können Unternehmen die Sicherheitslage ihrer Cloud-Arbeitslasten auf ein neues Niveau heben. Mit Lösungen wie die Plattform von Enclaive brauchen die Unternehmen selbst bei sensiblen Arbeitslasten auf die Vorteile der Multicloud nicht zu verzichten. Für viele Unternehmen stellt die Nutzung der nativen Dienste der Hyperscaler eine praktikable und einfache Lösung dar, während unabhängige Ansätze für spezielle Szenarien (z. B. Multicloud oder spezifische Compliance-Anforderungen) sinnvoll sein können. Die Wahl hängt letztlich von den individuellen Anforderungen ab.
* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali, Inc., USA.