Im Fokus: Cloud Storage – Herausforderungen beim Cloud Storage Wie man Datenmassen in der Multi-Cloud sicher handhaben kann

Von Thomas Meier* |

Anbieter zum Thema

Wer die sich stetig vergrößernden Datenberge sicher und sinnvoll handhaben will, kommt mit altbewährten Werkzeugen nicht mehr weiter. Bei Datenmanagement, Backup und Recovery braucht man heute neue Ansätze.

Im Fokus: Cloud Storage – Cloud-Storage-Konzepte benötigen neue Ansätze für Datenmanagement sowie Backup/Recovery.
Im Fokus: Cloud Storage – Cloud-Storage-Konzepte benötigen neue Ansätze für Datenmanagement sowie Backup/Recovery.
(Bild: ©BillionPhotos.com - stock.adobe.com)

Klassische Anforderungen an die Handhabung von Daten sind ein einheitlicher Zugriff über alle Plattformen hinweg, sichere Transport- und Verschlüsselungstechnologien sowie Einhaltung von Compliance-Regeln. Das alles ist keinesfalls selbstverständlich, denn im Zeitalter des exponentiellen Datenwachstums und der Multi-Cloud stellen sich alte Probleme in verschärfter Form.

So ist beispielsweise die Datensouveränität unter ständiger Bedrohung: Anwender wollen, beispielsweise zum Schutz ihres geistigen Eigentums, selbst kontrollieren, wer welche ihrer Daten sehen darf, wo sie gelagert sind und was mit ihnen geschieht. Der Gesetzgeber stellt zudem die Anforderung, dass bestimmte Daten wie Medizin- oder auch Finanzdaten sehr langfristig aufbewahrt, bestens geschützt und zum Nachweis der Regelkonformität oder sonstigen Zwecken jederzeit zur Einsicht bereitgehalten werden müssen.

Das ist aber mehr denn je eine Herausforderung. Denn die Daten können auf private und öffentliche Clouds mit jeweils unterschiedlichen Datenschnittstellen verteilt sein, sie können zu Apps in Containern mit persistent konfiguriertem Speicher, zu virtuellen Maschinen oder zu dedizierten Servern gehören und auf unterschiedlichen Storage-Medien liegen.

Edge-Clouds erfordern übergreifendes Datenmanagement

Ein übereinstimmender Expertenvorschlag ist, Sicherheits- und Zugriffsmechanismen zu vereinheitlichen und damit zu vereinfachen sowie APIs und Zugriffsprotokolle zu standardisieren. Es braucht ein Managementtool, das auch in einer derart heterogenen Welt jederzeit weiß, wo sich welche Daten befinden, wer welche Zugriffsrechte hat und ob alle Compliance-Regeln eingehalten werden. Idealerweise sorgt solch ein System auch dafür, dass Analytics-Anwendungen auf alle relevanten Daten zugreifen können, ohne sie erst umständlich migrieren zu müssen. Erst langsam kommen Werkzeuge auf den Markt, die diesen Anforderungen entsprechen; ein Beispiel dafür ist die Datenmanagementplattform HPE Ezmeral Data Fabric, aka MapR.

Besonders wichtig ist das im gerade beginnenden Zeitalter der Edge-Clouds, kleiner Rechenzentren in der Nähe der Datenentstehung. Eine Datenmanagementplattform muss die Regeln dafür definieren, welche Daten von Edge-Applikationen an andere Akteure weitergereicht, in der Zentrale gespeichert oder vor Ort analysiert, in entsprechende Steuerimpulse umgesetzt und dann gelöscht werden. Gerade in industriellen Internet-of-Things-Umgebungen (IoT, Industrie 4.0) ist dies erforderlich, um eine effiziente Handhabung der Daten und gleichzeitig die erwünschten betriebsübergreifenden Optimierungen der Produktionsprozesse zu erreichen.

Im Zeitalter der hybriden Multi-Clouds braucht es Datenmanagementwerkzeuge, die auch in einer derart heterogenen Welt jederzeit wissen, wo sich welche Daten befinden, wer welche Zugriffsrechte hat und ob alle Compliance-Regeln eingehalten werden.
Im Zeitalter der hybriden Multi-Clouds braucht es Datenmanagementwerkzeuge, die auch in einer derart heterogenen Welt jederzeit wissen, wo sich welche Daten befinden, wer welche Zugriffsrechte hat und ob alle Compliance-Regeln eingehalten werden.
(Bild: HPE)

Herausforderung Backup in die Cloud

Gerade die Datenmigration, auch zu Backup- oder Restore-Zwecken, wird durch steigende Datenmengen komplizierter. Bei der Migration aus Clouds oder von Cloud zu Cloud stellen sich Bandbreiten- und Kostenfragen, die angesichts günstiger Public-Cloud-Speicherkosten oft übersehen werden. Unter Umständen dauert das Rückspielen schlicht zu lange, wenn es bei der Wiederherstellung von Daten auf möglichst kurze Fristen ankommt (Recovery Time Objective).

Hier helfen Technologien, die dem Anwender die freie Wahl lassen, seine Daten zwar außerhalb des eigenen Rechenzentrums zu speichern, aber dennoch komplett unter Kontrolle des Kunden bleiben. Strukturierte Daten können dabei mittels der üblichen Backup-Tools und entsprechenden Cloud-Targets, etwa mit HPE Cloud Bank, kombiniert werden, wobei sich der Speicher unter der Regie von HPE befindet. Ein zusätzlicher Backup ist dann über eine S3-Schnittstelle in die Public Cloud oder andere S3-Speicher möglich. Bei besonders kritischen Daten dürfte die Sicherung auf unveränderlichen WORM-Medien als Schutz vor Ransomware sinnvoll sein.

Neues eBook

Umfassender Überblick über die verschiedenen Möglichkeiten für Cloud-Storage

Cloud-Speicher-Strategien im Vergleich

eBook Cloud-Speicher
eBook Cloud-Speicher
(Bildquelle: Storage-Insider)

Die Hauptthemen des eBooks sind:
# Günstig, schnell und sicher: Storage in der Cloud
# Wozu Cloud-Storage-Plattformen?
# Exklusiver Cloud-Storage vor Ort
# Standardisierter Cloud-Storage von Providern
# Das Beste aus beiden Welten vereinen
# Alternativlos – aber die Qual der Wahl bleibt


>>> eBook „Cloud-Speicher-Strategien im Vergleich“ downloaden

Für die Sicherung großer Mengen unstrukturierter Daten empfehlen sich Snapshots in Kolokationsrechenzentren auf Infrastruktur, die vom Anwender kontrolliert wird. Denn Snapshots beschränken die Menge der bei der Sicherung übertragenen Daten auf das Unumgängliche. Mit HPE Cloud Volumes, einem blockorientierten Storage-Dienst, kann ein solcher Backup-Service nach Bedarf bezogen und nach Nutzung bezahlt werden, obwohl die Kontrolle über die Daten vollständig beim Kunden liegt. Kolokateure und Dienstleister verhalten sich entsprechend dessen Wünschen und Vorstellungen. Der Anwender hat die volle Kontrolle und damit Datensouveränität. Das hybride Gesamtsystem steht dabei unter einem einheitlichen Management mit einheitlicher Oberfläche.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Neue Lösungen für Spezialanforderungen

Für Spezialanforderungen gibt es schon eine Reihe neuer, sehr leistungsfähiger Lösungen, die meistens rein Software-basierte Ansätze verfolgen und oft die Cloud als Umfeld schon voraussetzen. Soll beispielsweise eine Umgebung im Rahmen einer Disaster Recovery besonders schnell wieder hochgefahren werden, kann Zerto die richtige Wahl sein. Das Werkzeug ermöglicht die Sicherung vieler Tausender virtueller Maschinen in der Public Cloud. Bei Bedarf sind sie dort auf Knopfdruck reaktivierbar, so dass es auch bei schwerwiegenden Zwischenfällen nicht zu einem Stillstand des Geschäftsbetriebs kommt. Auch hier behält der Anwender die Kontrolle über seine Daten.

Ein weiteres Beispiel für eine solche Software-basierte Speziallösung ist Cohesity. Cohesity sichert und verwaltet je nach Wunsch des Kunden nicht latenzsensitive Daten auf einer Datenmanagementplattform im eigenen Haus, bei einem Kolokateur oder auch in einer Public Cloud, allerdings unter der Kontrolle von Cohesity beziehungsweise des Kunden. Der Provider hat auf die Daten keinen Zugriff. Bei Bedarf können Daten und Applikationen dann in der Cloud via Massendatenwiederherstellung schnell wieder hochgefahren werden.

Fazit

Die Beispiele zeigen, dass sich die Technologie allmählich dem exponentiellen Wachstum insbesondere unstrukturierter Daten in hybriden Multi-Cloud-Strukturen anpasst. Eine besondere Rolle spielen dabei serviceorientierte Angebote mit bedarfsorientiertem Bezug und nutzungsbezogener Bezahlung. Storage-Produkte der Zukunft sind Software-basiert und sicher und vereinfachen aus Sicht der IT-Administration die möglichen Datenablagen, Sicherheitsmechanismen, APIs und Zugriffsprotokolle. Sie kommen mit allen Arten von Daten und Infrastrukturen zurecht und erleichtern Anwendern das Leben, statt ihre Arbeitskraft in zeitraubenden Routinen zu verbrauchen.

Thomas Meier, Chief Technologist Data Practice, Hewlett Packard Enterprise.
Thomas Meier, Chief Technologist Data Practice, Hewlett Packard Enterprise.
(Bild: HPE)

*Der Autor: Thomas Meier, Chief Technologist Data Practice, Hewlett Packard Enterprise

(ID:47028542)