Das lokale Backup gerät in Verruf Backups und Restores aus der Wolke könnten Datensicherheit erhöhen

Autor / Redakteur: Ariane Rüdiger / Rainer Graefen

Immer öfter entschließen sich Unternehmen, ihre Daten nicht oder nicht mehr ausschließlich auf internen Ressourcen zu sichern, sondern bei einem Cloud-Provider. Dafür gibt es unterschiedliche Möglichkeiten – in jedem Fall müssen aber einige Kriterien bei der Auswahl des Cloud-Providers beachtet werden.

Anbieter zum Thema

Backup-Konzentrator Cloud
Backup-Konzentrator Cloud
(Bild: sarawut/Stock.adobe.com)

Unternehmen, die ihre Daten nicht sichern, leben gefährlich. Das ist eine Binsenweisheit. Doch unter der Ägide der Europäischen Datenschutzverordnung, die im Mai 2018 in Kraft tritt, kommt es unter Umständen bei Datenverlusten erstmalig zu saftigen, rechtlich verordneten Strafzahlungen.

Die Bedeutung eines sicheren, zuverlässigen Backups und funktionierender Restore-Möglichkeiten wird sich also in den kommenden Jahren durch die zu erwartenden Datenfluten und die verschärfte Rechtslage deutlich erhöhen.

Datenverluste erleiden ist eine Gewohnheit geworden

Trotz der Flut der Backup-Anbieter mit ihren unterschiedlichen Lösungen häufen sich die Probleme: Dank wachsender Datenmassen werden die Backup-Fenster immer enger. Sicherungsmechanismen sind häufig weitaus weniger zuverlässig als man sich wünschen könnte. Laut einer Untersuchung von HPE und AMI gab ein Drittel der befragten Mittelständler an, bereits Daten verloren zu haben.

Wichtigste Ursache dafür waren mit 19 Prozent Festplattenausfälle. Netapp stellte 2014 bei einer Studie unter deutschen Mittelständlern fest, dass viele Firmen hohe Risiken eingehen, beispielsweise testen zwei Drittel die Backup- und Rücksicherungsfunktionen nicht ausreichend. Die meisten nutzten wöchentliche Vollsicherungen, deren Backup-Fenster auf die Dauer zu groß werden, und gaben relativ viel Geld für Sicherungstechnologien aus.

Dazu kommt, dass immer mehr unterschiedliche Datenquellen zu berücksichtigen sind: Neben den Servern samt den virtuellen Maschinen, Applikationen und Workstations in den Unternehmen mobile Systeme bis hin zum Laptop und Daten, die von Systemen und Applikationen direkt in der Cloud produziert werden. Für letztere ist das Cloud Backup wahrscheinlich die einzig sinnvolle Alternative.

Backup as a Service: Alles aus einer Hand

Viele Argumente sprechen für die Nutzung von Cloud-Backup. Wolfgang Heinhaus, Partner Advisor beim Marktforschungs- und Beratungsunternehmen Experton-ISG: „Eine Cloud-Lösung befreit die eigenen Mitarbeiter von diesen Aufgaben. Die Lösung ist flexibel, einfach und spart Kosten (Capex). Die Zuverlässigkeit der Datensicherung wird erhöht. Der Anwender muss sich über Hardware und Speicherkapazitäten keine Gedanken mehr machen.“

Am konsequentesten setzt die Idee vom Backup in der Cloud Backup-as-a-Service (BaaS) um. Bei solchen Backup-Services wird der Anwender den Dienst in der Regel selbst über eine Web-Schnittstelle steuern, mit der die Granularität der Sicherungen, die einbezogenen Daten etc. definiert werden. Für alles Übrige ist dann der Serviceanbieter verantwortlich – beispielsweise dafür, dass die Backups auch tatsächlich in den vorgegebenen Zeitabständen und im vorgesehenen Umfang stattfinden.

Der Markt für BaaS wächst derzeit stark. Das Marktforschungsunternehmen Research and Markets nennt weltweite jährliche Steigerungsraten um 27,5 Prozent Umsatz zwischen 2016 und 2020. Als führende Unternehmen in dem Sektor sehen die Analysten von Research and Markets Dell EMC, Commvault und Symantec. Der Trend zu immer mehr Virtualisierung dürfte diese Tendenz eher verstärken, meint jedenfalls das Marktforschungsinstitut Technavio.

Allerdings sind viele der angebotenen Backup-Dienste internationaler Provider, beispielsweise Mozy von EMC, für deutsche Kunden nur unter Risiko nutzbar.

Denn oft kann man sich nicht sicher sein, dass die Daten auch wirklich innerhalb der deutschen Grenzen gespeichert werden. Es bestehen trotz „Privacy Shield“ bei vielen ungute Gefühle hinsichtlich möglicher unerwünschter Datenzugriffe durch den US-Geheimdienst, sei dies nun angesichts des 2016 vereinbarten Abkommens angemessen oder nicht. Der neue US-Präsident Trump und sein rabiater Regierungsstil dürften nichts dazu beitragen, diese Bedenken beiseite zu räumen.

Anbieter berücksichtigen langsam die Sorgen der Anwender

Attraktiv sind daher gerade für mittelständische Unternehmen Angebote mit einem hohen Vertrauensvorschuss. Recht erfolgreich ist Netapps Modell, mittelständische deutsche Partner als BaaS-Anbieter anspruchsvoll zu zertifizieren, um ihren mit Netapp-Infrastruktur ausgerüsteten Kunden Cloud Backups anbieten zu können.

Dabei werden die Dienstleister jährlich einmal auf rund 100 Kriterien getestet – von einer Exit-Strategie für Fälle, in denen Kunden den Provider wechseln wollen über Selbstbedienungsfunktionen, ein ständig erreichbarer Servicedesk oder eine ISO 27001-Zertifizierung. Angeschlossen haben sich Unternehmen wie Advanced Unibyte, Cancom/Pironet, DARZ, Datis oder SHD, dazu kommen Partner, die die Dienste diese Provider unter eigenem Label weiterverkaufen.

Seit Netapp Altavault übernommen hat, können nun auch Daten in den Dienst einbezogen werden, die nicht auf Netapp-Systemen liegen. Bei Netapp-Systemen als zentraler Speicherlösung macht das eine Funktion des Betriebssystems Ontap ohne Adapter möglich.

Mehrstufige Vertriebsmodelle wie das von Netapp sind bei BaaS-Angeboten verbreitet und erleichtern es Systemhäusern, im Cloud-Zeitalter weiter mitzuspielen. Neben Netapp setzen darauf mittlerweile auch andere Hersteller: Acronis und Evault sind zwei Beispiele. Veeam hat sowohl echte Backup-Partner mit einem vollen Service auf Veeam-Basis als auch Dienstleister unter Vertrag, die nur externe Infrastruktur bereitstellen, auf der Veeam-Backups dann laufen.

Andere, etwa Transtec, bauen ihren Service komplett eigenständig auf. Hier laufen die Backups auf Rechenzentren in Stuttgart und Frankfurt. Wieder andere verlassen sich vor allem auf die großen Cloud-Provider. Druva, Spezialist für Endpoint-Backup mobiler Systeme, stellt die Cloud in den Mittelpunkt seiner Entwicklungen und arbeitet dabei mit Microsoft Azure und Amazon AWS zusammen, wo die Backups gespeichert werden.

Manche Lösungen benötigen zur Sicherung Software-Agenten auf den physischen Servern oder virtuellen Maschinen, andere nicht. Lösungen ohne Agenten ersparen Installationsvorgänge. Andere liefern eine Gateway-Appliance mit, die Daten vor der eigentlichen Übertragung dedupliziert, komprimiert oder anderweitig aufbereitet. Allerdings können diese Geräte bei großen Datenmassen an ihre Kapazitätsgrenzen stoßen. Stehen dagegen Agenten auf den Servern oder Maschinen, lassen sich deren Daten gegebenenfalls von dort direkt in die Cloud replizieren.

Eine attraktive Option besteht darin, Sicherungen in der Cloud im Zweifel nicht mehr in den Standort zurückzuspielen, sondern gegebenenfalls direkt beim Cloud-Provider auf eine VM zu spielen und dort wieder hochzufahren: Dann wird aus dem Backup plötzlich eine lauffähige Anwendung, die über das Internet benutzbar ist.

Hybride Strategien

Viele Unternehmen nutzen heute mehrstufige Backup-Strategien. Wer Cloud-Storage oder Backup-as-a-Service als eine Komponente in eine solche Strategie einbindet, kann lokale und externe Ressourcen sinnvoll kombinieren – beispielsweise die wichtigsten Daten-Backups vor Ort halten, während ältere oder weniger wichtige Daten in der Cloud landen.

Das dürfte heute kaum noch am verwendeten Backup-Produkt scheitern, denn die meisten Anbieter von Backup-Software erlauben unterschiedliche Clouds als Backup-Ziel. Dem kommt entgegen, dass immer öfter nicht nur Festplattenspeicher vor Ort in der Cloud bereitgestellt, sondern auch Tape emuliert wird. So bietet AWS die Tape-Emulation als Funktion seines Storage-Gateway an.

Der Vorteil einer BaaS-Lösung besteht darin, dass Inhouse die bestehende Infrastruktur mehr oder weniger so bleiben kann wie sie ist – es kommt lediglich ein neues Backup-Ziel hinzu. Wer extern einen vom Backup-Anbieter empfohlenen Cloud-Partner wählt, kann davon ausgehen, dass dieser auch tatsächlich technisch alles bereithält, was nötig ist, um mit der betreffenden Softwarelösung zu kooperieren.

Immer öfter werden von den Backup-Spezialisten mehrere Varianten von Produkten und Services angeboten, so dass Anwender ihre spezielle Lösung nach den Gegebenheiten des Einzelfalls kombinieren können – von der Vor-Ort-Sicherung per Snapshot auf SSDs für die wichtigsten Daten bis hin zum Wegschreiben von Daten auf emulierte Tapes in der Cloud für die Langzeitarchivierung.

So können Altavault-Anwender (mit oder ohne Netapp) bis zu 80 TByte Daten lokal vor Ort oder bei einem Kollokationspartner speichern. Uwe Jockel, zuständig für die Cloud-Service-Entwicklung bei Netapp: „Man speichert dort alle Daten, die für schnelles Hochfahren nötig sind und beschleunigt so im Zweifel die Wiederherstellung.“

Experton-Spezialist Heinhaus: „Die bekannten Software Produkte von Anbietern wie EMC, IBM, Symantec und anderen können alle On Premise oder in der Cloud betrieben werden. Einige Anbieter wie beispielsweise EMC, Barracuda, Symantec bieten auch komplette Lösungen, sogenannte Purpose Built Backup Appliance (PBBA) an, bestehend aus einer Appliance und der Backup Software.“

Mit hybriden Lösungen können Kunden differenzieren, bei welchen Daten welche Methode angewendet werden soll. Solche Portfolios ermöglichen das Entwickeln abgestufter Backup-Strategien, ohne mehrere Anbieter kombinieren zu müssen.

Auswahlkriterien für Cloud-Storage- und –Backup-Anbieter

Wer für Backup die Cloud ganz oder teilweise als Ziel nutzen möchte, sollte besonders darauf achten, dass der Provider ausreichende Zertifizierungen besitzt, beispielsweise nach ISO 27001, ISO27028, SOC oder ISAE 3000 Typ 2.

Auf die besondere Brisanz des Speicherorts für deutsche und zukünftig auch europäische Unternehmen, aber auch auf die sorgfältige Auswahl von Providern angesichts der Europäischen Datenschutzverordnung wurde ja schon hingewiesen.

„Wichtig ist auch, dass die Software die Hypervisor-Umgebungen unterstützt“, betont Heinhaus. Zudem muss ein intern genutztes Backup-Produkt die Schnittstellen des gewählten Cloud-Ziels beherrschen, also Daten mit gern genutzten Protokollen wie NFS, RESTful oder S3 transportieren können.

Die gewählte Cloud-Zielumgebung muss breitbandig genug angebunden sein, um gegebenenfalls einen Restore so rasch wie gewünscht zuzulassen. Wenn Terabytes zurückgespielt werden müssen, ist Zeit trotz aller Beteuerungen der Branche auch heute noch von Belang.

Im Notfall beruhigend ist, dass sich Daten auch physisch per LTO-Tape oder Amazons Snowball transportiert lassen – mit Eilzustellung sind auch größere Entfernungen nicht das Problem. Selbstverständlich sollte weder der Provider noch irgendwelche Dritte Datenzugriff haben, deshalb sollten die Daten verschlüsselt sein.

Bei der Kostenkalkulation ist Vorsicht angebracht: Große Cloud-Provider gestatten das Einspielen von Daten in der Regel kostenlos oder sehr billig – teuer wird es, wenn die Daten wieder zurückgespielt werden sollen. Ist die Recovery in der Cloud geplant, spielen auch die Kosten von Cloud-Servern beziehungsweise Rechenleistung eine Rolle.

Schließlich ist ein geordnetes, im Vertrag festgelegtes Verfahren erforderlich, wenn ein Anwender sich von seinem Backup-Provider verabschieden und zu einem anderen wechseln möchte. Denn noch immer entwickelt sich die Technologie rasant, und wer heute up to date ist, kann schon morgen mit seinem Service-Angebot zum alten Eisen gehören.

(ID:44838809)