Hochverfügbarkeit und Backup Mit traditionellen Konzepten 2020 auf der sicheren Seite?
Auch 2019 machten wieder prominente Systemausfälle negative Schlagzeilen. Fürs kommende Jahr 2020 stellt sich nicht zuletzt deswegen die Frage, ob herkömmliche Backup- und Hochverfügbarkeitskonzepte noch zeitgemäß sind.
Anbieter zum Thema

Im Oktober 2019 legte ein simpler Hardware-Fehler eines Speichersystems die Produktion bei Porsche lahm. In derselben Woche stand auch beim Vorreiter für Automatisierungstechnik Pilz Gruppe die Produktion still, wohl aufgrund eines erfolgreichen Cyberangriffs auf die Infrastruktur. Diese Ausfälle in diesem Jahr sind Beispiele dafür, dass es auch im kommenden Jahr bei vielen Unternehmen bei der Absicherung ihrer IT-Infrastruktur einiges zu tun gibt.
Ausfallzeiten von Stunden sind längst nicht mehr akzeptabel
Um sich gegen Systemausfälle jeder Art zu sichern, setzen viele Unternehmen noch immer auf die synchrone Spiegelung ihrer Systeme, die dann im Falle eines Ausfalls einfach auf der gespiegelten Seite weiterlaufen sollen. Dies suggeriert hundertprozentige Sicherheit. Wie man bei den genannten Beispielen sieht, ist dies nicht zwangsläufig immer der Fall, und der Teufel steckt im Detail. Denn die synchrone Replikation schützt zwar bei Hardware-Ausfällen – nur eben nicht so vollautomatisch, wie man es gern hätte. In virtuellen Umgebungen und Datenbanken mit großem Cache sind die Applikationen bei einem ungeplanten Ausfall nicht mehr konsistent.
Auch wenn die Hardware auf der anderen Seite wieder läuft, sind die Datenbanken erst einmal außer Betrieb und müssen manuell konsistent gemacht und getestet werden. Ein Storage-Failover ist eben kein applikationskonsistenter Failover für virtualisierte Workloads. Dieser Prozess dauert manchmal Stunden, und für kritische Applikationen, wie sie etwa für die Produktion und Logistik benötigt werden, ist eine solch lange Zeit bis zur Verfügbarkeit der Systeme einfach nicht hinnehmbar.
Systemausfälle lassen sich nicht gänzlich vermeiden
Eines der grundlegenden Probleme bei traditionellen Disaster-Recovery-Lösungen ist, dass die IT immer komplexer wird. Mehr Daten, mehr VMs – und die Anforderungen an Verfügbarkeit steigen allerorten. Zwar versucht die Industrie die wachsende Komplexität durch Standardisierung und Automatisierung entgegenzuwirken, stößt aber hier an ihre Grenzen. Viele traditionellen Lösungen kommen aus dem Zeitalter vor der Virtualisierung und funktionieren nur eingeschränkt in der virtuellen Welt. Unternehmen, die einsehen, dass sich Systemausfälle mit der aktuell genutzten Technologie nicht vermeiden lassen, fangen an umzudenken. Es geht prinzipiell darum, die Auswirkungen von Systemausfällen auf die Organisation zu minimieren.
Ein weiteres Manko bei den jetzigen DR-Technologien ist, dass Ausfälle in der Praxis so gut wie nie getestet werden. Wer testet schon die DR der kompletten virtuellen Infrastruktur im laufenden Betrieb? Doch genau dies wäre nötig, damit die IT beweisen kann, dass die Systeme in kürzester Zeit wieder funktionieren würden.
Eine Alternative: Converged Backup mit CDP und Recovery Automation
Aktuelle DR-Strategien, aufbauend auf Hochverfügbarkeit, Snapshots und Backup, haben Nachteile. Sie bieten keinen vollkommenen Schutz, benötigen hohe Anforderungen an die Hardware und erhöhen die Komplexität des gesamten Systems. Außerdem lässt sich der Ernstfall kaum sinnvoll testen. Unternehmen, die ihre DR/Backup-Strategien verbessern wollen, sollten sich neue innovative Ansätze genauer ansehen. Strategien, aufbauend auf der Basis von CDP, Journaling und Recovery-Automation & Orchestrierung, bieten kürzere Zeiten für die Wiederherstellung, nehmen Komplexität aus dem System und bieten DR-Testing per Knopfdruck.
*Der Autor: Johan van den Boogaart, Regional Sales Manager bei Zerto
(ID:46274287)