Backup, Failover und Disaster-Recovery Grundlagen zur Katastrophenvorhersage
Disaster-Recovery wurde traditionell häufig mit Backupsystemen gleichgesetzt. Doch das greift, insbesondere unter Berücksichtigung neuer Technologien, viel zu kurz. Heute findet sich stattdessen ein ganzes Bündel an Konzepten und Produkten, um eine schnelle Wiederaufnahme des IT-Betriebs zu gewährleisten.
Anbieter zum Thema
Die zentrale Messlatte an das Disaster-Recovery ist es, die Ausfallzeiten von IT-Diensten so gering wie möglich zu halten. Hierfür hat sich auch der Begriff der Business Continuity etabliert. Ihr Ziel ist die permanente Verfügbarkeit der IT-Dienste zur Aufrechterhaltung der Geschäftstätigkeit. Disaster-Recovery jedoch geht, zumindest in der traditionellen Bedeutung, von der Existenz eines Störfalls oder Katastrophe aus, den es möglichst schnell zu Bereinigen (zu Recovern) gilt. Ferner wurde es meist mit den Backup-/Restore-Verfahren in Verbindung gebracht. Dies deswegen, da die Sicherung der Daten häufig die einzige Form des Disaster-Recovery war.
Neue Wege
Mittlerweile allerdings haben sich Hardware und Infrastruktur gewaltig geändert. Folglich baut man heute in Hinblick auf das Disaster-Recovery auf neuere Konzepte. Das Spektrum reicht von der reinen Datensicherung mit regelmäßigen Backup, über die kontinuierliche Sicherung der Daten wie es bei CPD-Systemen (Continuous Data Protection) der Fall ist, bis hin zur Absicherung der Applikation in einem Cluster, häufig gepaart mit Load- Balancer- und Failover-Funktionen. Ihre Umsetzung kann durch reine Softwaresysteme, reine Hardwaresysteme oder einem Verbund aus Software und Rechnerhardware bestehen. Die Unterscheidung liegt darin, ob es sich bei dem zu sichernden Objekt und die Daten, die Prozesse oder die Netzwerkinfrastruktur handelt. Dies ist deswegen von Bedeutung, da jegliche Form von IT-Diensten immer auf mehreren Säulen ruht: Den Applikationen, sowie, die durch sie verwalteten Daten. Daher sind bei allen Sicherungskonzepten sowohl die Daten als auch die Prozesse zu berücksichtigen. Entsprechend müssen logischerweise unterschiedliche Sicherungsmechanismen und -konzepte implementiert werden. Doch auch bei allen neuen Realisierungen bleibt die Grundlage die gleiche: Es handelt sich um Maßnahmen zur Aufrechterhaltung des IT-Betriebs.
PRO und RTO
Beim traditionellen Weg der reinen Datensicherung werden diese durch periodische Backup-Prozesse auf Bandmedien oder virtuelle Tape-Libraries gesichert. Die gängigsten Verfahren sichern dabei entweder alle Daten im Fullbackup oder nur den sich ändernden Anteil (incremental). Die Sicherungsläufe sind meist periodisch in der betriebsfreien Zeit, wie nachts oder am Wochenende. Die sich daraus ergebenden Sicherungsintervalle sind folglich relativ groß. Durch die Techniken der Continuous Data Protection oder den Snapshot-Verfahren werden diese Intervalle nun reduziert. Hierbei erfolgt eine laufende Duplizierung der Daten. Folglich sind die Sicherungen weitaus aktueller als ihr tägliches Pendant. In der Fachliteratur werden in diesem Zusammenhang häufig zwei Zielstellungen erwähnt: die Recovery Point Objective (RPO) sowie die Recovery Time Objective (RTO). Mit der RPO wird der Datenverlust umschrieben, der seit der letzten Sicherung aufgetreten ist. Die RTO umschreibt die Dauer für den Restore. Beide Werte sollen möglichst gegen Null tendieren. Zur Umsetzung von CDP existieren sowohl eigene Serverlösungen, als auch eine Kombination mit globalen Speichersystemen und eigenen Routinen zur Datenspiegelung (dem Mirroring). Die jeweiligen Konzepte haben spezifische Vor-, aber auch Nachteile in den Kosten, der Verfügbarkeit oder dem Verwaltungsaufwand.
Nicht alles wird gesichert
All diesen Verfahren gemeinsam ist, dass sie nur die Daten sichern. Nicht jedoch die Applikationen, die Systemkonfiguration oder gar den aktuellen Systemzustand. Dies passiert durch die Imaging-Verfahren. Hier erfolgt ein vollständiger Abzug einer Festplatte oder Partition mit allen darauf befindlichen Inhalten. Im Fehlerfall kann ein Image dann in relativ kurzer Zeit wieder restauriert werden. Dies wird meist als Bare-Metal-Restore bezeichnet. Beim Imaging werden aber, analog zu den oben beschrieben Backuptechniken, relativ große Intervalle verwendet. Daher können damit keine zeitnahen Sicherung erzeugt werden.
Langwieriges Restore
Was jedoch bleibt, sind die Applikationsprozesse. Müssen sie permanent zur Verfügung stehen, so setzt man bis dato häufig auf die Bildung von Rechnerclustern mit einer Duplizierung von Hardware und Prozessen. Zur Verteilung der Last werden dann Load Balancer und Clustersysteme eingesetzt. Doch die Absicherung der Daten und Prozesse muss aufeinander abgestimmt sein, denn eine permanente Verfügbarkeit der Applikation nützt wenig, wenn ein langwieriger Restore der Daten nach einem Ausfall nötig wird. Für eine iSCSI operieren. Zieht man die Entfernung der gesicherten Systeme im LAN oder WAN noch weiter auseinander, so sind Disaster-Recovery-Szenarien definierbar, die Unternehmensstandorte oder gar Kontinente überbrücken.
(ID:2001783)