Rund um hochverfügbare IT-Systeme existieren viele falsche Annahmen Zehn Mythen über Hochverfügbarkeit

Autor / Redakteur: Bernhard Lück / Dipl.-Ing. (FH) Andreas Donner

Nur wenige Unternehmen, die von Hochverfügbarkeit sprechen, haben wirklich hochverfügbare Systeme implementiert. Schuld daran sind, laut Stratus Technologies, falsche Vorstellungen und überholte Auffassungen, mit denen das Thema Hochverfügbarkeit belastet ist.

Anbieter zum Thema

Die Hochverfügbarkeitslösung Stratus Avance ist laut Hersteller auch für kleinere und mittlere Unternehmen geeignet.
Die Hochverfügbarkeitslösung Stratus Avance ist laut Hersteller auch für kleinere und mittlere Unternehmen geeignet.
(Bild: Stratus)

Im Zeitalter von Always-On ist eine hohe Verfügbarkeit der IT-Systeme für Unternehmen lebenswichtig. Trotzdem sind die meisten Unternehmen beim Thema Hochverfügbarkeit zurückhaltend. Einige meinen, das Thema würde sie nicht betreffen, andere erkennen zwar grundsätzlich die Risiken nicht hochverfügbarer Systeme, sehen aber nicht, wie sie sich als kleinere oder mittlere Unternehmen dagegen absichern könnten. Stratus nimmt diese Auffassungen zum Anlass, mit den Mythen, die rund um das Thema Hochverfügbarkeit entstanden sind, ein wenig aufzuräumen.

1. Normale Server bieten heute ausreichend Sicherheit

Tatsächlich sind Server in den letzten Jahren wesentlich zuverlässiger geworden. Allerdings sind auch die Anforderungen gestiegen: Unternehmen betreiben unternehmenskritische Anwendungen heute auf Standardservern. Solche Anwendungen müssen kontinuierlich verfügbar sein, sonst können hohe Verluste entstehen, die möglicherweise sogar die Existenz des Unternehmens gefährden. Standardserver unter Linux und Windows erreichen heute eine Verfügbarkeit von etwa 99,9 Prozent – was einer durchschnittlichen Ausfallzeit von 8,7 Stunden pro Jahr entspricht. Für unternehmenskritische Aufgaben sind jedoch mindestens 99,99 Prozent, in der Regel sogar 99,999 Prozent erforderlich – die Server fallen dann maximal fünf Minuten im Jahr aus.

2. Hochverfügbarkeit ist nur für große Unternehmen relevant

Ausnahmslos alle Unternehmen sind heute von ihrer IT abhängig und müssen daher Risikovorsorge betreiben. Lösungen wie fehlertolerante Server oder hochverfügbare Softwarelösungen wie Stratus Everrun oder Stratus Avance sind aufgrund des geringen Aufwands für Implementierung und Administration auch für kleinere und mittlere Unternehmen geeignet.

3. Hochverfügbarkeit ist teuer

Die Kosten von Hochverfügbarkeitslösungen müssen im Verhältnis zum möglichen Schaden gesehen werden. Tatsächlich ist Hochverfügbarkeit heute auch für kleinere Unternehmen erschwinglich. Fehlertolerante Server kosten unterm Strich sogar weniger als entsprechende Clusterlösungen, weil keine zusätzlichen Kosten für Software-Anpassung, Lizenzen oder Administration anfallen.

4. Hochverfügbarkeit ist aufwendig zu administrieren

Clusterlösungen erfordern tatsächlich aufwendige Implementierung und Administration. Fehlertolerante Server, die aus komplett redundanten Komponenten aufgebaut sind, verhalten sich gegenüber dem Benutzer wie ganz normale Server; die Administration ist nicht schwieriger als bei einem Standardserver.

5. Hochverfügbarkeit erfordert spezielle Applikationen

Nur für Clusterlösungen müssen die Applikationen angepasst werden. Fehlertolerante Server arbeiten mit Standardtechnologien, sodass Windows- und Linux-Applikationen ohne Anpassungen oder Änderungen betrieben werden können. Anwender benötigen hier für ihre Applikation auch jeweils nur eine einzige Lizenz, was die Gesamtkosten der Lösung reduziert.

6. Cluster bieten ausreichende Sicherheit

Cluster arbeiten im Störungsfall nicht völlig unterbrechungsfrei, weil beispielsweise Systemdienste und Programme neu gestartet oder Datenbanktransaktionen zurückgesetzt werden müssen. Je nach Komplexität der Applikationen können mehrere Minuten vergehen, bis alle Systeme wieder uneingeschränkt zur Verfügung stehen. In Extremfällen kann die Übergabe der Prozesse aber auch mehrere Stunden dauern.

7. Virtualisierung macht Hochverfügbarkeit überflüssig

Das Gegenteil ist richtig: Werden auf einem physischen Server mehrere virtuelle Umgebungen betrieben, so sind von einem Hardware-Ausfall immer gleich mehrere Server mitsamt den Anwendungen betroffen. Ein einziger defekter physischer Server zieht also eine ganze virtuelle Servergruppe mit sich – und für jedes System müssen dann mehr oder weniger aufwendige Maßnahmen zur Wiederherstellung des Betriebs vorgenommen werden. Wichtige Anwendungen müssen daher – gerade auf virtuellen Servern – auch eine hochverfügbare Hardwareplattform haben.

8. Disaster Recovery und Hochverfügbarkeit sind dasselbe

Disaster Recovery bietet Katastrophenschutz: Unternehmen schützen damit ihre IT vor Bränden, Erdbeben, Flugzeugabstürzen oder Anschlägen. Hochverfügbarkeit sorgt dagegen für den Schutz der IT bei internen technischen Störungen. Verantwortungsvolle Unternehmen werden daher immer beides in ihrem Sicherheitskonzept berücksichtigen.

9. Hochverfügbare Systeme basieren auf proprietären Technologien

Fehlertolerante Server arbeiten mit Standardtechnologien wie Intel-x86, Windows oder Linux, Softwarelösungen bauen auf dem Open-Source-Server Xen auf. Diese Systeme erreichen ihre hohe Ausfallsicherheit indem sie die Standardtechnologien redundant auslegen, sodass alle betriebswichtigen Teile doppelt vorhanden sind.

10. Hochverfügbarkeit haben wir schon

Viele Unternehmen verwenden unterschiedliche Technologien, um ihre IT abzusichern. Der Einsatz einer USV oder die Durchführung regelmäßiger Backups sind zwar unerlässlich, machen ein System aber keineswegs hochverfügbar.

(ID:42431486)