Suchen

Herausforderung Kapazitätsmanagement Cloud Computing und Virtualisierung – Workloads optimal verteilen

Autor / Redakteur: Martin Kuppinger / Stephan Augsten

Virtualisierung und Cloud Computing sind Trends, die die IT verändern und zu einer grundlegend veränderten Strukturierung von internen und externen Rechenzentren führen. Damit rückt aber auch das Management der Kapazitäten in Blickfeld: Wie lassen sich die Ressourcen optimal nutzen und die schwankenden Anforderungen in gesicherter Weise erfüllen?

Bevor man die Daten- und Rechenlast in der Cloud verteilt, sollte man sich Gedanken um die Sicherheit machen.
Bevor man die Daten- und Rechenlast in der Cloud verteilt, sollte man sich Gedanken um die Sicherheit machen.
( Archiv: Vogel Business Media )

Die Anbieter von Cloud Management-Lösungen, Capacity Management und Workload Management weiten ihr Angebot für die Lösung dieser Herausforderung kontinuierlich aus. Unter dem Schlagwort Cloud Management finden sich unterschiedlichste Lösungen.

So ermöglicht beispielsweise Right Scale den automatische Bezug und die Ressourcen-Verteilung in Form virtueller Systeme auf verschiedene externe Cloud-Anbieter. Im Feld des Capacity Managements sind inzwischen viele der großen Anbieter im IT-Management aktiv – oft nach Übernahmen, wie beispielsweise BMC oder CA. Und das Workload Management haben andere Hersteller wie Novell als Schlagwort für sich entdeckt.

Der Begriff Workload Management gefällt mir dabei recht gut, weil es – zumindest in der Vision – darum geht, die verschiedenen Aufgaben (workloads) der IT zu verwalten; und zwar nicht nur mit Blick auf die Performance, sondern auch mit Fokus auf die Einhaltung von anderen Rahmenbedingungen wie der Frage, welche Workloads überhaupt außerhalb des Unternehmens ausgeführt werden dürfen.

Dass hier noch ein langer Weg zu gehen ist wird deutlich, wenn man sich mit den am Markt angebotenen Softwarelösungen beschäftigt. Mein Ideal lässt sich eigentlich ganz einfach beschreiben:

Workloads werden definiert, mit den Business-Anforderungen „synchronisiert“ und entsprechend umfassender Richtlinien auf die jeweils passenden Systeme verteilt. Die Last wird permanent überwacht, um automatisch reagieren zu können, wenn bestimmte Anforderungen nicht erfüllt sind. Das Ganze natürlich so, dass dafür geeignete Workloads bei Bedarf auch mal auf Ressourcen einer Public Cloud wie Amazon EC2 ausgelagert werden können.

Das setzt ein hohes Maß an Automatisierung und umfassende Modelle für die Richtlinien voraus, damit eben beispielsweise personenbezogene Daten nicht auf einmal an rechtlich problematischen Standorten verarbeitet werden oder andere Regulierungen missachtet werden. Und es bedeutet, dass man sich viel mehr mit der Erstellung von Richtlinien beschäftigen und die Automatisierung in den Rechenzentren massiv vorantreiben muss.

Aber dann wäre man bei wirklichem Management. Denn wenn man sich die heutigen Lösungen gerade im Capacity „Management“ anschaut, dann sind das typischerweise Reporting-Lösungen, deren Fähigkeiten eben genau dort auch enden – man weiß dann zwar, wo nun welche Workload am besten laufen sollte. Aber das heißt noch nicht, dass sie auch schon dort ist. Hier gibt es also noch viel Raum für Optimierungen, bis wir wirklich bei einer dynamischen, agilen IT-Infrastruktur sind, die es auch ist und nicht nur verspricht.

Martin Kuppinger ist Gründer des Analystenunternehmens Kuppinger Cole, das sich mit digitalen Identitäten, Identity und Access Management, GRC (Governance, Risk Management, Compliance) und Cloud Computing beschäftigt.

(ID:2048573)