Security Operations im Rechenzentrumsbetrieb Physische Sicherheit im Rechen­zentrum mit Leitstellenlogik

Von Paula Breukel 4 min Lesedauer

Anbieter zum Thema

Perimeter, Video und Zutritt liefern täglich Ereignisse, die erst durch Korrelation operativ werden. Andreas Flemming von Genetec skizziert, wie Leitstellen Daten zusammenführen, Datenschutz umsetzen und Zutrittsentscheidungen lokal absichern.

Lageansicht statt Monitorwand: In der Sicherheitszentrale erscheinen Türen, Kameras und Sensorik als Geopositionen. Videosequenzen werden erst bei korrelierten Signalen und nach Zonenüberschreitung in den Vorfallprozess eingeblendet.(Bild: ©  Gorodenkoff - stock.adobe.com)
Lageansicht statt Monitorwand: In der Sicherheitszentrale erscheinen Türen, Kameras und Sensorik als Geopositionen. Videosequenzen werden erst bei korrelierten Signalen und nach Zonenüberschreitung in den Vorfallprozess eingeblendet.
(Bild: © Gorodenkoff - stock.adobe.com)

Bei der Sicherheit von Rechenzentren denken viele zunächst an Firewalls und Verschlüsselung. Doch die Hardware, von Server, über Switches bis hin zu Speichersysteme, steht in Rechenzentren und ist eine potenzielle Zielscheibe für Angreifer. Ein einziger unbefugter Zutritt kann Jahre der Cybersicherheit-Investitionen zunichtemachen: Angreifer können Hardware manipulieren, Daten direkt von Servern kopieren oder die gesamte Infrastruktur sabotieren

Daher beginnt im Rechenzentrum physische Sicherheit am Zaun, sie endet aber nicht an der ersten Tür. In der Sicherheitszentrale laufen Alarme, Videoströme und Zutrittsereignisse zusammen. Entscheidend bleibt, was daraus im Betrieb ableitbar ist, ohne Alarmflut, ohne blinde Flecken bei Netzausfällen und unter den üblichen Datenschutzvorgaben.

Andreas Flemming, Area Sales Director DACH bei Genetec, beschreibt dafür einen Plattformansatz, bei dem Sensorik, Video und Zutritt auf einer Oberfläche zusammenlaufen und je nach Rolle aufbereitet werden. „Unsere Kernkompetenz ist es, diese Daten zusammenführen und dem jeweiligen Benutzer bereitzustellen, der daraus handlungsrelevante Hinweise ableiten kann“, sagt Flemming.

Plattform statt Einzelgewerke

In der Praxis treffen im Rechenzentrum sehr unterschiedliche Quellen aufeinander, Videoüberwachung, Zutrittskontrolle, Perimetersensorik, Einbruchmeldeanlage, je nach Gebäude auch Signale aus der Brandmeldeanlage. Die Leitstelle benötigt aus diesen Datenströmen keine Dauerbeschallung, sondern priorisierte Ereignisse, die ein Vorgehen auslösen, von Sichtprüfung bis Interventionskette.

Flemming grenzt den Ansatz von Physical Security Information Management (PSIM) ab. Dort liege hinter einer Oberfläche oft eine Kette weiterer Systeme; hier sollen Video und Zutritt enger integriert sein. Für Erweiterungen bleiben offene Schnittstellen zentral, etwa über Programmierschnittstellen, damit weitere Sensorik oder Drittsysteme angebunden werden können.

Korrelation reduziert Falschalarme am Perimeter

Am Zaun entscheidet sich, ob ein Event in der Leitstelle überhaupt Relevanz erhält. Flemming nennt als typischen Auslöser Tiere am Perimeter und macht den operativen Punkt deutlich: Ein Signal allein reicht selten für eine belastbare Bewertung. „Wenn sich ein Tier, beispielsweise ein Hund, am Zaun aufhält, dann darf das nicht zu einer Sicherheitsmeldung führen“, so Flemming.

Praktisch bedeutet das, erst die Kombination passender Signale macht ein Ereignis leitstellenfähig, etwa Zaunalarm plus Bewegungsdetektion. Video wird dann nicht dauerhaft überwacht, sondern kontextbezogen zugespielt, ergänzt um eine Lageansicht, die Türen, Kameras, Zonen und Sensorik als Geopositionen sichtbar macht.

Für die Verfolgung über das Gelände verbindet die Software Sensordaten und Video. Radar oder LiDAR, ein Laser-Scanning-Verfahren, liefern Bewegungsprofile, die an Kameras übergeben werden, je nach Aufbau auch an Pan Tilt Zoom Kameras (PTZ) damit sich Bewegungen entlang definierter Sicherheitszonen nachvollziehen lassen.

Datenschutz als Prozessvorgabe

Im deutschen Betrieb prägt Datenschutz Architektur und Abläufe. Videoaufnahmen dürfen den öffentlichen Gehweg vor dem Gelände nicht erfassen. Flemming nennt Sensorinformationen ohne eindeutige Identifizierbarkeit als Weg, Bewegungen außerhalb des Geländes zu detektieren, ohne Personen im Bild zu erfassen. Video kommt erst dann ins Spiel, wenn eine definierte Linie überschritten wird und die Leitstelle auf eine Zone im Gelände schaltet.

Auch bei Speicherfristen ordnet Flemming die oft genannten 72 Stunden als Orientierungswert ein, nicht als starre Grenze. Maßgeblich bleiben Zweckbindung, Zugriffskonzepte und interne Vereinbarungen. In der Praxis lassen sich Rechte staffeln, Livebilder für die Leitstelle, Aufzeichnungen nur für definierte Rollen. Für Vorfälle nennt er Trigger über Anomalien, etwa wiederholte Fehlversuche an Türen, die eine gezielte Sicherung von Videodaten auslösen können. Ergänzend verweist er auf Anonymisierung wie Verpixelung, um Auswertung und Zugriff einzugrenzen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Zutrittsentscheidung bleibt lokal, auch ohne Netzwerk

Nach dem Perimeter folgt die nächste Prüfschicht, der Zutritt. Flemming kritisiert Architekturen, in denen die Entscheidung zu früh fällt, etwa direkt im Außenleser oder in vorgeschalteter Perimetersensorik. Seine Leitlinie setzt die entscheidende Instanz geschützt ins Gebäude, auf Controllern, die auch ohne Netzwerkverbindung entscheiden können. „Die Entscheidung fällt nicht nur serverbasiert, sondern auch offline auf diesen einzelnen Komponenten.“

Das hält die Betriebsfähigkeit bei Störungen aufrecht, setzt aber gepflegte Rollen- und Rechteprofile voraus, weil Sperrungen, etwa nach Austritt, wieder eine Online-Aktualisierung benötigen. Für Betreiber mit mehreren Standorten rückt damit Identitäts- und Berechtigungsmanagement in den Vordergrund. Flemming beschreibt rollenbasierte Modelle, bei denen Rechte an Funktionen hängen, nicht am Standort, mit Granularität bis auf Zonen und je nach Sicherheitskonzept bis auf einzelne Racks.

Für temporäre Zutritte skizziert er Workflows mit Antrag, Regelwerk und optionaler Zweitfreigabe. Statt telefonischer Freischaltungen entstehen nachvollziehbare Prozesse, die sich auditierbar dokumentieren lassen.

Physische Systeme als Teil der IT, KI und Cloudbetrieb

Flemming koppelt physische Sicherheit an IT-Sicherheitsarbeit. Kameras, Controller und Managementserver gelten dann als IT-Komponenten, mit Passwortrichtlinien, Segmentierung für Videodaten, verschlüsselter Kommunikation, Patch- und Firmwareprozessen sowie Härtung von Endgeräten. Den Faktor Mensch verortet er als durchgängiges Risiko in Prozessen und Betrieb: „Natürlich spielt auch der Faktor Mensch eine Rolle. Viele Leaks passieren dadurch, dass manuelle Fehler passieren“, sagt er.

Bei Integrationen verweist Flemming auf die Bedeutung offener Schnittstellen bei Herstellern. Kameras aus der Volksrepublik China schließt er mit Verweis auf Datenschutz- und Datensicherheitsbedenken aus, zugleich hängt die Anbindbarkeit heterogener Komponenten im Feld von der Pflege und Offenheit der Anbieter ab.

Zwei Entwicklungen prägen laut Flemming aktuelle Anforderungen. Erstens gewinnt Künstliche Intelligenz, kurz KI, in der Auswertung an Gewicht, etwa durch KI-Kameras, die Merkmale und Objekte klassifizieren. Operativ entscheidet, wie diese Signale in Regeln und Korrelation einfließen, ohne neue Fehlalarme zu produzieren. Zweitens rückt Cloudspeicherung stärker in Gespräche. Als Gründe nennt Flemming Skalierbarkeit, Bereitstellung und Wartungsaufwand, außerdem steigende Hardwarepreise und knappe Komponenten. Für Rechenzentren bleibt dabei Governance der Kern, wer zugreift, wie Rechte delegiert werden, wo Daten liegen und wie Betriebsfähigkeit auch bei Störungen erhalten bleibt.

(ID:50696628)