SafeNet ProtectFile schützt sensible Daten

Verschlüsselung für Hadoop Cluster

| Redakteur: Peter Schmitz

SafeNet hilft Unternehmen mit ProtectFile, sensible Daten in Hadoop Clustern abzusichern und erhöht damit die Datensicherheit bei Big-Data-Anwendungen.
SafeNet hilft Unternehmen mit ProtectFile, sensible Daten in Hadoop Clustern abzusichern und erhöht damit die Datensicherheit bei Big-Data-Anwendungen. (Bild: Maksim Kabakou - Fotolia.com, Apache Software Foundation)

ProtectFile von SafeNet ermöglicht eine Verschlüsselung von kritischen Daten in Apache Hadoop Clustern. Zum aktuellen Release gehören die komplett neue Linux-Version „ProtectFile for Linux“ und eine erweiterte Windows-Version mit der Administratoren jetzt zusätzlich Serverdaten auf Dateisystemebene verschlüsseln können.

Hadoop dient dazu, große Datensätze skalierbar zu speichern und zu verarbeiten. Das Software-Framework bündelt die Daten in Clustern und verteilt sie auf tausende von Datenknoten. Die Informationen in den Knoten können mit Hadoop jedoch nicht vollständig abgesichert werden. Ungeschützt stellt jeder Datenknoten also ein Einfallstor für Hacker dar. Damit sind sensible Informationen darin für unautorisierte Nutzer sichtbar, sobald sie sich Zugang verschaffen konnten.

ProtectFile ermöglicht es Firmen, Daten in Hadoop zu verschlüsseln. Die Leistungsfähigkeit des Software-Frameworks leidet nicht darunter und IT-Administratoren müssen die Architektur bestehender Big-Data-Software nicht verändern.

ProtectFile lässt sich schnell und einfach installieren. Es bietet Werkzeuge für die Standardimplementierung in eine Vielzahl von Datenknoten innerhalb eines Hadoop Clusters. IT-Verantwortliche behalten durch zentralisiertes Key-Management die Kontrolle über ihre Schlüssel. Zudem können sie Daten über eine granulare Zugangskontrolle vor ungewolltem Zugriff beschützen.

„Unternehmen müssen mit Hadoop einen Balanceakt meistern: Auf der einen Seite wollen sie die Skalierbarkeit und Effizienz des Software-Frameworks voll ausschöpfen, um große Datenmengen auszuwerten. Auf der anderen Seite müssen sie sensible Informationen schützen“, sagt Thorsten Krüger, Director Sales Germany and Austria, SafeNet. „Aufgrund immer größerer Datenmengen und der steigenden Anzahl von Hackerangriffen muss Sicherheit in Hadoop Priorität haben. ProtectFile bietet diese Sicherheit, ohne die Leistungsfähigkeit des Software-Frameworks zu beeinträchtigen. Es unterstützt zudem Compliance-Standards, wie PCI DSS und HIPAA in Big-Data-Anwendungen.“

Kommentare werden geladen....

Kommentar zu diesem Artikel

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 42816453 / Verschlüsselung)