Verbesserter Ransomware-Schutz und Storage-Lösungen für KI-Anwendungen NetApp: Storage mit KI und für KI

Von Klaus Länger 3 min Lesedauer

Anbieter zum Thema

NetApp nutzt KI für einen autonomen Echtzeitschutz gegen Ransomware-Angriffe auf der Storage-Ebene. Gleichzeitig stellt das Unternehmen neue und erweiterte Storage-Lösungen für KI vor und kooperiert dabei mit Nvidia, etwa beim AIPod und neuen Flexpod-for-AI-Referenzlösungen.

Der autonome Ransomware-Schutz in Ontap nutzt KI und ML, um auch bisher unbekannte Angriffe in Echtzeit abzuwehren.(Bild:  Meta - stock.adobe.com)
Der autonome Ransomware-Schutz in Ontap nutzt KI und ML, um auch bisher unbekannte Angriffe in Echtzeit abzuwehren.
(Bild: Meta - stock.adobe.com)

Ransomware-Angriffe sind ein Thema, das die gesamte Storage-Branche umtreibt. Storage-Systeme bilden zusammen mit dem Backup die letzte Verteidigungslinie gegen diese Art Angriffe. In der Regel geschieht das durch temporär unveränderliche Speicher für Snapshots, damit ein schneller Restore möglich ist, falls alle vorgelagerten Bollwerke nicht gehalten haben.

NetApp macht das ebenfalls und erweitert mit Snapcenter 5.0 den unveränderlichen Ransomware-Schutz auf applikationsspezifische Backups. Vor allem baute der Hersteller vor drei Jahren mit der autonomen Echtzeiterkennung von Ransomware in Ontap eine zusätzliche Barriere gegen Angriffe ein. Nun wird diese Schutzschicht durch adaptive KI/ML-Modelle noch erweitert und nennt sich nun „Autonomous Ransomware Protection with Artificial Intelligence“ (ARP/AI). Mit Hilfe der Modelle untersucht die Software Signale auf Dateiebene in Echtzeit und soll so auch bisher unbekannte Ransomware-Angriffe mit einer Erkennungsrate von über 99 Prozent identifizieren. ARP/AI soll in Kürze als Technologievorschau verfügbar sein.

Ebenfalls noch eine Public Preview ist BlueXP Ransomware Protection als übergreifende Kontrollebene für alle Maßnahmen gegen Ransomware-Angriffe beziehungsweise die Wiederherstellung böswillig verschlüsselter Daten. Die Ransomware Recovery Guarantee, die mit einer finanziellen Kompensation greift, falls zerstörte Daten nicht aus Snapshots wiederhergestellt werden können, ist nun auch im Rahmen der StaaS-Lösung Keystone verfügbar.

Schnelle Storage-Systeme für KI auch mit QLC-SSDs

NetApp nutzt KI nicht nur selbst, sondern bietet auch passende Storage-Lösungen für KI-Anwendungen an. Dabei kooperiert der Hersteller eng mit Nvidia, dem Platzhirsch unter den Anbietern von KI-Beschleunigern. NetApp AIPod powered by Nvidia DGX ist jetzt von dem Chiphersteller auch mit den stärkeren DGX-H100-Servern als Basepod-Lösung zertifiziert. Dabei hat NetApp in internen Tests herausgefunden, dass die günstigeren AFF-C-Systeme mit QLC-SSDs für KI-Workloads fast ebenso gut geeignet sind, wie AFF-A-Systeme. Der Datendurchsatz ist nur minimal geringer, und die höhere Latenz bei AFF-C spielt in der Praxis keine Rolle. Zudem kann durch den günstigeren Flash-Speicher auf das sonst übliche Tiering verzichtet werden. Das aus Cisco- und NetApp-Komponenten aufgebaute konvergente System Flexpod for AI unterstützt als günstigere KI-Lösung nun die Enterprise-AI-Plattform von Nvidia. Zudem ist NetApp nun für OVX-Systeme validiert, die mehrere Hersteller anbieten, und stellt die Storage-Systeme für die neuen Private-GPT-Lösungen von Fujitsu.

Wie NetApp bei internen Tests herausgefunden hat, sind die günstigeren All-Flash-Systeme der C-Serie mit QLC-SSDs schnell genug für den Einsatz in Data Lakes für KI-Workloads.(Bild:  NetApp)
Wie NetApp bei internen Tests herausgefunden hat, sind die günstigeren All-Flash-Systeme der C-Serie mit QLC-SSDs schnell genug für den Einsatz in Data Lakes für KI-Workloads.
(Bild: NetApp)

Bei einem Breakout-Vortag auf dem NetApp Technologie Forum Anfang März in München hat Max Amende, Technical Solutions Specialist für AI/ML und Analytic bei dem Hersteller, weitere Stärken von seiner Firma bei KI-Lösungen herausgestellt. So erleichtern die Snapshots eine effiziente Versionierung der Daten und eine einfachere Bewegung von Trainingsdaten zwischen Cloud und On-Premises, als es mit S3-Buckets möglich wäre. Denn bei NetApps Snapmirror bleiben Komprimierung und Verschlüsselung der Daten erhalten.

Mit Storagegrid steht zudem eine Software-definierte, objektbasierte Storage-Lösung für die hybride Multi-Cloud bereit, die sich laut Amende sehr gut für große Data Lakes eignet. Das Data Ops Toolkit vereinfacht dabei das Management der großen, für KI notwendigen Datenmengen. Längst nicht alle GenAI-Anwender benötigen von Grund auf trainierte Basismodelle. Vielen genügt die Feinabstimmung eines Modells mit Unternehmensdaten oder mittels Retrieval-Augmented Generation (RAG) die Verknüpfung mit Dokumentdatenspeichern, Vektordatenbanken und APIs, die Unternehmensinformationen enthalten. Das hat auch einen Einfluss auf den benötigten Storage.

(ID:50005648)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung