Nvidia Grid adressiert kleinere Unternehmen und Virtuelle Desktops Nvidia stellt Appliance und GPU-Karten für On-Demand-Visual-Computing vor

Redakteur: Ulrike Ostler

Seitdem Grafical Processor Units herkömmliche, in Servern verbaute Prozessoren unterstützen, ist die GPU Technology Conference (GTC) auch für Rechenzentrumsausstatter interessant. Ganz weit vorne in der GPU-Entwicklung liegt Nvidia. Dort stellt das Unternehmen nun Nvidia Grid“ vor, eine Technik, die auf VDI-Anwendungen zielt, und schon gibt es erste Unterstützer und eine Appliance.

Anbieter zum Thema

Mit den jüngsten Nvidia-Grid-Ankündigungen adressiert der Hersteller vornhemlich Anwendungen im Bereich Virtual Desktop Infrastructure. Das Grid-Portfolio – bestehend aus Hardware, Software und Appliances – überträgt die GPU-Beschleunigung von Rechenzentren auf jegliche Nutzer.
Mit den jüngsten Nvidia-Grid-Ankündigungen adressiert der Hersteller vornhemlich Anwendungen im Bereich Virtual Desktop Infrastructure. Das Grid-Portfolio – bestehend aus Hardware, Software und Appliances – überträgt die GPU-Beschleunigung von Rechenzentren auf jegliche Nutzer.
(Bild: Nvidia)

Zugegeben, wer seine Anwendungen auf Grafik-Prozessoren (GPUs) laufen lassen will, muss eine bedeutsame Hürde nehmen. Der Code muss neu programmiert werden, erläutert Jens Neuschäfer, zuständiger Manager für den Bereich der Enterprise-GPUs in Europa, den Nahen Osten und Afrika. Doch die Vorteile überzeugen vor allem Kunden in den Schwellenländern, wo das Programmieren günstig und schnell gemacht ist.

Bildergalerie
Bildergalerie mit 10 Bildern

Doch mit dem Nvidia Grid hofft das Unternehmen auch Unternehmen anzusprechen, die hierzulande schnelle und kostengünstige Rechenleistung benötigen, zum Beispiel wenn es um die Virtualisierung von Desktops geht. Denn diese können nun GPU-beschleunigte, virtuelle Desktops und professionelle Grafik-Applikationen über die Cloud auf jedem Gerät anbieten.

Um zu verstehen, wie einerseits eine Beschleunigung, aber andererseits eine Kostenersparnis zustande kommen kann, müsse man verstehen, dass es Prinzip in jeder Art von Device – vom Smartphone über High Performance Computer bis hin zum Auto immer dieselbe GPU stecken kann, so Neuschäfer. Als Co-Prozessoren sorgen sie dafür, dass Aufgaben parallel abgearbeitet werden können.

GPUs als Co-Prozessoren

Die derzeit stärkste GPU in der jüngsten Architektur-Generation „Kepler“ besitzt 2.496 Kerne, je ein Kern erledigt eine Rechenaufgabe. Mit den neuen Karten „Nvidia Grid K1“ und „Nvidia Grid K2“ (siehe: Bildergalerie) adressiert der Hersteller nun „anspruchsvolle Server-Umgebungen“. K1 besitzt 4 Kepler GPUs und K2 ist mit 2 High-End GPUs bestückt.

Während Server mit Xeon-Prozessoren etwa bei 27 Grad laufen können, die Prozessoren werden etwa 70 Grad heiß, halten GPUs bis zu 95 Grad aus; bei einem Bedarf von 150 bis 225 Watt, bei 97 Grad schalten sie automatisch ab, erläutert Neuschäfer. Die GPUs gelten trotzdem als stromsparend, weil die Computer dadurch einfach mehr Rechenleistung in weniger Zeit zur Verfügung stellen können.

Nach Aussagen des Nvidia-Managers ist auch noch lange nicht Schluss mit dieser Entwicklung. Die Generation „Maxwell“, die 2014 auf Kepler folgen soll, hat eine sechsfache Verbesserung bezüglich des Verhältnisses von Leistung-per-Watt mit sich bringen. bei nur dreifacher Energie-Aufnahme, schildert Neuschäfer die Zukunft.

(ID:38753310)