Suchen

IB | Infiniband

Redakteur: Gerald Viola

Infiniband ist eine Kommunikationsprotokoll für den Datenfluss zwischen Prozessoren und I/O-Geräten, die einen Durchsatz von bis zu 5 Gigabit pro Sekunde (Gbit/s) und Lane sowie Unterstützung

Firma zum Thema

Infiniband ist eine Kommunikationsprotokoll für den Datenfluss zwischen Prozessoren und I/O-Geräten, die einen Durchsatz von bis zu 5 Gigabit pro Sekunde (Gbit/s) und Lane sowie Unterstützung für bis zu 64.000 adressierbare Geräte bietet. Weil die Technik skalierbar ist und Dienstqualität (QoS) sowie Failover unterstützt, wurde Infiniband zuerst für die Verbindung zwischen HPC-Servern eingesetzt. Inzwischen werden auch Server und Speichersysteme über Infiniband verbunden, um den Datentransfer zu beschleunigen.

In der Intel-Serverwelt ist das klassische PCI-Bussystem mit 32- und auch 64 Bit Datenbreite seit langem der Flaschenhals in der I/O-Kommunikation. Neue Konezpte wie PCIe übertragen deshalb die Daten nicht mehr parallel, sondern über sogenannte Lanes seriell. Durch das Paralleschalten von Lanes lassen sich sehr große Bandbreiten von zehn Gigabit pro Sekunde un d mehr realisieren. Auch bei Infiniband werden die Daten mit inzwischen bis zu 40 GBit pro Sekunde seriell übertragen. Dazu sind weniger Leitungen und sonstige elektrische Verbindungen erforderlich, sodass die Störempfindlichkeit sinkt, die bei den klassischen Bussystemen eine Erhöhung der Tektfrequenz verhindert. Infinband ist eine Punkt-zu-Punkt-Verbindung, bei der ebenfalls mehrer Datenkanäle mithilfe eines Multiplex-Signals parallel zusammengeschaltet werden können. InfiniBand unterstützt außerdem multiple Speicherbereiche, die sowohl von Prozessoren als auch von Speichergeräten angesprochen werden können.

Die Infiniband Trade Association betrachtet den Bus selbst als Switch, weil die Steuerinformationen die Route festlegt, die eine Nachricht zur Zieladresse nimmt. Infiniband basiert auf Internet Protocol Version 6 (IPv6), um eine fast grenzenlose Anzahl von Geräten unterstützen zu können.

Im Infiniband werden die Daten in Paketen übertragen, die insgesamt eine Nachricht bilden. Eine Nachricht kann eine Remote Direct Memory Access (RDMA) Lese- oder Schreiboperation, ein Channel-Sende- oder Empfangsnachricht, eine reversible, transaktionsbasierte Operation oder eine Multicast-Übertragung sein. Wie das für viele Mainframe-Benutzer bekannte Kanal-Modell fangen alle Übertragungen bei einem Kanal-Adapter an oder sie enden dort. Jeder Prozessor (Ihr PC oder ein Server im Datacenter zum Beispiel) besitzt einen Host Channel Adapter (HCA) und jedes Peripheriegerät einen Target Channel Adapter (TCA). Diese Adapter können Informationen austauschen, welche die Sicherheit oder die Funktionalität innerhalb einer vorgegebenen Dienstklasse (QoS-Klasse) garantiert.

Die Infiniband-Spezifikationen entstand durch die Verschmelzung von zwei konkurrierenden Designs und zwar Future I/O auf der einen Seite, die von Compaq, IBM und Hewlett-Packard entwickelt wurde mit Next Generation I/O auf der anderen Seite, die von Intel, Microsoft und Sun Microsystems entwickelt wurde.

Die Infiniband-Technik hat im Laufe ihrer Geschichte schon mehrere Tiefpunkte überstanden, befindet sich aber seit 2008 auf einem neuen Höhenflug. Konkurriende Transporttechniken sind Fibre Channel (FC), 10/40 Gbit-Ethernet (GbE)und Fibre Channel over Ethernet (FCoE).

(ID:2021278)