NIC ist Network Interface Controller, auch bekannt als Netzwerkadapter oder Netzwerkschnittstellenkarte, die auf Computern und Servern verwendet wird. Es kann über Netzwerkverbindungskabel (Twisted-Pair-Kabel, Glasfaser usw.) mit Switches, Speichergeräten, Servern und Workstations kommunizieren. Mit zunehmender Marktbekanntheit und technischer Leistungsfähigkeit gibt es auch verschiedene Arten von Netzwerkkarten, wie beispielsweise Ethernet-Karten und InfiniBand-Karten. Dieser Artikel konzentriert sich auch auf die Unterschiede zwischen einer Ethernet-Karte und einem InfiniBand-Adapter und hofft, Ihnen bei der Auswahl der am besten geeigneten Netzwerkkarte behilflich zu sein.
Was ist eine Ethernet-Karte?
Eine Ethernet-Karte ist ein Netzwerkadapter, der in einen Motherboard-Steckplatz eingesteckt wird und den Ethernet-Protokollstandard unterstützt. Jeder Netzwerkadapter hat eine weltweit eindeutige physische Adresse, die als MAC-Adresse bezeichnet wird. Daten können basierend auf der MAC-Adresse des Netzwerkadapters genau an den Zielcomputer gesendet werden. Es gibt viele Arten von Ethernet-Karten und verschiedene Klassifizierungsmethoden. Sie können nach Bandbreite, Netzwerkschnittstelle und Busschnittstelle unterteilt werden. Eine Ethernet-Karte mit optischer Schnittstelle wird als Glasfaser-Ethernet-Karte (Glasfaser-Ethernet-Adapter) bezeichnet. Es folgt dem Glasfaser-Ethernet-Kommunikationsprotokoll und wird normalerweise über ein Glasfaserkabel mit einem Glasfaser-Ethernet-Switch verbunden. Es ist die am weitesten verbreitete Art von Netzwerkkarte. Gegenwärtig können Fiber-Ethernet-Adapter nach Busschnittstelle und Bandbreite klassifiziert werden.
Klassifizierung der Busschnittstelle
Ethernet-Kartenbus-Schnittstellentypen können als PCI, PCI-Express (abgekürzt als PCI-E), USB und ISA klassifiziert werden. ISA/PCI ist die frühere Busschnittstelle und wird mit zunehmender Reife der Technologie schrittweise eingestellt. PCIe ist derzeit die am häufigsten verwendete Busschnittstelle und ist in industriellen Anwendungen und Servercomputern weit verbreitet.
1. Wie funktioniert die PCIe-Karte?
PCIe ist ein serieller Anschluss, der eher wie ein Netzwerk als wie ein Bus funktioniert. Der offensichtlichste Unterschied zu anderen Busschnittstellen, die Daten aus unterschiedlichen Quellen verarbeiten, besteht darin, dass PCIe den Datenfluss durch einen Switch für eine Punkt-zu-Punkt-Verbindung steuert. Die PCle-Karte wird in den Steckplatz eingesetzt und erzeugt eine logische Verbindung (Verbindung oder Link), um miteinander zu kommunizieren. Es unterstützt im Allgemeinen Punkt-zu-Punkt-Kommunikationskanäle zwischen den beiden PCle-Ports und kann die Aktionen zum Senden und Empfangen normaler PCI-Anforderungen oder Interrupts ausführen.
2. Was sind die Kategorien von PCIe-Karten?
Spezifikationen: Normalerweise bestimmt die Anzahl der Kanäle im PCle-Steckplatz eine Spezifikation für die PCle-Karte. Gängige PCle-Karten haben die folgenden physikalischen Spezifikationen: x1, x4, x8, x16 und x32. Beispielsweise bedeutet eine PClex8-Karte, dass die Karte acht Kanäle hat.
Version: PCIe ersetzt die alten PCI- und PCI-X-Busstandards und wird ständig modifiziert, um der wachsenden Nachfrage nach hoher Bandbreite gerecht zu werden. Die früheste Version von PCIe 1.0 (2.5 GT/s) wurde 2002 veröffentlicht, später PCIe 2.0 (5 GT/s), PCIe 3.0 (8 GT/s), PCIe 4.0 (16 GT/s), PCIe 5.0 (32 GT/s), PCIe 6.0 (64 GT/s) und PCIe7.0 (128 GT/s) erschienen. Alle PCIe-Versionen unterstützen Abwärtskompatibilität.
Klassifizierung von Bund Breite
Da der Internetverkehr von Tag zu Tag wächst, stehen Netzwerkgeräte unter dem Druck der großen ISPs, ständig mit höheren Leistungsanforderungen zu iterieren und zu aktualisieren, um 10G-, 25G-, 40G- oder bis zu 100G-Datenübertragungen zu erreichen. Einige grundlegende Informationen über sie werden in den folgenden Abschnitten detailliert beschrieben.
1. 10G-Faser Adapter (Ethernet-Server Adapter )
10G-Glasfaser-Netzwerkadapter Nimmt eine 32/64-Bit-PCI-Bus-Netzwerkschnittstellenkarte an, unterstützt 10G-Singlemode- oder Multimode-Glasfaser und eignet sich für den Aufbau von Backbone-Netzwerken in Unternehmen und auf dem Campus. Gleichzeitig kann 10G-Ethernet bis zu 100 Kilometer übertragen, was die Übertragungsanforderungen im Ballungsraum erfüllen kann. Die Bereitstellung eines 10G-Netzwerks auf der Backbone-Schicht des MAN kann die Netzwerkstruktur erheblich vereinfachen, Kosten senken und die Wartung erleichtern. End-to-End-Ethernet wird verwendet, um einen MAN mit niedrigen Kosten, hoher Leistung und umfassenden Service-Support-Funktionen aufzubauen.
2. 25G-Faser Adapter
25G-Glasfaseradapter Gleichen Sie die geringe Bandbreite von 10G-Ethernet und die hohen Kosten von 40G-Ethernet aus, indem Sie die 25-Gbit/s-Einzelkanal-Physical-Layer-Technologie verwenden, um eine 100-Gbit/s-Übertragung basierend auf vier 25-Gbit/s-Glasfaserkanälen zu erreichen. Da das SFP28-Paket auf dem SFP+-Paket basiert und beide die gleiche Größe haben, kann der 25G-Glasfaseradapterport sowohl 25G- als auch 10G-Raten unterstützen. Im Vergleich zu 10G-Netzwerkadaptern wird die größere Bandbreite von 25G-Glasfaser-NICs zur Erfüllung der Netzwerkanforderungen von Hochleistungs-Computing-Clustern bei 100G- oder noch schnelleren Netzwerk-Upgrades 25G-Glasfaseradapter eine der unverzichtbaren Infrastrukturen sein.
3. 40G-Faser Adapter
Der 40G-Glasfaseradapter verfügt über eine 40G-QSFP+-Schnittstelle, die eine Übertragungsbandbreite von 40 Gbit/s unterstützt. Es unterstützt auch den PCI-e x8-Standardsteckplatz, um einen effizienten und stabilen Betrieb zu gewährleisten. In der Regel als Single- und Dual-Port erhältlich, 40G-Glasfaser-NICs sind die leistungsstärkste Verbindungslösung für Rechenzentren von Unternehmen, Cloud Computing, Hochleistungs-Computing und eingebettete Umgebungen.
4. 100GFaser Adapter
Derzeit sind die gängigsten 100G-Glasfaser-Netzwerkadapter auf dem Markt Single-Port und Dual-Port. Jeder Port kann bis zu 100 Gbit/s Ethernet bereitstellen, wodurch das adaptive Routing für eine zuverlässige Übertragung sichergestellt und die Entladefähigkeit von vSwitch/vRouter verbessert wird. 100G-Glasfaser-Netzwerkkarten bieten eine leistungsstarke und flexible Lösung mit einer Reihe innovativer Offloads und Beschleuniger in der Hardware, um die Effizienz von Rechenzentrumsnetzwerken und Speicherverbindungen zu verbessern.
Die Verbindung zwischen dem Server und dem Switch wird auf eine höhere Bandbreite erhöht. Die 25G-Ethernet-Karte ist als Zwischengerät zwischen dem 25G-Server und dem 100G-Switch zum Mainstream geworden. Und da das Rechenzentrum mit beispielloser Geschwindigkeit auf 400G wächst, wird die Verbindung zwischen Servern und Switches auf 100G wachsen, 100G-Netzwerkkarten spielen auch im Rechenzentrum eine unverzichtbare Rolle.
Was ist der InfiniBand Adapter?
InfiniBand-Netzwerk
Als Kommunikationsstandard für Computernetzwerke wird InfiniBand aufgrund seiner Vorteile einer hohen Durchsatzbandbreite und einer extrem niedrigen Netzwerkübertragungsverzögerung häufig im Hochleistungsrechnen (HPC) eingesetzt. Das InfiniBand-Netzwerk kann horizontal durch Switch-Netzwerke erweitert werden, um es an Netzwerkanforderungen verschiedener Größenordnungen anzupassen. Ab 2014 verwenden die meisten TOP500-Supercomputer die InfiniBand-Netzwerktechnologie. In den letzten Jahren haben KI/Big Data-bezogene Anwendungen auch InfiniBand-Netzwerke eingeführt, um eine leistungsstarke Cluster-Bereitstellung zu erreichen.
Als mehrschichtiges Protokoll definiert InfiniBand einen mehrschichtigen Protokollstapel, der dem siebenschichtigen Protokollmodell von OSI ähnelt. IB-Switches erstellen einen privaten und geschützten Direktkanal auf dem Serverknoten. In diesem Kanal erfordert die Übertragung von Daten und Nachrichten keine CPU-Verarbeitung mehr, sondern wird direkt über RDMA implementiert. Auf diese Weise werden die Empfangs- und Sendefunktionen zur Verarbeitung an den InfiniBand-Adapter ausgelagert. Physisch verbinden sich InfiniBand-Adapter über PCIe-Schnittstellen mit dem CPU-Speicher und bieten eine höhere Bandbreite, geringere Latenz und bessere Skalierbarkeit als andere Kommunikationsprotokolle.
InfiniBand-Adapter
Die InfiniBand-Architektur definiert eine Reihe von Hardwarekomponenten, die zum Bereitstellen der Architektur erforderlich sind, und die InfiniBand-Netzwerkkarte ist eine davon. Der InfiniBand-Adapter wird auch als HCA – Host Channel Adapter bezeichnet. Der HCA ist der Punkt, an dem ein InfiniBand-Endknoten (z. B. ein Server oder ein Speichergerät) eine Verbindung zum InfiniBand-Netzwerk herstellt. InfiniBand-Architekten verbrachten viel Zeit damit, sicherzustellen, dass die Architektur mehr als eine bestimmte HCA-Funktion implementieren kann, die in einem einzigen Stück Hardware, Firmware oder Software erforderlich ist, damit die endgültige Sammlung von Hardware, Software und Firmware, die die HCA-Funktion darstellt, Zugriff bietet um Ressourcen für eine Anwendung zu vernetzen. Tatsächlich erscheint die Warteschlangenstruktur, die von der Anwendung für den Zugriff auf die InfiniBand-Hardware verwendet wird, direkt in der virtuellen Adresse der Anwendung. Derselbe Adressübersetzungsmechanismus ist ein Mittel für HCAs, um im Namen von Anwendungen auf Benutzerebene auf Speicher zuzugreifen. Häufig beziehen sich Anwendungen auf virtuelle Adressen; HCAs haben die Fähigkeit, diese Adressen für die Informationsübertragung in physische Adressen umzuwandeln.
Vorteile von InfiniBand Adapter
- InfiniBand-Netzwerkkarten bieten die leistungsfähigste und am besten skalierbare Verbindungslösung für Server und Speichersysteme. Insbesondere in den Bereichen HPC, Web 2.0, Cloud Computing, Big Data, Finanzdienstleistungen, virtualisierte Rechenzentren und Speicheranwendungen werden erhebliche Leistungsverbesserungen zu verzeichnen sein, was zu kürzeren Fertigstellungszeiten und niedrigeren Gesamtprozesskosten führt.
- InfiniBand-Adapter sind die ideale Lösung für HPC-Cluster, die eine hohe Bandbreite, hohe Nachrichtenraten und niedrige Latenzzeiten benötigen, um eine hohe Servereffizienz und Anwendungsproduktivität zu erreichen.
- Die InfiniBand-Karte verlagert die Protokollverarbeitung und Datenbewegung der CPU von der CPU auf die Verbindung, maximiert so die Effizienz der CPU und ermöglicht eine ultraschnelle Verarbeitung hochauflösender Simulationen, großer Datensätze und hochparallelisierter Algorithmen.
So wählen Sie ein InfiniBand aus Network Karte
- Netzwerkbandbreite: 100G, 200G, 400G
- Anzahl der Adapter in einer einzelnen Maschine
- Portrate: 100 Gb/s (HDR100/EDR), 200 Gb/s (HDR)
- Anzahl der Anschlüsse: 1/2
- Typ der Hostschnittstelle: PCIe3/4 x8/x16, OCP2.0/3.0
- Ob die Socket-Direct- oder Multi-Host-Funktion benötigt wird
InfiniBand vs. Ethernet
- Bandbreite: Da die beiden Anwendungen unterschiedlich sind, sind auch die Bandbreitenanforderungen unterschiedlich. Ethernet ist eher eine Endgeräteverbindung, es besteht kein hoher Bandbreitenbedarf. InfiniBand wird verwendet, um Server im Hochleistungsrechnen miteinander zu verbinden. Es berücksichtigt nicht nur die Verbindung, sondern auch, wie die CPU-Last während der Hochgeschwindigkeits-Netzwerkübertragung reduziert werden kann. Profitieren Sie von der RDMA-Technologie, InfiniBand-Netzwerk kann eine CPU-Entlastung bei Hochgeschwindigkeitsübertragung erreichen und die Netzwerkauslastung verbessern. Daher wird eine große Erhöhung der CPU-Geschwindigkeit nicht mehr Ressourcen für die Netzwerkverarbeitung opfern und die Entwicklung der HPC-Leistung verlangsamen.
- Latency: Zum Vergleich hauptsächlich in Switch und Netzwerkadapter unterteilt. Für Switches: Als zweite Technologieschicht im Netzwerkübertragungsmodell haben Ethernet-Switches einen langen Verarbeitungsprozess, der im Allgemeinen mehrere Sekunden dauert (mehr als 200 ns unterstützen Cut-Through), während InfiniBand-Switches eine sehr einfache Layer-2-Verarbeitung haben. Die Cut-Through-Technologie kann die Weiterleitungsverzögerung erheblich auf weniger als 100 ns verkürzen, was viel schneller ist als bei Ethernet-Switches. Für Netzwerkadapter: Mithilfe der RDMA-Technologie können InfiniBand-Netzwerkkarten Pakete weiterleiten, ohne die CPU zu durchlaufen, was die Paketkapselungs- und Entkapselungsverzögerung erheblich beschleunigt (normalerweise beträgt die Empfangs- und Sendeverzögerung 600 ns). Die Sende- und Sendeverzögerung von TCP- und UDP-Anwendungen, die auf Ethernet basieren, beträgt jedoch etwa 10 us, mit einer Differenz von mehr als dem Zehnfachen.
- Zuverlässigkeit: Im Bereich des Hochleistungsrechnens hat die Neuübertragung von Paketverlusten einen großen Einfluss auf die Gesamtleistung. Daher wird ein hochzuverlässiges Netzwerkprotokoll benötigt, um die verlustfreien Eigenschaften des Netzwerks auf der Mechanismusebene sicherzustellen, um seine hochzuverlässigen Eigenschaften zu erreichen. InfiniBand ist ein vollständiges Netzwerkprotokoll mit eigenen Layer-1- bis Layer-4-Formaten. Pakete werden im Netzwerk basierend auf einer End-to-End-Flusskontrolle gesendet und empfangen. Es gibt keine Cache-Akkumulation bei der Übertragung über das InfiniBand-Netzwerk, sodass der Verzögerungs-Jitter auf ein Minimum reduziert wird, wodurch ein ideales reines Netzwerk entsteht. Das durch Ethernet aufgebaute Netzwerk hat keinen Planungs-Flusssteuerungsmechanismus, was nicht nur hohe Kosten, sondern auch einen größeren Energieverbrauch verursacht. Da es keinen End-to-End-Flusssteuerungsmechanismus gibt, tritt das Netzwerk außerdem in leicht extremen Fällen auf, was zu Cache-Überlastung und Paketverlust führt, wodurch die Datenweiterleitungsleistung stark schwankt.
- Networking mit anderen Teilnehmern: Bei Ethernet-Netzwerken muss jeder Server im Netzwerk regelmäßig Pakete senden, um die Aktualisierung der Einträge in Echtzeit sicherzustellen. Wenn die Anzahl der Knoten im Netzwerk auf ein bestimmtes Niveau ansteigt, werden Broadcast-Stürme erzeugt, was zu einer ernsthaften Verschwendung von Netzwerkbandbreite führt. Gleichzeitig führt das Fehlen des Lernmechanismus für Tabelleneinträge des Ethernet-Netzwerks zu einem Loop-Netzwerk, und Ethernet hat kein spezielles SDN, sodass das Paketformat oder der Weiterleitungsmechanismus geändert werden muss, um die Anforderungen von SDN während des Netzwerks zu erfüllen Bereitstellung, wodurch die Komplexität der Netzwerkkonfiguration erhöht wird. InfiniBand wird mit dem Konzept von SDN geboren. Jedes Layer-2-InfiniBand-Netzwerk verfügt über einen Subnetz-Manager, um die Knoten-ID (LocalID) im Netzwerk zu konfigurieren. Dann werden die Weiterleitungspfadinformationen einheitlich durch die Steuerebene berechnet und an den InfiniBand-Switch geliefert. Auf diese Weise kann ein Layer-2-InfiniBand-Netzwerk ohne Konfiguration konfiguriert werden, Flooding wird vermieden und VLANs und Ringnetzwerkunterbrechungen werden vermieden. Daher kann ein großes Layer-2-Netzwerk mit Zehntausenden von Servern problemlos bereitgestellt werden.
Empfehlungen für Netzwerkkarten
ConnectX-5 Ethernet-Karte (MCX512A-ACAT)
Die ConnectX-5 Ethernet-Netzwerkschnittstellenkarte verfügt über bis zu zwei 10/25GbE-Anschlussports, 750 ns Latenz, bis zu 200 Millionen Pakete pro Sekunde (Mpps) und Data Plane Development Kits (DPDK). Für Speicherworkloads bietet ConnectX-5 eine Reihe innovativer Beschleunigungen, wie z. B. Signatur-Switching in Hardware (T10-DIF), eingebettete PCIe-Switches und NVMe over Fabric Target Offloading. ConnectX-5-Adapterkarten bringen außerdem erweitertes Open vSwitch Offloading in Telekommunikations- und Cloud-Rechenzentren, um extrem hohe Paketraten und Durchsätze zu erreichen und gleichzeitig den CPU-Ressourcenverbrauch zu reduzieren, wodurch die Effizienz der Rechenzentrumsinfrastruktur gesteigert wird.
ConnectX-6 Ethernet-Karte (MCX623106AN-CDAT)
ConnectX-6 Dx SmartNIC unterstützt Übertragungsraten von 1/10/25/40/50/100 GbE, flexibel programmierbare Pipes für neue Netzwerkflüsse, Multi-Homing mit erweitertem QoS, IPsec und TLS Inline-Verschlüsselungsbeschleunigungsunterstützung und Verschlüsselungsbeschleunigung zum Blockieren statischer Daten Daten. Es ist die sicherste und fortschrittlichste Cloud-Netzwerkschnittstellenkarte der Branche zur Beschleunigung geschäftskritischer Rechenzentrumsanwendungen wie Sicherheit, Virtualisierung, SDN/NFV, Big Data, maschinelles Lernen und Speicherung.
ConnectX-6 VPI IB-Netzwerkkarte (MCX653105A-ECAT-SP)
Die ConnectX-6 VPI-Karte bietet einen einzelnen Port, eine Latenzzeit von unter 600 ns und 215 Millionen Nachrichten pro Sekunde für HDR100 EDR InfiniBand und 100 GbE Ethernet-Konnektivität. PCIe 3.0- und PCIe 4.0-Unterstützung; erweiterte Speicherfunktionen, einschließlich Blockverschlüsselung und Prüfsummen-Offload; für die leistungsstärkste und flexibelste Lösung, die den wachsenden Anforderungen von Rechenzentrumsanwendungen gerecht wird.
ConnectX-5 VPI IB-Netzwerkkarte (MCX556A-ECAT)
ConnectX-5 InfiniBand-Adapterkarten bieten eine leistungsstarke und flexible Lösung mit Dual-Port 100 Gb/s InfiniBand- und Ethernet-Konnektivitätsports, geringer Latenz und hohen Nachrichtenraten sowie eingebetteten PCIe-Switches und NVMe over Fabrics, Offload. Diese intelligenten Adapter mit Remote Direct Memory Access (RDMA) bieten erweiterte Anwendungs-Offload-Funktionen für High-Performance Computing (HPC), Cloud Hyperscale und Speicherplattformen.
An den oben erwähnten InfiniBand-Adaptern und Ethernet-Karten ist leicht zu erkennen, dass sie beide ihre eigenen Eigenschaften und entsprechenden Anwendungsbereiche haben. Welcher Kartentyp eingesetzt werden soll, hängt nicht nur von den von der Karte unterstützten Protokollen ab, sondern auch von Ihrer Netzwerkumgebung und Ihrem Budget.
Ähnliche Produkte:
- Intel® I210 F1 Gigabit-SFP-PCI Express x1-Ethernet-Netzwerkschnittstellenkarte mit einem Port PCIe v2.1 $65.00
- Intel® 82599EN SR1 10-Gigabit-SFP+-PCI-Express-x8-Ethernet-Netzwerkschnittstellenkarte PCIe v2.0 mit einem Port $115.00
- Intel® 82599ES SR2 Dual-Port 10-Gigabit-SFP + PCI Express x8-Ethernet-Netzwerkschnittstellenkarte PCIe v2.0 $169.00
- Intel® X710-BM2 DA2 10-Gigabit-SFP+-PCI-Express-x8-Ethernet-Netzwerkschnittstellenkarte mit zwei Anschlüssen PCIe v3.0 $245.00
- Intel® XL710-BM1 DA4 Quad-Port 10 Gigabit SFP+ PCI Express x8 Ethernet-Netzwerkschnittstellenkarte PCIe v3.0 $550.00
- NVIDIA Mellanox MCX4121A-ACAT-kompatibler ConnectX-4 Lx EN-Netzwerkadapter, 25 GbE Dual-Port SFP28, PCIe3.0 x 8, hohe und kurze Halterung $249.00
- Intel® XXV710 DA2 Dual-Port 25-Gigabit-SFP28-PCI-Express-x8-Ethernet-Netzwerkschnittstellenkarte PCIe v3.0 $429.00
- Intel® XL710-BM1 QDA1 40-Gigabit-QSFP+-PCI-Express-x8-Ethernet-Netzwerkschnittstellenkarte mit einem Port PCIe v3.0 $595.00
- Intel® XL710 QDA2 40-Gigabit-QSFP+-PCI-Express-x8-Ethernet-Netzwerkschnittstellenkarte mit zwei Anschlüssen PCIe v3.0 $635.00
- Intel® Ethernet-Controller E810-CAM2 100G Dual-Port QSFP28, Ethernet-Netzwerkadapter PCIe 4.0 x16 $900.00
- NVIDIA Mellanox MCX512A-ACAT SmartNIC ConnectX®-5 EN Netzwerkschnittstellenkarte, 10/25 GbE Dual-Port SFP28, PCIe 3.0 x 8, hohe und kurze Halterung $318.00
- NVIDIA Mellanox MCX631102AN-ADAT SmartNIC ConnectX®-6 Lx Ethernet-Netzwerkschnittstellenkarte, 1/10/25 GbE Dual-Port SFP28, Gen 4.0 x8, hohe und kurze Halterung $385.00
- NVIDIA Mellanox MCX621102AN-ADAT SmartNIC ConnectX®-6 Dx Ethernet-Netzwerkschnittstellenkarte, 1/10/25 GbE Dual-Port SFP28, Gen 4.0 x8, hohe und kurze Halterung $315.00
- NVIDIA MCX623106AN-CDAT SmartNIC ConnectX®-6 Dx EN Netzwerkschnittstellenkarte, 100 GbE Dual-Port QSFP56, PCIe4.0 x 16, hohe und kurze Halterung $1200.00
- NVIDIA Mellanox MCX515A-CCAT SmartNIC ConnectX®-5 EN Netzwerkschnittstellenkarte, 100 GbE Single-Port QSFP28, PCIe3.0 x 16, hohe und kurze Halterung $715.00
- NVIDIA Mellanox MCX516A-CCAT SmartNIC ConnectX®-5 EN Netzwerkschnittstellenkarte, 100 GbE Dual-Port QSFP28, PCIe3.0 x 16, hohe und kurze Halterung $985.00
- NVIDIA Mellanox MCX653106A-ECAT-SP ConnectX-6 InfiniBand/VPI-Adapterkarte, HDR100/EDR/100G, Dual-Port QSFP56, PCIe3.0/4.0 x16, hohe Halterung $828.00
- NVIDIA Mellanox MCX653105A-ECAT-SP ConnectX-6 InfiniBand/VPI-Adapterkarte, HDR100/EDR/100G, Single-Port QSFP56, PCIe3.0/4.0 x16, hohe Halterung $690.00
- NVIDIA Mellanox MCX653106A-HDAT-SP ConnectX-6 InfiniBand/VPI-Adapterkarte, HDR/200GbE, Dual-Port QSFP56, PCIe3.0/4.0 x16, hohe Halterung $1600.00
- NVIDIA Mellanox MCX653105A-HDAT-SP ConnectX-6 InfiniBand/VPI-Adapterkarte, HDR/200GbE, Single-Port QSFP56, PCIe3.0/4.0 x16, hohe Halterung $1400.00