Die im Jahr 100 veröffentlichte NVIDIA DGX H2022 ist mit 8 Single-Port-ConnectX-7-Netzwerkkarten ausgestattet, die eine NDR-Bandbreite von 400 Gbit/s unterstützen, und 2 Dual-Port-Bluefield-3-DPUs (200 Gbit/s), die IB/Ethernet-Netzwerke unterstützen können . Das Erscheinungsbild ist in der folgenden Abbildung dargestellt.
Der DGX H100 verfügt über 4 QSFP56-Ports für Speichernetzwerk und In-Band-Verwaltungsnetzwerk; Darüber hinaus gibt es einen 10G-Ethernet-Port für die Remote-Host-Betriebssystemverwaltung und einen 1G-Ethernet-Port für die Remote-Systemverwaltung.
Aus der Abbildung der internen Netzwerktopologie des Servers geht hervor, dass es 4 OSFP-Ports für die Computernetzwerkverbindung gibt (die violetten), und die blauen Blöcke sind Netzwerkkarten, die als Netzwerkkarten fungieren und auch die Rolle der PCIe-Switch-Erweiterung spielen können und wird zur Brücke zwischen CPU und GPU.
Wenn das NVIDIA SuperPOD NVLink-Clusterverbindungsschema übernommen wird, werden 32 H100 über externe NVLink-Switches miteinander verbunden. Die 8 GPUs im Server sind mit 4 NVSwitch-Modulen verbunden, jedes NVSwitch-Modul entspricht 4-5 Optische OSFP-Module, insgesamt 18 OSFPs, und die OSFPs werden dann mit 18 externen NVLink-Switches verbunden. (Derzeit verfügen die H100 auf dem Markt nicht über diese 18 OSFP-Module.) Dieser Artikel befasst sich nicht mit der NVLink-Netzwerkmethode, sondern konzentriert sich auf die IB-Netzwerkmethode. Laut dem Referenzdesigndokument von NVIDIA: Im DGX H100-Servercluster bilden jeweils 32 DGX H100 eine SU, und jeweils 4 DGX H100 werden in einem separaten Rack platziert (die Leistung jedes Racks wird auf etwa 40 KW geschätzt), und die verschiedenen Switches werden in zwei unabhängigen Racks platziert. Daher enthält jede SU 10 Racks (8 zum Platzieren von Servern und 2 zum Platzieren von Switches). Das Computernetzwerk muss nur zweischichtige Spine-Leaf-Switches (Mellanox QM9700) ist die Netzwerktopologie in der folgenden Abbildung dargestellt.
Switch-Nutzung: Im Cluster bilden alle 32 DGX H100 eine SU (in jeder SU gibt es 8 Leaf-Switches), und im 4 H128-Servercluster gibt es 100 SUs, also insgesamt 32 Leaf-Switches. Jeder DGX H100 in der SU muss mit allen 8 Leaf-Switches verbunden sein. Da jeder Server nur über 4 OSFP-Ports für die Computernetzwerkverbindung verfügt, wird nach dem Anschluss von optischen 800G-Modulen an jeden Port ein OSFP-Port über den Erweiterungsport auf zwei QSFP-Ports erweitert, wodurch die Verbindung jedes DGX H100 mit 8 Leaf-Switches erreicht wird. Jeder Leaf-Switch verfügt über 16 Uplink-Ports, die mit 16 Spine-Switches verbunden sind.
Verwendung optischer Module: Für die Downlink-Ports des Leaf-Switches sind optische 400G-Module erforderlich, und der Bedarf beträgt 3284. Für die Uplink-Ports des Leaf-Switches werden optische 800G-Module verwendet, und der Bedarf beträgt 1684. Es werden optische 800G-Module verwendet die Downlink-Ports des Spine-Switches. Daher wird im H128-Servercluster 800 Computernetzwerke verwendet 800G optische Module 1536 und 400G optische Module 1024.
Ähnliche Produkte:
- NVIDIA MMA4Z00-NS400 kompatibles 400G OSFP SR4 Flat Top PAM4 850 nm 30 m auf OM3/50 m auf OM4 MTP/MPO-12 Multimode FEC optisches Transceiver-Modul $650.00
- NVIDIA MMA4Z00-NS-FLT-kompatibles 800 Gbit/s Twin-Port OSFP 2x400G SR8 PAM4 850 nm 100 m DOM Dual MPO-12 MMF optisches Transceiver-Modul $850.00
- NVIDIA MMA4Z00-NS-kompatibles 800-Gbit/s-Twin-Port-OSFP-2x400G-SR8-PAM4-850-nm-100-m-DOM-Dual-MPO-12-MMF-optisches Transceiver-Modul $750.00
- NVIDIA MMS4X00-NM-kompatibles 800-Gbit/s-Twin-Port-OSFP-2x400G-PAM4-1310-nm-500-m-DOM-Dual-MTP/MPO-12-SMF-Optisch-Transceiver-Modul $1100.00
- NVIDIA MMS4X00-NM-FLT-kompatibles 800G-Twin-Port-OSFP-2x400G-Flat-Top-PAM4-1310-nm-500-m-DOM-Dual-MTP/MPO-12-SMF-optisches Transceiver-Modul $1200.00
- NVIDIA MMS4X00-NS400 kompatibles 400G OSFP DR4 Flat Top PAM4 1310 nm MTP/MPO-12 500 m SMF FEC optisches Transceiver-Modul $800.00
- Mellanox MMA1T00-HS kompatibles 200G Infiniband HDR QSFP56 SR4 850nm 100m MPO-12 APC OM3/OM4 FEC PAM4 optisches Transceiver-Modul $200.00
- NVIDIA MFP7E10-N010-kompatibel, 10 m (33 Fuß), 8 Fasern, geringe Einfügungsdämpfung, Buchse auf Buchse, MPO-Stammkabel, Polarität B, APC auf APC LSZH, Multimode OM3 50/125 $47.00
- NVIDIA MCP7Y00-N003-FLT-kompatibler 3 m (10 Fuß) 800G Twin-Port OSFP zu 2x400G Flat Top OSFP InfiniBand NDR Breakout DAC $275.00
- NVIDIA MCP7Y70-H002 kompatibles 2 m (7 Fuß) 400G Twin-Port 2x200G OSFP zu 4x100G QSFP56 Passives Breakout Direct Attach Kupferkabel $155.00
- NVIDIA MCA4J80-N003-FTF-kompatibles 3 m (10 Fuß) 800G Twin-Port 2x400G OSFP zu 2x400G OSFP InfiniBand NDR Aktives Kupferkabel, flache Oberseite an einem Ende und gerippte Oberseite am anderen Ende $600.00
- NVIDIA MCP7Y10-N002 kompatibler 2 m (7 Fuß) 800G InfiniBand NDR Twin-Port OSFP zu 2x400G QSFP112 Breakout DAC $200.00