Сетевые адаптеры семейства NVIDIA ConnectX-7 поддерживают протоколы InfiniBand и Ethernet, предоставляя универсальное решение для широкого спектра сетевых потребностей. Эти адаптеры предназначены для обеспечения интеллектуальных, масштабируемых и многофункциональных сетевых возможностей, отвечающих требованиям традиционных корпоративных приложений, а также высокопроизводительных рабочих нагрузок в области искусственного интеллекта, научных вычислений и гипермасштабируемых облачных центров обработки данных.
Сетевые адаптеры ConnectX-7 доступны в двух различных форм-факторах: вертикальные карты PCIe и карты Open Compute Project (OCP) Spec 3.0. Эта гибкость позволяет пользователям выбирать адаптер, который лучше всего соответствует их конкретным требованиям развертывания.
Сети со скоростью 400 Гбит/с — это новая возможность, которую поддерживают слоты PCIe Gen5 x16. Рассмотрим конфигурацию для использования NDR 400 Гбит/с. InfiniBand/400ГбЭ.

Угол 1 выстрел NVIDIA ConnectX 7 400G OSFP
Обзор аппаратного обеспечения адаптера MCX75310AAS-NEAT
ConnectX-7 (MCX75310AAS-NEAT) — это низкопрофильная карта, предназначенная для слотов PCIe Gen5 x16. На изображении ниже показана полноразмерная скоба, но в коробке также есть низкопрофильная скоба.

Перед NVIDIA ConnectX 7 400G OSFP
Стоит отметить размеры охлаждающего решения. Однако NVIDIA не раскрывает спецификации мощности этих сетевых адаптеров.

Угол 2 выстрел NVIDIA ConnectX 7 400G OSFP
Вот обратная сторона карты с задней панелью радиатора.

Задняя сторона карты NVIDIA ConnectX 7 400G OSFP
Вот вид карты сбоку от разъема PCIe Gen5 x16.

Угол разъема NVIDIA ConnectX 7 400G OSFP
Это еще один вид карты сверху.

NVIDIA ConnectX 7 400G OSFP, верхний угол
Это вид со стороны воздушного потока большинства серверов.

Это плоская однопортовая карта, работающая на скорости 400 Гбит/с. Он обеспечивает огромную пропускную способность.
Установка адаптера NVIDIA ConnectX-7 400G
Одним из наиболее важных аспектов такой карты является ее установка в систему, которая может воспользоваться ее скоростью.
Процедура установки плат адаптера ConnectX-7 включает следующие шаги:
- Проверьте аппаратные и программные требования системы.
- Обратите внимание на воздушный поток в хост-системе.
- Соблюдайте меры предосторожности.
- Распакуйте пакет.
- Следуйте контрольному списку перед установкой.
- (Дополнительно) Замените полноразмерный монтажный кронштейн прилагаемым коротким кронштейном.
- Установите карту адаптера ConnectX-7 PCle x16/плату адаптера ConnectX-7 2x PCle x16 Socket Direct в систему.
- Подключите кабели или модули к плате.
- Определите ConnectX-7 в системе.

Supermicro SYS 111C NR с адаптером NVIDIA ConnectX 7 400 Гбит/с 1
К счастью, мы успешно установили эти устройства на серверы Supermicro SYS-111C-NR 1U и Supermicro SYS-221H-TNR 2U, и они работают нормально.

Supermicro SYS 111C NR с адаптером NVIDIA ConnectX 7 400 Гбит/с 2
SYS-111C-NR — это однослотовый узловой сервер, обеспечивающий большую гибкость, поскольку нам не нужно беспокоиться о соединениях между слотами при настройке системы. На скоростях 10/40 Гбит/с или даже 25/50 Гбит/с ведутся дискуссии о проблемах с производительностью из-за соединений между слотами ЦП. С появлением 100GbE проблема наличия сетевого адаптера для каждого процессора во избежание соединений между слотами стала более заметной и распространенной. Влияние еще более выражено и серьезно при использовании сетей со скоростями 400GbE. Для двухслотовых серверов, использующих одну сетевую карту 400GbE, стоит рассмотреть вариант с несколькими хост-адаптерами, которые подключаются непосредственно к каждому процессору.
OSFP против QSFP-DD
Как только карты были установлены, перед нами встала следующая задача. Эти карты используют каркасы OSFP, но наш коммутатор 400GbE использует QSFP-DD.

Supermicro SYS 111C NR с адаптером NVIDIA ConnectX 7 400 Гбит/с 4
Эти два стандарта имеют некоторые различия в уровнях мощности и физической конструкции. можно конвертировать QSFP-DD к OSFP, но обратное невозможно. Если вы никогда не видели оптику OSFP или ЦАП, у них есть свои уникальные решения для управления температурным режимом. QSFP-DD обычно использует радиатор поверх сокета, в то время как OSFP обычно включает решение для охлаждения ЦАП OSFP и оптики в лаборатории.

Разъемы OSFP и QSFP-DD 1
Это сложно. Как OSFP DAC, так и OSFP-QSFP-DD DAC используют решение для охлаждения радиатора. И из-за прямого охлаждения на ЦАП штекер OSFP не вставляется в порт OSFP на Сетевая карта ConnectX-7.
NVIDIA, скорее всего, использует OSFP, потому что у него более высокий уровень мощности. OSFP позволяет использовать оптику мощностью 15 Вт, а QSFP-DD поддерживает только 12 Вт. Наличие более высокого потолка мощности может облегчить раннее внедрение на этапе раннего внедрения, что является одной из причин, по которой доступны такие продукты, как модуль CFP24 мощностью 8 Вт.
По возможности учитывайте размер радиатора на стороне OSFP вставки ConnectX-7. Если вы привыкли к QSFP/QSFP-DD, все устройства будут подключаться и работать нормально, но столкновение с незначительной проблемой, такой как размер разъема, может создать более серьезную проблему. Однако, если вы являетесь поставщиком решений, это также возможность предоставить профессиональную сервисную поддержку. Такие дистрибьюторы, как NVIDIA и PNY, также продают кабели LinkX, что было бы более удобным вариантом. Это ценный урок.
Далее, давайте все это настроим и приступим к работе.
Настройка программного обеспечения NDR InfiniBand и 400GbE
Помимо физической установки, мы также работали над программным обеспечением на сервере. К счастью, это была самая легкая часть. Мы использовали адаптер ConnectX-2910 серии MT7 от Supermicro.

NVIDIA MT2910 Lшв
Выполнив быструю установку и перезагрузку OFED (OpenFabrics Enterprise Distribution),
мы подготовили систему.

NVIDIA MT2910 Lshw после установки OFED
Поскольку мы используем коммутатор Broadcom Tomahawk 4 в Ethernet и работаем непосредственно в режиме InfiniBand, нам также необходимо изменить тип соединения.
Этот процесс прост и аналогичен изменению порта Mellanox ConnectX VPI на Ethernet или InfiniBand в Linux.
Ниже приведен основной процесс:
0. Установите OFED и обновите прошивку
Это необходимый шаг для обеспечения правильной работы карты.

Во время установки MLNX_OFED_LINUX NVIDIA ConnectX 7 Mellanox Technologies MT2910 MT2910 Series
Процесс довольно прост. Сначала загрузите необходимую версию для вашей операционной системы и используйте сценарий, предоставленный в загрузке, для установки драйвера. Стандартный установщик также обновит прошивку карты.

NVIDIA ConnectX 7 MT2910 MT2910 MLNX_OFED_LINUX Установка обновления прошивки
После того, как мы установили OFED после перезагрузки сервера, мы видим, что NVIDIA ConnectX-7 MCX75310AAS-NEAT поддерживает 400GbE и NDR IB (InfiniBand). NDR IB установлен в режим по умолчанию.

NVIDIA ConnectX 7 MCX75310AAS NEAT Mlxconfig
Если мы хотим превратить его в Ethernet, есть всего три простых шага:
1. Найдите устройство ConnectX-7.
Особенно, если в вашей системе есть другие устройства, вам нужно будет найти правильное устройство для замены. Если у вас есть только одна карта, это легко сделать.
лспци | grep Мелланокс
16:00.0 Контроллер Infiniband: семейство Mellanox Technologies MT2910 [ConnectX-7]
Здесь мы теперь знаем, что наше устройство находится в 16:00.0 (как вы можете видеть на скриншоте выше).
2. Используйте mlxconfig, чтобы изменить устройство ConnectX-7 с NDR Infiniband на Ethernet.
Далее мы будем использовать идентификатор устройства для изменения типа связи Infiniband.
sudo mlxconfig -d 16:00.0 установить LINK_TYPE_P1=2

NVIDIA ConnectX 7 MCX75310AAS NEAT Mlxconfig устанавливает тип соединения Ethernet
Здесь LINK_TYPE_P1=2 устанавливает P1 (порт 1) на 2 (Ethernet). Значение по умолчанию LINK_TYPE_P1=1 означает, что для P1 (порт 1) установлено значение 1 (NDR InfiniBand). Если вам нужно изменить его обратно, вы можете просто выполнить обратный процесс.
3. Перезагрузите систему
После быстрой перезагрузки у нас теперь есть Ethernet-адаптер ConnectX-7.

Многочисленные варианты скорости Ethernet для NVIDIA ConnectX 7 MT2910
Этот адаптер 400 Гбит/с по-прежнему поддерживает скорости 1 Гбит/с.
Fпитание и совместимость NVIDIA ConnectX-7


эффективности

NVIDIA ConnectX 7 400 Гбит/с NDR Infiniband
Конечно, есть много других вариантов производительности. Мы можем достичь скоростей от 300 Гбит/с до 400 Гбит/с на InfiniBand и Ethernet. Для Ethernet требуется некоторая помощь, чтобы получить скорость 400GbE, так как начальное соединение составляет всего 200GbE, но мы мало что делаем с точки зрения настройки производительности.

Производительность NVIDIA ConnectX 7 400GbE
Эти скорости находятся в диапазоне 400 Гбит/с, что более чем в три раза превышает скорость, к которой мы привыкли. Адаптеры 100 Гбит/с, и в очень короткие сроки. Однако важно подчеркнуть, что разгрузка на скоростях 400GbE очень важна. На скоростях 25GbE и 100GbE мы видели, как устройства типа DPU использовались для разгрузки ЦП для обычных сетевых задач. За последние три года современные ядра ЦП увеличились в скорости на 20–40 процентов, а пропускная способность сети увеличилась с 100GbE до 400GbE. В результате такие технологии, как РДМА offloads и OVS/check offloads стали критически важными для минимизации использования ЦП. Вот почему бывшее подразделение Nvidia Mellanox является одной из немногих компаний, предлагающих сегодня адаптеры 400 Гбит/с.

Сопутствующие товары:
-
OSFP-400G-SR4-FLT 400G OSFP SR4 Flat Top PAM4 850 нм 30 м на OM3/50 м на OM4 MTP/MPO-12 Многомодовый модуль оптического приемопередатчика FEC $650.00
-
OSFP-400G-DR4 400G OSFP DR4 PAM4 1310nm MTP/MPO-12 500m SMF FEC Модуль оптического приемопередатчика $900.00
-
OSFP-400G-SR8 400G SR8 OSFP PAM4 850nm MTP/MPO-16 100m OM3 MMF FEC Модуль оптического трансивера $480.00
-
Плата адаптера NVIDIA Mellanox MCX653105A-ECAT-SP ConnectX-6 InfiniBand/VPI, HDR100/EDR/100G, однопортовый QSFP56, PCIe3.0/4.0 x16, высокий кронштейн $965.00
-
Сетевая интерфейсная карта NVIDIA MCX623106AN-CDAT SmartNIC ConnectX®-6 Dx EN, двухпортовый порт 100GbE QSFP56, PCIe4.0 x 16, высокий и короткий кронштейн $1200.00
-
Плата адаптера NVIDIA Mellanox MCX75510AAS-NEAT ConnectX-7 InfiniBand/VPI, NDR/400G, однопортовый OSFP, PCIe 5.0x 16, высокий кронштейн $1650.00
-
NVIDIA MMA1Z00-NS400 совместимый модуль оптического приемопередатчика 400G QSFP112 SR4 PAM4 850nm 100m MTP/MPO-12 OM3 FEC $650.00
-
Совместимый с NVIDIA MMA4Z00-NS400 400G OSFP SR4 Flat Top PAM4 850 нм 30 м на OM3/50 м на OM4 MTP/MPO-12 Многомодовый модуль оптического трансивера FEC $650.00
-
Совместимый с NVIDIA MMS4X00-NS400 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Модуль оптического трансивера $800.00
-
QDD-OSFP-FLT-AEC2M Активный электрический медный кабель PAM2 с плоской вершиной PAM7, 400G, 4 м (XNUMX футов) от QSFP-DD до OSFP $1500.00
-
OSFP-FLT-400G-PC2M 2 м (7 футов) 400G NDR Пассивный кабель прямого подключения OSFP — OSFP PAM4, плоский верх на одном конце и плоский верх на другом $125.00
-
OSFP-FLT-400G-PC3M 3 м (10 футов) 400G NDR Пассивный кабель прямого подключения OSFP — OSFP PAM4, плоский верх на одном конце и плоский верх на другом $135.00
-
NVIDIA MCA7J60-N004 Совместимый кабель длиной 4 м (13 футов) 800G с двумя портами OSFP для 2x400G OSFP InfiniBand NDR Breakout Active Copper Cable $800.00
-
Совместимый с NVIDIA MCP7Y00-N003-FLT 3 м (10 фута) 800G OSFP с двумя портами до 2x400G Flat Top OSFP InfiniBand NDR Breakout DAC $275.00
-
QSFP-DD-400G-SR4 QSFP-DD 400G SR4 PAM4 850 нм 100 м MTP/MPO-12 OM4 Модуль оптического приемопередатчика FEC $600.00
-
Совместимость с NVIDIA MFP7E10-N010, 10 волокон, длина 33 м (8 футов), низкие вносимые потери, гнездо-мама Магистральный кабель MPO, полярность B, APC-APC, LSZH, многомодовый OM3 50/125 $47.00