С развитием технологий облачных вычислений и виртуализации сетевые карты также развивались, и их можно разделить на четыре этапа с точки зрения функциональности и структуры оборудования.
Традиционная базовая сетевая карта (NIC)
Отвечает за передачу и прием пакетов данных, с меньшими возможностями аппаратной разгрузки. Аппаратное обеспечение реализует обработку пакетов уровня физического канала сети и уровня MAC с помощью аппаратной логики ASIC, а более поздние стандартные карты NIC также поддерживали такие функции, как проверка CRC. Возможности программирования отсутствуют.
Интеллектуальная сетевая карта (SmartNIC)
Он имеет определенную возможность аппаратной разгрузки плоскости данных, такую как аппаратная разгрузка OVS/vRouter. Аппаратная структура использует FPGA или интегрированный процессор с FPGA и ядром процессора (здесь функция процессора слаба) для достижения аппаратной разгрузки плоскости данных.
DPU на базе FPGA
Это интеллектуальная сетевая карта, которая поддерживает как разгрузку плоскости данных, так и разгрузку плоскости управления, а также определенную степень программируемости для плоскостей управления и данных. Что касается разработки аппаратной структуры, она добавляет процессор ЦП общего назначения на основе FPGA, такой как ЦП Intel.
Одночиповый DPU
Это однокристальный программируемый чип DPU общего назначения, который имеет богатые возможности аппаратной разгрузки и программируемости, а также поддерживает различные сценарии облачных вычислений и унифицированные функции управления ресурсами. С аппаратной стороны он принимает однокристальную форму SoC, балансируя производительность и энергопотребление. Основные проблемы DPU на основе FPGA в проектировании оборудования связаны с площадью чипа и энергопотреблением. С точки зрения площади размер структуры интерфейса PCIe ограничивает площадь чипа на плате; с точки зрения энергопотребления конструкция рассеивания тепла платы тесно связана с энергопотреблением чипа и всей платы. Эти два фактора ограничивают непрерывное развитие решений FPGA. Решение DPU SoC опирается на опыт и достижения программного и аппаратного обеспечения от NIC до DPU на основе FPGA и является важным путем эволюции для архитектуры центра обработки данных, ориентированной на DPU.
DPU, как типичный представитель программно-определяемых микросхем, основан на концепции «программно-определяемого с аппаратным ускорением» и представляет собой процессор общего назначения, в котором обработка данных является основной функцией чипа. Блок обработки общего назначения DPU используется для обработки задач плоскости управления, а выделенный блок обработки обеспечивает производительность обработки плоскости данных, тем самым достигая баланса между производительностью и универсальностью. Выделенный процессор DPU используется для устранения проблем с производительностью при виртуализации общей инфраструктуры, а процессор общего назначения обеспечивает универсальность DPU, что делает DPU широко применимым к различным сценариям облачной инфраструктуры и обеспечивает плавную миграцию программной среды виртуализации. в ДПУ.
Разработка и применение сетевых карт
Традиционная базовая сетевая карта NIC, также известная как сетевой адаптер, является самым базовым и важным устройством соединения в системе компьютерной сети. Ее основная функция заключается в преобразовании данных, которые необходимо передать, в формат, который может распознать сетевое устройство. Благодаря развитию сетевых технологий традиционная базовая сетевая карта также имеет больше функций и изначально обладала некоторыми простыми возможностями аппаратной разгрузки (такими как проверка CRC, TSO/UF0, LSO/LR0, VLAN и т. д.), поддерживая SR-IOV и управление трафиком QoS. Пропускная способность сетевого интерфейса традиционной базовой сетевой карты также развивалась с первоначальных 100M, 1000M до 10G, 25G и даже 100G.
В сети виртуализации облачных вычислений традиционная базовая сетевая карта обеспечивает сетевой доступ к виртуальной машине тремя основными способами.
(1) Сетевая карта получает трафик и пересылает его виртуальной машине через стек протоколов ядра операционной системы.
(2) Драйвер пользовательского режима DPDK берет на себя управление сетевой картой, позволяя пакетам данных обходить стек протоколов ядра операционной системы и напрямую копировать в память виртуальной машины.
(3) Используя технологию SR-IOV, PF физической сетевой карты виртуализируется в несколько виртуальных VF с функциями сетевой карты, а затем VF напрямую передается на виртуальную машину.
С использованием туннельных протоколов, таких как VxLAN, и технологий виртуальной коммутации, таких как OpenFlow, 0VS и т. д., сложность сетевой обработки постепенно возрастает, и требуется больше ресурсов ЦП. Поэтому родился SmartNIC.
Разработка и применение SmartNIC
SmartNIC, в дополнение к функции сетевой передачи данных традиционной базовой сетевой карты, также обеспечивает широкие возможности аппаратного ускорения разгрузки, что позволяет повысить скорость передачи данных в сети облачных вычислений и высвободить вычислительные ресурсы центрального процессора хоста.
SmartNIC не имеет процессора общего назначения CPU, и ему нужен хост-процессор для управления плоскостью управления. Основным объектом ускорения разгрузки SmartNIC является плоскость данных, например, плоскость данных Fastpath разгрузки виртуальных коммутаторов 0VS/vRouter, сетевая разгрузка RDMA, разгрузка хранилища NVMe-oF и разгрузка безопасности плоскости данных IPsec/TLS и т. д.
Однако, поскольку скорость сети в приложениях облачных вычислений продолжает расти, хост по-прежнему потребляет много ценных ресурсов ЦП для классификации, отслеживания и управления трафиком. Следующим направлением исследований для поставщиков облачных технологий стало достижение «нулевого потребления» центрального процессора.
Разработка и применение DPU на базе FPGA
По сравнению со SmartNIC, FPGA-Based DPU добавляет к аппаратной архитектуре процессорный блок общего назначения CPU, формируя архитектуру FPGA+CPU, которая облегчает ускорение и разгрузку общей инфраструктуры, такой как сеть, хранилище, безопасность и управление. На данном этапе форма продукта DPU в основном представляет собой FPGA+CPU. DPU на основе аппаратной архитектуры FPGA+CPU имеет хорошую программируемость программного обеспечения и оборудования.
На ранней стадии разработки DPU большинство производителей DPU выбрали эту схему. Эта схема имеет относительно короткое время разработки и быструю итерацию, а также может быстро завершить разработку индивидуальных функций, что удобно для производителей DPU для быстрого запуска продуктов и захвата рынка. Однако при переходе пропускной способности сети с 25G на 100G DPU на основе аппаратной архитектуры FPGA+CPU ограничен технологическим процессом чипа и структурой FPGA, что затрудняет достижение хорошего контроля над областью чипа и энергопотреблением при достижении более высокой пропускной способности. , что ограничивает постоянное развитие этой архитектуры DPU.
Разработка и применение сетевой карты DPU SoC
DPU SoC — это аппаратная архитектура на основе ASIC, которая сочетает в себе преимущества ASIC и ЦП и балансирует превосходную производительность специализированных ускорителей и программируемую гибкость процессоров общего назначения. Это однокристальное технологическое решение DPU, которое стимулирует развитие технологий облачных вычислений.
Как упоминалось в предыдущем абзаце, хотя DPU играет важную роль в облачных вычислениях, традиционные решения DPU в основном представлены в схемах на основе FPGA. При переходе сервера с 25G на сервер следующего поколения 100G его стоимость, энергопотребление, функциональность и другие аспекты сталкиваются с серьезными проблемами. Однокристальный процессор DPU SoC не только имеет огромные преимущества в стоимости и энергопотреблении, но также обладает высокой пропускной способностью и гибкими возможностями программирования. Он поддерживает не только управление приложениями и развертывание виртуальных машин и контейнеров, но и физические приложения.
Благодаря постоянному развитию технологии DPU программируемая SoC DPU общего назначения становится ключевым компонентом в построении центров обработки данных поставщиков облачных услуг. DPU SoC позволяет добиться экономичного и эффективного управления вычислительными ресурсами и сетевыми ресурсами в центре обработки данных. SoC DPU с богатыми функциями и программируемыми возможностями может поддерживать различные сценарии облачных вычислений и унифицированное управление ресурсами, а также оптимизировать использование вычислительных ресурсов центра обработки данных.
В проектирование, разработку и использование DPU гиганты микросхем и ведущие поставщики облачных услуг в стране и за рубежом вложили много ресурсов в исследования и разработки и добились хорошей экономической эффективности благодаря постоянным исследованиям и практике.
DPU в AWS (Облако Amazon)
AWS — ведущий в мире поставщик услуг и решений облачных вычислений. Система AWS Nitro DPU стала технической краеугольным камнем облачного сервиса AWS. AWS использует систему Nitro DPU для разделения и передачи функций сети, хранилища, безопасности и мониторинга на выделенное оборудование и программное обеспечение, а также предоставляет почти все ресурсы на сервере для обслуживания экземпляров, что значительно снижает затраты. Применение Nitro DPU в Amazon Cloud может заставить сервер зарабатывать на тысячи долларов больше в год. Система Nitro DPU в основном состоит из следующих частей.
(1) Нитрокарта. Серия специализированного оборудования для сети, хранения и управления для повышения общей производительности системы.
(2) Чип безопасности Nitro. Перенесите функции виртуализации и безопасности на выделенное оборудование и программное обеспечение, уменьшите вероятность атак и создайте безопасную облачную платформу.
(3) Гипервизор Нитро. Облегченная программа управления гипервизором, которая может управлять распределением памяти и ЦП и обеспечивать производительность, неотличимую от «голого железа».
Система Nitro DPU обеспечивает функции ключа, сети, безопасности, сервера и мониторинга, высвобождает базовые сервисные ресурсы для виртуальных машин клиентов, а также позволяет AWS предоставлять больше типов инстансов без ОС и даже повышать производительность сети конкретных инстансов для 100Gbps.
NVIDIA ДПУ
NVIDIA — полупроводниковая компания, которая в основном разрабатывает и продает графические процессоры (GPU), широко используемые в области искусственного интеллекта и высокопроизводительных вычислений (HPC). В апреле 2020 года NVIDIA приобрела Mellanox, компанию по производству сетевых чипов и устройств, за 6.9 миллиарда долларов, а затем выпустила серию DPU BlueField.
DPU NVIDIA BlueField-3 (как показано на рисунке 7) унаследовал расширенные функции DPU BlueField-2 и является первым DPU, разработанным для искусственного интеллекта и ускоренных вычислений. BlueField-3 DPU обеспечивает до Сеть 400 Гбит/с подключение и может разгружать, ускорять и изолировать, поддерживая программно-определяемые функции сети, хранения, безопасности и управления.
Intel IPU
Intel IPU — это усовершенствованное сетевое устройство с усиленными ускорителями и Ethernet-подключениями, которое может использовать тесно связанные выделенные программируемые ядра для ускорения и управления функциями инфраструктуры. IPU обеспечивает полную разгрузку инфраструктуры и выступает в качестве точки управления хостом для запуска приложений инфраструктуры, обеспечивая дополнительный уровень безопасности. Используя Intel IPU, все службы инфраструктуры могут быть выгружены с сервера на IPU, освобождая ресурсы ЦП сервера, а также предоставляя поставщикам облачных услуг независимую и безопасную точку управления.
В 2021 году Intel анонсировала продукты IPU Oak Springs Canyon и Mount Evans на Дне архитектуры Intel. Среди них Oak Springs Canyon — это продукт IPU на базе FPGA, а IPU Mount Evans — это продукт IPU на базе ASIC.
IPU Intel Oak Springs Canyon оснащен процессором Intel Agilex FPGA и процессором Xeon-D. Intel Mount Evans IPU — это SoC (система на кристалле), разработанная совместно Intel и Google. Маунт-Эванс в основном разделен на две части: подсистему I0 и вычислительную подсистему. Сетевая часть использует ASIC для обработки пакетов, которая имеет гораздо более высокую производительность и меньшее энергопотребление, чем FPGA. Вычислительная подсистема использует 16 ядер ARM Neoverse N1, которые обладают чрезвычайно мощными вычислительными возможностями.
DPU в облаке Alibaba
Alibaba Cloud также постоянно изучает технологию DPU. На саммите Alibaba Cloud в 2022 году Alibaba Cloud официально представила процессор облачной инфраструктуры CIPU, основанный на архитектуре Shenlong. Предшественником CIPU является карта MoC (Micro Server on a Card), которая соответствует определению DPU с точки зрения функций и позиционирования. Карта MoC имеет независимые блоки ввода-вывода, хранения и обработки и выполняет работу по виртуализации сети, хранения и устройств. Карты MoC первого и второго поколения решили узкий смысл виртуализации вычислений с нулевыми накладными расходами, а программное обеспечение по-прежнему реализует сетевую и складскую часть виртуализации. Карта MoC третьего поколения реализует усиление некоторых функций сетевой пересылки, и производительность сети значительно улучшена. Карта MoC четвертого поколения реализует полную аппаратную разгрузку сети и хранилища, а также поддерживает возможность RDMA.
Alibaba Cloud CIPU, являясь процессорной системой центра обработки данных, разработанной для системы Feitian, имеет важное значение для Alibaba Cloud в создании нового поколения комплексных программных и аппаратных систем с архитектурой облачных вычислений.
DPU в Volcano Engine
Volcano Engine также постоянно изучает путь самостоятельно разработанного DPU. Его самостоятельно разработанный DPU использует технологию мягкой и жесткой интегрированной виртуализации, стремясь предоставить пользователям эластичные и масштабируемые высокопроизводительные вычислительные сервисы. В эластичных вычислительных продуктах Volcano Engine эластичный bare metal сервер второго поколения и облачный сервер третьего поколения оснащены самостоятельно разработанными DPU, которые были тщательно проверены в возможностях продукта и сценариях применения. Экземпляр EBM второго поколения Volcano Engine, который был официально коммерциализирован в 2022 году, был первым, кто нес самостоятельно разработанный DPU Volcano Engine. Он не только сохраняет преимущества стабильности и безопасности традиционных физических машин и может достигать безопасной физической изоляции, но также обладает преимуществами эластичности и гибкости виртуальных машин. Это новое поколение высокопроизводительных облачных серверов с множеством преимуществ. Экземпляр ECS третьего поколения Volcano Engine, выпущенный в первой половине 2023 года, также объединяет архитектуру новейшего DPU собственной разработки Volcano Engine и собственную технологию виртуального коммутатора и виртуализации, а производительность ввода-вывода сети и хранилища была значительно улучшена.
Сопутствующие товары:
- NVIDIA MMA1Z00-NS400 совместимый модуль оптического приемопередатчика 400G QSFP112 SR4 PAM4 850nm 100m MTP/MPO-12 OM3 FEC $650.00
- QSFP-DD-400G-SR4 QSFP-DD 400G SR4 PAM4 850 нм 100 м MTP/MPO-12 OM4 Модуль оптического приемопередатчика FEC $600.00
- Совместимый с NVIDIA MMA4Z00-NS400 400G OSFP SR4 Flat Top PAM4 850 нм 30 м на OM3/50 м на OM4 MTP/MPO-12 Многомодовый модуль оптического трансивера FEC $650.00
- NVIDIA MMA4Z00-NS-FLT Совместимый двухпортовый OSFP 800 Гбит/с 2x400G SR8 PAM4 850 нм 100 м DOM Двойной модуль оптического трансивера MPO-12 MMF $850.00
- NVIDIA MMA4Z00-NS Совместимый двухпортовый OSFP 800 Гбит/с 2x400G SR8 PAM4 850 нм 100 м DOM Двойной модуль оптического трансивера MPO-12 MMF $750.00
- NVIDIA MMS4X00-NM Совместимый двухпортовый OSFP 800 Гбит/с 2x400G PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Модуль оптического трансивера $1100.00
- Совместимый с NVIDIA MMS4X00-NM-FLT 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Модуль оптического трансивера $1200.00
- Совместимый с NVIDIA MMS4X00-NS400 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Модуль оптического трансивера $800.00
- NVIDIA MCP7Y10-N003, совместимый с двухпортовым OSFP 3G InfiniBand NDR длиной 10 м (800 фута) с 2x400G QSFP112 Breakout ЦАП $275.00
- NVIDIA MCA7J65-N005 Совместимый двухпортовый OSFP 5G длиной 16 м (800 футов) с 2 портами 400G QSFP112 InfiniBand NDR Breakout Active Copper Cable $850.00