Comprendre la puissance du DPU BlueField-3 de NVIDIA

Introduction

Lorsque vous travaillez avec les serveurs H100 SXM de NVIDIA, vous pouvez souvent voir une configuration qui comprend deux unités BFD-3. Cela soulève des questions, d'autant plus que le système est déjà livré avec huit cartes réseau CX-7 400G. Quelles sont les différences fondamentales et les rôles de BFD-3 par rapport à CX-7 ? De plus, pourquoi BFD dispose-t-il d'un port BMC alors que la carte mère du serveur en comprend déjà un ?

DGX H100

Relation logique entre la carte réseau, la carte réseau intelligente et le DPU

Relation logique entre la carte réseau, la carte réseau intelligente et le DPU

Pour comprendre leurs distinctions, comparons les points suivants (points de vue personnels pour référence) :

Relation entre la carte réseau, la carte réseau intelligente et le DPU

Raisons de l'émergence des cartes réseau et des DPU intelligentes

L'ère des cartes réseau traditionnelles

Dans les centres de données traditionnels, le processeur était le cœur absolu. Cependant, à mesure que la loi de Moore devient moins applicable, la croissance de la puissance de calcul du processeur ne peut plus suivre l'explosion des données, ce qui crée un goulot d'étranglement. Il est devenu nécessaire de décharger la charge de travail du processeur sur des adaptateurs réseau (cartes d'interface réseau), ce qui a entraîné le développement rapide des cartes réseau intelligentes.

L'ère des cartes réseau intelligentes (première génération)

La première génération de cartes réseau intelligentes se concentrait principalement sur le déchargement des tâches du plan de données. Parmi les exemples, citons le déchargement matériel OVS Fastpath, le déchargement matériel réseau RDMA basé sur RoCEv1 et v2, le déchargement matériel pour les capacités réseau sans perte (PFC, ECN, ETS), le déchargement matériel NVMe-oF dans le domaine du stockage et le déchargement du plan de données pour une transmission sécurisée.

L'ère des cartes réseau intelligentes DPU (deuxième génération)

Les DPU (Data Processing Units) sont apparues pour répondre à trois problèmes principaux dans les centres de données :

Entre les nœuds : faible efficacité de l’échange de données du serveur et transmission de données peu fiable.

Au sein des nœuds : exécution inefficace du modèle de centre de données, faible efficacité du commutateur d'E/S et architecture de serveur inflexible.

Systèmes de réseau : Réseaux non sécurisés.

Explication simplifiée : pourquoi les DPU sont supérieurs aux cartes réseau intelligentes

NVIDIA définit les cartes réseau intelligentes basées sur DPU comme des cartes d'interface réseau qui déchargent les tâches habituellement gérées par le processeur du système. Grâce à son processeur intégré, une carte réseau intelligente basée sur DPU peut effectuer une combinaison de tâches de chiffrement/déchiffrement, de pare-feu, de TCP/IP et de traitement HTTP. Essentiellement, elle assiste le processeur dans diverses tâches et dispose de son propre processeur pour gérer de manière indépendante les tâches liées à la sécurité du réseau.

Comparaison

Présentation du processeur de données NVIDIA BlueField-3

Processeur de traitement de données NVIDIA BlueField-3

Pour répondre à l'évolution de l'architecture des centres de données induite par la technologie cloud hyperscale, NVIDIA a présenté la série BlueField DPU. Ces nouveaux processeurs sont conçus spécifiquement pour les logiciels d'infrastructure de centres de données, déchargeant et accélérant les charges de travail informatiques massives générées par la virtualisation, la mise en réseau, le stockage, la sécurité et d'autres services d'IA natifs du cloud.

Disposition du système du DPU NVIDIA BlueField-3

BlueField-3 fonctionne comme un « nœud indépendant » intégré au chemin PCIe du serveur :

  1. ARM + OS : peut décharger diverses tâches initialement gérées par le système d'exploitation hôte.
  2. Accélérateurs intégrés : améliorez l'efficacité du traitement, de la sécurité et du stockage des données.
  3. Puce de commutation PCIe : peut être utilisée dans les armoires d'extension SSD NVMe.
  4. Puce BMC : permet une gestion indépendante des ressources de l'hôte d'origine dans un environnement cloud.
processeur dpu nvda bluefield

Le DPU NVIDIA® BlueField®-3 est la plateforme informatique d'infrastructure de troisième génération, qui permet aux entreprises de créer une infrastructure informatique définie par logiciel et accélérée par le matériel, du cloud aux centres de données centraux et aux environnements périphériques. Avec une connectivité réseau Ethernet 400 Gbit/s ou NDR 400 Gbit/s InfiniBand, le DPU BlueField-3 peut décharger, accélérer et isoler les fonctions de réseau, de stockage, de sécurité et de gestion définies par logiciel, améliorant ainsi considérablement les performances, l'efficacité et la sécurité des centres de données.

Exemple d'application de BlueField-3 dans le cloud privé VMware

Exemple d'application de BlueField-3 dans le cloud privé VMware

Feuille de route du processeur NVIDIA

Feuille de route du processeur NVIDIA

En comprenant les capacités et les applications du DPU BlueField-3, les entreprises peuvent exploiter efficacement cette technologie pour répondre aux exigences des centres de données modernes et garantir une infrastructure robuste, évolutive et sécurisée.

Laisser un commentaire

Remonter en haut