En calcul haute performance (HPC), rien n’est plus important qu’un transfert de données efficace et fiable. Infinibande La technologie est connue pour sa large bande passante et ses faibles temps de latence, ce qui la rend idéale pour les clusters et les systèmes rapides utilisant des GPU. Cet article de blog examine ce qui compose Infiniband, comment il peut être bénéfique et où il peut être utilisé. En découvrant ce qu'Infiniband peut faire et comment il fonctionne, les entreprises seront en mesure de faire de meilleurs choix sur la façon dont elles doivent configurer leurs environnements HPC, ce qui entraînera un traitement des données plus rapide et sans aucune interruption.
Qu'est-ce qu'Infiniband et comment ça marche ?

Comprendre la technologie Infiniband
Pour répondre aux besoins des environnements HPC, Infiniband est une technologie de mise en réseau ultra-rapide. Il fonctionne sur une topologie de structure commutée, ce qui permet de créer des chemins de communication efficaces entre les nœuds. L'architecture d'Infiniband comprend des commutateurs qui acheminent les paquets de données et des adaptateurs de canal hôte (HCA) pour connecter les appareils finaux. Grâce à l'accès direct à la mémoire à distance (RDMA), Infiniband permet des transferts directs de mémoire entre les systèmes, minimisant ainsi la latence et réduisant l'implication du processeur. Il peut atteindre des taux de transfert de données allant jusqu'à 200 Gbit/s et une latence aussi faible que 500 nanosecondes, ce qui le rend parfait pour les applications telles que le calcul parallèle ou les charges de travail d'apprentissage automatique où un échange rapide d'informations est nécessaire.
Architecture et spécifications Infiniband
Pour prendre en charge les exigences élevées de transmission de données des environnements HPC, l'architecture Infiniband est spécialement conçue. Il se compose de deux composants principaux : les adaptateurs de canal hôte (HCA) et les commutateurs. Les HCA agissent comme une interface entre les périphériques finaux (par exemple, les serveurs, les systèmes de stockage) et la structure InfiniBand. Ces adaptateurs disposent de capacités RDMA qui permettent un accès direct à la mémoire entre les appareils sans impliquer le processeur, réduisant ainsi considérablement la latence.
Les commutateurs, quant à eux, acheminent les paquets de données à travers le réseau, garantissant ainsi des chemins de communication efficaces avec un délai minimum entre les nœuds. Différentes vitesses de liaison et configurations sont prises en charge par InfiniBand, comme la voie 1x, qui peut être regroupée pour obtenir des bandes passantes plus élevées comme les voies 4x ou même 12x. L'implémentation actuellement utilisée prend en charge des vitesses allant jusqu'à 200 Gbps par port, c'est-à-dire EDR (Enhanced Data Rate) ou HDR (High Data Rate) ; cela fournit un débit suffisant pour les applications très exigeantes, telles que les simulations de dynamique moléculaire, la modélisation météorologique ou l'apprentissage automatique à grande échelle.
De plus, des mécanismes QoS (Qualité de service) qui priorisent le trafic de données critiques tout en maintenant des niveaux de performances prévisibles ont été inclus dans InfiniBand. De plus, l'évolutivité permet des interconnexions non bloquantes entre des milliers de nœuds, permettant ainsi aux réseaux de se développer parallèlement aux capacités de calcul. C’est grâce à ce principe de conception solide qu’InfiniBand peut servir d’infrastructure de base pour les supercalculateurs modernes.
Principales caractéristiques d'Infiniband
- Très rapide et très court terme : Infiniband offre des taux de transfert de données ultra-élevés, actuellement de 200 Gbit/s par port avec HDR, et une communication à faible latence constante. C'est pourquoi il est parfait pour les applications HPC qui nécessitent des échanges de données rapides comme l'analyse en temps réel ou les simulations scientifiques.
- RDMA (Remote Direct Memory Access) : l'une des fonctionnalités les plus frappantes de Infinibande est sa capacité RDMA qui permet un transfert direct de données entre les emplacements mémoire de différents appareils sans intervention du processeur. Cela réduit considérablement la latence et laisse plus de ressources CPU pour d'autres tâches, améliorant ainsi les performances globales du système.
- Évolutivité : Infiniband a été conçu pour une bonne évolutivité : il peut connecter des milliers de nœuds ensemble dans de grands clusters HPC. L'architecture non bloquante garantit que le réseau ne deviendra pas un goulot d'étranglement lors de sa croissance, ce qui permet d'effectuer des calculs à grande échelle et d'exécuter simultanément des applications gourmandes en données.
- Qualité de service (QoS) : des mécanismes QoS sont intégrés dans Infiniband pour contrôler et prioriser le trafic réseau. Cette fonctionnalité devient essentielle lorsqu'il existe des flux critiques qui doivent avoir la priorité sur les autres, garantissant ainsi des niveaux de performances soutenus dans de tels environnements.
- Topologies et configurations flexibles : la structure prend en charge diverses topologies telles que Fat Tree, Mesh ou Torus, permettant ainsi aux réseaux d'être adaptés aux exigences de performances spécifiques ainsi qu'aux besoins d'évolutivité. De plus, la prise en charge de différentes configurations de voies (1x, 4x, 12x) offre la flexibilité nécessaire pour atteindre les bandes passantes souhaitées.
- Fiabilité et tolérance aux pannes : des mécanismes avancés de détection/correction des erreurs sont utilisés dans Infiniband afin que l'intégrité des données puisse être maintenue pendant la transmission tout en garantissant qu'une communication fiable a lieu à tout moment au sein du système, c'est-à-dire que le contrôle de flux au niveau de la liaison couplé au routage adaptatif contribue beaucoup vers une fiabilité élevée, donc des applications critiques applicables.
Comment Infiniband se compare-t-il à Ethernet ?

Infiniband et Ethernet: La bataille pour une faible latence
Lorsque l'on compare Infiniband à Ethernet en termes de faible latence, on observe généralement qu'Infiniband fonctionne mieux qu'Ethernet en raison de sa construction et de sa conception. Parmi les fonctionnalités essentielles d’Infiniband figurent les frais de communication réduits, ce qui entraîne une diminution de la latence. De plus, l'accès direct à la mémoire à distance (RDMA) est pris en charge par cette technologie, permettant ainsi le transfert de données entre ordinateurs directement à partir de la mémoire sans impliquer le processeur, réduisant ainsi les retards et libérant la puissance de traitement.
Au contraire, Ethernet est connu pour avoir une couverture plus large et être moins cher que les autres réseaux, en particulier maintenant avec le Data Center Bridging (DCB) ainsi que le RDMA sur Converged Ethernet (RoCE). Pourtant, même après que ces améliorations ont été apportées, Ethernet affiche toujours des latences généralement plus élevées qu'Infiniband.
Ainsi, pour les applications qui nécessitent une latence ultra-faible et un débit élevé, telles que les simulations complexes ou le calcul haute performance (HPC), InfiniBand serait la plupart du temps préféré.
Infiniband offre une bande passante élevée : comparaison des vitesses et du débit
Infiniband surpasse Ethernet en termes de bande passante et de débit. En fait, Infiniband HDR (High Data Rate) offre des vitesses allant jusqu'à 200 Gbit/s par port, ce qui est bien plus rapide que les 400 Gbit/s les plus avancés ou même les 100 Gbit/s couramment utilisés sur Ethernet. De plus, de nombreuses voies peuvent être agrégées avec Infiniband, de sorte que son efficacité de transfert de données devient élevée en raison de l'évolutivité en fonction des besoins de débit des applications. L'architecture de cette technologie a été conçue dès le départ avec de grandes quantités de traitement à faible latence intégrées, ce qui rend InfiniBand parfaitement adapté aux cas d'utilisation impliquant des volumes massifs d'informations tels que ceux rencontrés dans les clusters HPC et les centres de données hyperscale.
Fiabilité et évolutivité : avantages d'Infiniband sur Ethernet
Comparé à Ethernet, Infiniband est plus fiable et évolutif, ce qui est nécessaire pour prendre en charge le fonctionnement des grands systèmes. Même sur de longues distances, ils disposent de méthodes de détection et de correction des erreurs suffisamment puissantes pour maintenir l’intégrité des données, réduisant ainsi les taux de retransmission et garantissant des performances uniformes. De plus, son fonctionnement est de nature déterministe, ce qui garantit la prévisibilité en termes de latence ; cette fonctionnalité devient importante lorsqu'il s'agit d'applications qui nécessitent des processus étroitement coordonnés.
Toujours dans le même ordre d'idées, les capacités QoS (Qualité de service) trouvées dans Infiniband permettent d'allouer la bande passante de manière déterministe, garantissant ainsi le maintien des performances sur différentes charges de travail avec des exigences variables. Pour pouvoir évoluer correctement, InfiniBand peut prendre en charge efficacement un grand nombre de nœuds, permettant ainsi aux ressources informatiques de croître sans baisse notable des performances. Cela en fait donc le choix le plus approprié pour les environnements tels que les clusters de superordinateurs ou les centres de données d’entreprise où d’énormes quantités d’informations doivent être transférées et traitées fréquemment sur de vastes zones.
Quels sont les avantages des réseaux Infiniband ?

Faible latence et hautes performances
Les réseaux InfiniBand ont la réputation d'être très rapides, c'est pourquoi ils sont connus sous le nom de réseaux à faible latence et hautes performances. Selon les connaisseurs, il a été rapporté qu'InfiniBand pourrait descendre jusqu'à 100 ns de latence, bien moins que ce qu'Ethernet pourrait jamais faire. Cette période de temps très courte garantit l'arrivée rapide des paquets afin que les programmes d'application sensibles à la latence puissent mieux fonctionner.
De plus, InfiniBand peut se targuer d'une prise en charge de débits très élevés : les systèmes actuels offrent jusqu'à 200 gigabits par seconde (Gbps) par connexion. Cette bande passante élevée est nécessaire pour gérer des transferts de données massifs au sein de clusters HPC ou entre centres de données. En comparaison avec Ethernet, qui connaît parfois des latences plus élevées et des débits de données plus faibles, InfiniBand est une solution efficace et robuste pour le calcul haute performance, entre autres applications exigeantes.
Accès direct à la mémoire à distance (RDMA)
Selon des sources fiables, l'accès direct à la mémoire à distance (RDMA) est une fonctionnalité majeure des réseaux Infiniband qui permet le transfert de données entre la mémoire de deux ordinateurs sans utiliser leur système d'exploitation. Cela crée un chemin direct pour les données, ce qui entraîne moins de latence ainsi que de faibles surcharges de processeur. RDMA améliore les performances en permettant une mise en réseau sans copie, c'est-à-dire où les informations passent directement du tampon d'application au réseau au lieu de passer d'abord par le tampon du système d'exploitation comme c'est le cas avec les protocoles réseau traditionnels.
Il semblerait que cette technologie puisse atteindre des latences aussi faibles qu'une microseconde et prendre en charge des transferts de données de plusieurs centaines de gigabits par seconde. Avec de telles vitesses, il devient clair pourquoi le RDMA serait plus utile dans les applications nécessitant une puissance de traitement en temps réel associée à un débit élevé ; par exemple les systèmes de trading financier ou les bases de données distribuées utilisées dans l'analyse de données à grande échelle. Le contournement du noyau est également pris en charge par RDMA, qui permet aux applications de communiquer directement avec le matériel réseau, réduisant ainsi davantage la latence tout en améliorant l'efficacité des transferts de données.
En résumé, l'accès direct à la mémoire à distance (RDMA) offre des bandes passantes élevées, de faibles latences et une utilisation efficace du processeur, se révélant ainsi une technologie essentielle partout où il est nécessaire d'accéder rapidement aux informations ou d'améliorer les performances.
HDR Infiniband et perspectives d'avenir
La prochaine étape dans la technologie de mise en réseau est représentée par HDR (High Data Rate) Infiniband, qui a été conçu pour répondre aux exigences des centres de données et des environnements informatiques hautes performances. Ce système peut atteindre 200 Gbit/s lorsqu'il s'agit de transférer des informations d'un point à un autre, répondant ainsi aux exigences de débits de données plus élevés avec une latence plus faible.
De nombreuses fonctionnalités différencient le HDR Infiniband de ses prédécesseurs. L’un d’eux est qu’il utilise la technologie de silicium de commutation de dernière génération qui améliore l’intégrité du signal et les capacités de correction d’erreurs. Cela rend la transmission de données plus fiable, même sur de longues distances, ce qui la rend adaptée aux systèmes distribués à grande échelle.
Un autre aspect important de HDR Infiniband est son futur rôle d’EDR (Extreme data Rate) et au-delà, favorisant ainsi des simulations complexes, des analyses à grande échelle et des applications en temps réel qui nécessitent une latence ultra-faible. De plus, compte tenu des progrès des charges de travail IA/ML, il y aura un besoin croissant de réseaux dotés de bandes passantes élevées mais de faibles latences comme ceux fournis par HDR Infiniband.
En traitant rapidement d’énormes quantités d’informations, le déploiement de ces réseaux peut accélérer les avancées de la recherche scientifique dans divers domaines, tels que les véhicules autonomes ou la réalité virtuelle, entre autres. En conclusion, cela signifie que HDR InfiniBand offre non seulement une solution aux besoins actuels en matière de réseaux hautes performances, mais indique également une approche tournée vers l’avenir pour soutenir les applications informatiques et de données de nouvelle génération.
Comment Infiniband est-il utilisé dans les centres de données et HPC ?

Infiniband dans le calcul haute performance (HPC)
Les supercalculateurs les plus rapides du monde s'appuient sur Infiniband pour permettre un transfert de données à haut débit entre les nœuds. Cela est nécessaire, entre autres, pour les simulations à grande échelle, la recherche scientifique et l’analyse. Plus important encore, cela permet aux clusters de traiter ces applications plus rapidement que jamais en connectant directement les appareils informatiques d'un système HPC les uns aux autres en créant une architecture informatique parallèle optimisée par le réseau qui élimine les goulots d'étranglement traditionnels associés au stockage partagé ou à l'accès à la mémoire. méthodes, permettant ainsi à chaque nœud d'accéder à ses propres ressources indépendamment des autres.
Intégration d'Infiniband dans les centres de données
Dans les centres de données actuels, l'intégration d'Infiniband augmente les performances et l'évolutivité en fournissant une interconnexion à haut débit essentielle pour les tâches gourmandes en données. Pour une communication rapide entre les serveurs, les systèmes de stockage et autres périphériques réseau en particulier, il est déployé dans cet objectif, rendant ainsi les opérations d'un centre de données plus efficaces. Il possède des fonctionnalités avancées telles que l'accès direct à la mémoire à distance (RDMA), qui réduit la surcharge du processeur, augmentant ainsi la vitesse à laquelle les informations sont transférées. De plus, sa propre conception extensible permet d'augmenter la capacité étape par étape tout en garantissant une productivité continue sur une période prolongée où la demande aurait pu croître plus qu'auparavant dans une telle installation. Ainsi, grâce à l'utilisation de la technologie InfiniBand, il est possible d'obtenir des débits plus élevés dans les centres de données, associés à des latences plus faibles, améliorant ainsi l'efficacité nécessaire à la prise en charge de différentes applications allant du cloud computing à l'analyse du Big Data et à l'apprentissage automatique.
Infiniband pour les clusters GPU et l'IA
Les clusters de GPU et les applications d'IA dépendent d'Infiniband car il peut gérer les exigences de bande passante élevée et de faible latence. À mesure que les modèles d'IA deviennent plus complexes et que les charges de travail des GPU augmentent, les interconnexions Infiniband permettent un partage rapide des données entre les GPU, ce qui accélère les temps de formation et d'inférence. De telles améliorations de performances sont rendues possibles par des fonctionnalités telles que la prise en charge RDMA ou le déchargement matériel qui réduit l'utilisation du processeur et améliore l'efficacité du transfert de données. Avec le déploiement à grande échelle d'InfiniBand pour les systèmes d'IA, les goulots d'étranglement sont minimisés afin que les ressources GPU puissent être utilisées de manière optimale, ce qui conduit à des calculs plus rapides ainsi qu'à une efficacité de mise à l'échelle améliorée des modèles d'intelligence artificielle tout en permettant de traiter rapidement d'énormes quantités de données avec des niveaux de précision plus élevés grâce à cette technologie. Il est ainsi possible de traiter des ensembles de données plus volumineux plus rapidement et avec une plus grande précision. Ainsi, l'utilisation d'Infiniband au sein des clusters de GPU améliore considérablement les capacités de la recherche en IA, allant des algorithmes d'apprentissage profond jusqu'aux analyses prédictives applicables dans divers domaines de la vie.
Quels sont les composants d’un réseau Infiniband ?

Commutateurs et adaptateurs Infiniband
Les commutateurs et adaptateurs InfiniBand sont des composants essentiels des réseaux InfiniBand. Les commutateurs Fabric, également appelés commutateurs Infiniband, sont responsables du transfert des paquets de données via le réseau. Ces commutateurs relient plusieurs appareils entre eux pour permettre une communication et un transfert de données rapides entre eux. Ils ont différents numéros de ports pouvant aller de 8 à 648 ports ; ils interconnectent diverses topologies comme Fat-Tree et Clos nécessaires à la mise à l'échelle efficace de l'infrastructure réseau.
D'autre part, les adaptateurs de canal hôte (HCA), également appelés adaptateurs Infiniband, sont installés sur des périphériques réseau tels que des serveurs ou des systèmes de stockage, permettant leur connexion à une structure InfiniBand. Les HCA facilitent l'accès direct à la mémoire (RDMA) sur Infiniband, ce qui réduit la surcharge du processeur, améliorant ainsi les taux de transfert d'informations. Ils prennent en charge des fonctionnalités importantes telles que QDR (Quad Data Rate) et FDR (Fourteen Data Rate), tous deux nécessaires pour répondre aux exigences de débit élevé et de faible latence dans les centres de données modernes au service des applications.
Ensemble, ces deux types d'appareils constituent la partie principale de tout réseau InfiniBand donné : ils répondent à des objectifs différents mais visent à parvenir à une communication efficace et fiable sur une large gamme d'applications informatiques hautes performances.
Câbles et connecteurs Infiniband
Pour créer un réseau InfiniBand, vous avez besoin de câbles et de connecteurs. Ces deux composants branchent les commutateurs, adaptateurs et autres appareils du réseau. Généralement, ces câbles sont de deux types : en cuivre et en fibre optique. Les câbles en cuivre sont utilisés pour des distances plus courtes car ils sont moins chers et plus faciles à installer que la fibre optique ; SDR (Single Data Rate), DDR (Double Data Rate) et QDR (Quad Data Rate) sont quelques-unes des vitesses prises en charge que les câbles en cuivre peuvent gérer. Pour des distances plus longues ou des exigences de performances plus élevées, il est préférable d'utiliser un câble à fibre optique car il permet une plus grande bande passante avec moins de perte de signal.
Les connecteurs InfiniBand ont un certain nombre de formats standardisés comme QSFP (Quad Small Form-factor Pluggable) qui peut prendre en charge les taux de transfert de données QDR, FDR ainsi que EDR grâce à sa conception haute densité ; ce connecteur est suffisamment polyvalent pour pouvoir être utilisé avec des câbles en cuivre et en fibre optique, ce qui rend la planification du réseau flexible et évolutive.
En conclusion, les câbles infiniband ainsi que leurs connecteurs constituent des éléments cruciaux dans la mise en place d'une infrastructure réseau haute performance solide et adaptable où différentes combinaisons débits/distance peuvent être nécessaires pour une communication efficace au sein d'un réseau.
Configuration des ports et des nœuds
Dans un réseau InfiniBand, la configuration des ports et des nœuds est le processus de configuration et de gestion des ports réseau ainsi que des nœuds en vue d'optimiser les performances et la fiabilité. Un port, dans ce cas, fait référence à l’interface via laquelle un appareil se connecte au réseau ; les commutateurs ou les adaptateurs peuvent avoir de nombreux ports pour prendre en charge plusieurs connexions. À l’inverse, les nœuds sont des appareils ou des systèmes individuels connectés à un réseau, tels que des serveurs et des périphériques de stockage, entre autres.
Configurer les ports implique de leur donner des adresses et de s'assurer qu'ils sont correctement alloués afin que la charge sur les réseaux soit équilibrée. Les commutateurs InfiniBand utilisent des algorithmes avancés pour le mappage des ports et l'optimisation du chemin de données. Cela permet une allocation dynamique qui maximise le débit sur tous les points tout en minimisant les retards dans une section donnée du système.
D'un autre côté, lors de la configuration d'un nœud, il est nécessaire de spécifier certains paramètres réseau tels que les GUID de nœud (Globally Unique Identifiers) ainsi que les politiques pour les gestionnaires de sous-réseau. Le gestionnaire de sous-réseau découvre tous les nœuds dans sa description de topologie de structure, puis configure chacun d'entre eux ainsi que sa ou ses interconnexions. Il effectue la résolution de chemin, entre autres tâches, telles que la surveillance des performances et la gestion des pannes, ce qui garantit un fonctionnement efficace des réseaux en traitant rapidement les problèmes potentiels, où qu'ils puissent survenir.
La configuration des ports et des nœuds doit être effectuée efficacement si l'on veut obtenir une communication à haut débit caractérisée par une faible latence dans les réseaux InfiniBand. Les administrateurs doivent donc planifier soigneusement ces composants tout en les gérant afin que la transmission transparente des données puisse avoir lieu, garantissant ainsi des performances robustes de tels environnements utilisés à des fins de calcul haute performance.
Foire Aux Questions (FAQ)
Q : Qu'est-ce qu'Infiniband et en quoi diffère-t-il des autres technologies réseau ?
R : Principalement utilisé dans les environnements informatiques hautes performances, InfiniBand est une technologie réseau à faible latence et à haut débit. Il offre des taux de transfert de données bien supérieurs à ceux des réseaux Ethernet traditionnels et des latences plus faibles, ce qui le rend utile pour interconnecter des serveurs, des périphériques de stockage et des GPU. Les supercalculateurs utilisent également cette technologie car elle gère efficacement de grandes quantités de données.
Q : Qui gère la spécification Infiniband ?
R : L'InfiniBand Trade Association (IBTA) maintient et développe la spécification InfiniBand. IBTA garantit que les produits de différents fournisseurs peuvent fonctionner ensemble, créant ainsi une large gamme de solutions.
Q : Quels sont les principaux avantages de l’utilisation d’Infiniband pour le transfert de données ?
R : Par rapport à Gigabit Ethernet ou Fibre Channel, qui sont considérées comme des technologies de réseau conventionnelles, une latence plus faible, un débit accru et une meilleure évolutivité font partie des nombreux avantages liés à l'utilisation d'une bande infinie pour le transfert de données. Cela le rend ainsi adapté aux scénarios où un mouvement d'informations rapide et fiable est nécessaire, tels que les centres de données ou les clusters HPC.
Q : Infiniband peut-il être utilisé conjointement avec des réseaux Ethernet ?
R : Oui ; grâce à des passerelles ou des adaptateurs appropriés qui permettent l’intégration entre les deux, les organisations peuvent toujours profiter des vitesses plus élevées offertes par les infinibands tout en conservant intacte leur compatibilité avec les infrastructures Ethernet existantes.
Q : Quels taux de transfert de données Infiniband peut-il prendre en charge ?
R : Avec NDR (Next Data Rate) à 400 Gbit/s (Gigabits par seconde), InfiniBand peut gérer même des applications très exigeantes telles que les charges de travail d'IA ou les simulations scientifiques, qui nécessitent un débit extrêmement élevé.
Q : De quelle manière Infiniband garantit-elle la qualité de service (QoS) destinée aux applications critiques ?
R : Le trafic peut être hiérarchisé et la bande passante peut être allouée par infiniband afin que la QoS soit prise en charge. Cela garantit que les programmes importants disposent de suffisamment de ressources réseau pour fonctionner de manière optimale. Les voies virtuelles et les niveaux de service font partie des fonctionnalités qui contribuent à garantir un transfert de données cohérent et fiable.
Q : Quels sont les composants d'une architecture réseau InfiniBand ?
R : Certains composants présents dans une architecture réseau InfiniBand incluent les adaptateurs de canal hôte (HCA), les adaptateurs de canal cible (TCA), les commutateurs InfiniBand et les adaptateurs réseau, qui forment ensemble une structure commutée utilisée pour interconnecter les serveurs et les périphériques de stockage, permettant ainsi une communication à haut débit. entre eux.
Q : Comment Infiniband atteint-il une latence plus faible par rapport aux autres technologies réseau ?
R : Contrairement aux réseaux Ethernet traditionnels, cette technologie permet d'obtenir une latence plus faible en utilisant une pile de protocoles optimisée ainsi qu'une conception matérielle efficace. Pour ce faire, elle utilise des HCA qui déchargent les tâches de traitement du processeur, réduisant ainsi le temps nécessaire pour déplacer les données sur un réseau, ce qui se traduit par des latences beaucoup plus faibles.
Q : Quelles entreprises proposent des produits et des solutions Infiniband ?
R : Les principaux fournisseurs de ce type d'articles sont NVIDIA (anciennement Mellanox), Intel, ainsi que d'autres entreprises spécialisées dans le calcul haute performance et la technologie des centres de données. Ils proposent des clusters à vitesses variables via différents modèles, tels que des adaptateurs ou des commutateurs, entre autres composants nécessaires à la construction de clusters/interconnexions à haut débit.
Q : Infiniband fonctionne-t-il bien avec la connexion de GPU dans le calcul haute performance ?
R : Oui, il le fait efficacement car ses faibles latences associées à des taux de transfert de données élevés permettent une connexion optimale entre ces deux appareils, rendant ainsi la communication efficace lors de l'exécution de tâches informatiques telles que l'apprentissage en profondeur ou les simulations scientifiques qui nécessitent une telle fonctionnalité.
Produits associés:
-
NVIDIA MMS4X00-NM Compatible 800Gb/s double port OSFP 2x400G PAM4 1310nm 500m DOM double MTP/MPO-12 Module émetteur-récepteur optique SMF $900.00
-
10 m (33 pieds) 12 fibres femelle à femelle MPO Trunk Cable Polarity B LSZH OS2 9/125 Mode unitaire $32.00
-
NVIDIA MMA4Z00-NS Compatible 800Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 Module émetteur-récepteur optique MMF $650.00
-
NVIDIA MFP7E10-N015 Compatible 15 m (49 pieds) 8 fibres faible perte d'insertion femelle à femelle câble tronc MPO polarité B APC vers APC LSZH multimode OM3 50/125 $54.00
-
NVIDIA MCP4Y10-N00A Compatible 0.5 m (1.6 pi) 800G Twin-port 2x400G OSFP vers 2x400G OSFP InfiniBand NDR Passive Direct Attach Copper Cable $105.00
-
NVIDIA MFA7U10-H015 Compatible 15m (49ft) 400G OSFP vers 2x200G QSFP56 câble optique actif à double port HDR $785.00
-
Câble d'attache directe passif NVIDIA MCP7Y60-H001 compatible 1 m (3 pieds) 400G OSFP vers 2x200G QSFP56 $99.00
-
NVIDIA MMS4X00-NM-FLT Compatible 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 Module émetteur-récepteur optique SMF $1199.00
-
NVIDIA MMA4Z00-NS-FLT Compatible 800Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 Module émetteur-récepteur optique MMF $650.00
-
DAC passif InfiniBand NDR compatible NVIDIA MCP4Y10-N00A-FTF 0.5 m (1.6 pi) 800G à deux ports 2x400G OSFP vers 2x400G OSFP, dessus plat à une extrémité et dessus à ailettes à l'autre $105.00
-
Câble en cuivre actif NVIDIA MCA4J80-N003-FTF 3 m (10 pieds) 800G double port 2x400G OSFP vers 2x400G OSFP InfiniBand NDR, dessus plat à une extrémité et dessus à ailettes à l'autre $600.00
-
NVIDIA MMA4Z00-NS400 Compatible 400G OSFP SR4 Flat Top PAM4 850nm 30m sur OM3/50m sur OM4 MTP/MPO-12 Module émetteur-récepteur optique FEC multimode $550.00
-
Carte adaptateur NVIDIA Mellanox MCX75510AAS-NEAT ConnectX-7 InfiniBand/VPI, NDR/400G, OSFP à port unique, PCIe 5.0x 16, support haut $1650.00
-
Carte adaptateur NVIDIA Mellanox MCX653105A-HDAT-SP ConnectX-6 InfiniBand/VPI, HDR/200GbE, QSFP56 à port unique, PCIe3.0/4.0 x16, support haut $1400.00
-
NVIDIA MCP7Y50-N001-FLT Compatible 1m (3ft) 800G InfiniBand NDR Twin-port OSFP à 4x200G Flat Top OSFP Breakout DAC $255.00
-
NVIDIA MCA7J70-N004 Compatible 4m (13ft) 800G InfiniBand NDR Double port OSFP vers 4x200G OSFP Breakout ACC $1100.00
-
NVIDIA MCA7J60-N004 Compatible 4m (13ft) 800G Twin-port OSFP vers 2x400G OSFP InfiniBand NDR Breakout Câble Cuivre Actif $800.00
-
NVIDIA MCP7Y00-N001-FLT Compatible 1m (3ft) OSFP double port 800G à 2x400G Flat Top OSFP InfiniBand NDR Breakout DAC $160.00