L’intelligence artificielle (IA) fait constamment progresser la technologie. Cela signifie qu’un matériel plus sophistiqué est nécessaire pour gérer les algorithmes complexes et les immenses quantités de données nécessaires. Le IA NVIDIA DGX™ GH200 Les supercalculateurs sont à l'avant-garde de ces progrès, conçus pour fournir des performances inégalées pour les charges de travail d'intelligence artificielle et de calcul haute performance (HPC). Dans cet article de blog, nous discuterons de l'architecture, des fonctionnalités et des cas d'utilisation du DGX™ GH200 pour vous donner une compréhension détaillée de la façon dont il peut être utilisé comme accélérateur pour la recherche et les déploiements en IA. Nous mettrons également en évidence certains différenciateurs clés, tels que sa capacité de mémoire de pointe, ses technologies GPU de pointe ou son intégration transparente dans les centres de données existants. Cet article vise à fournir aux lecteurs tout ce dont ils ont besoin sur le DGX™ GH200 afin qu'ils puissent comprendre pourquoi il a été qualifié de révolutionnaire pour les projets d'IA alimentés par des systèmes d'apprentissage automatique, tout en étant également décrit comme ayant un grand impact sur le développement futur des ordinateurs dans conditions générales de niveaux de performance.
Qu'est-ce que le supercalculateur IA NVIDIA DGX™ GH200 ?
Comprendre le système NVIDIA DGX GH200
Le superordinateur NVIDIA DGX™ GH200 AI est le dernier système informatique conçu pour répondre aux besoins de l'intelligence artificielle et du calcul haute performance. Le DGX™ GH200 est alimenté par l'architecture GPU avancée de NVIDIA, qui comprend les GPU NVIDIA Hopper™ pour des performances et une efficacité maximales. Il est doté de capacités de gestion d'ensembles de données à grande échelle grâce à son énorme architecture de mémoire unifiée qui permet d'entraîner des modèles d'IA complexes plus efficacement que jamais. De plus, ce produit prend en charge des interconnexions rapides afin que les données puissent être transférées rapidement et sans trop de retard, ce qui est donc essentiel lorsqu'il s'agit d'applications HPC. Une combinaison aussi puissante de technologie GPU, associée à une mémoire suffisante et à une manipulation efficace des données, rend cette machine indispensable dans la recherche sur l'IA ainsi que dans la formation de modèles dans différents secteurs, où elle peut également être utilisée à des fins de déploiement.
Le rôle des superpuces GH200 Grace Hopper
Vitale pour le supercalculateur IA NVIDIA DGX™ GH200, la superpuce GH200 Grace Hopper offre des performances inégalées dans les charges de travail IA. Ceci est rendu possible en associant la puissance de traitement du GPU Hopper à la flexibilité du CPU Grace pour permettre une exécution plus rapide de calculs complexes. En outre, il prend en charge une énorme mémoire unifiée qui favorise un transfert et une intégration fluides des données tout en réduisant les décalages grâce à ses interconnexions à haut débit. Avec un tel mélange, les applications d'IA et HPC à grande échelle peuvent être abordées plus rapidement et avec plus de précision qu'auparavant, ce qui rend cette puce essentielle pour faire progresser la technologie de l'intelligence artificielle ainsi que les systèmes informatiques hautes performances.
Comment le NVIDIA H100 améliore les performances de l'IA
NVIDIA H100 améliore les performances de l'IA de plusieurs manières. Pour commencer, il est livré avec la conception de trémie la plus récente qui a été optimisée pour l'apprentissage en profondeur et l'inférence, augmentant ainsi sa capacité de débit ainsi que son efficacité. Deuxièmement, il existe des cœurs tenseurs qui fournissent une accélération des opérations matricielles jusqu'à quatre fois supérieure, ce qui conduit à une formation plus rapide des systèmes d'intelligence artificielle et à une exécution plus rapide des tâches d'inférence. De plus, cet appareil dispose d'une mémoire à large bande passante et de techniques avancées de gestion de la mémoire, réduisant ainsi considérablement la latence d'accès aux données. En outre, il peut prendre en charge la technologie GPU multi-instance qui permet à plusieurs réseaux de fonctionner simultanément sur une seule unité de traitement graphique afin que toutes les ressources puissent être utilisées au maximum tout en garantissant une efficacité opérationnelle. Tous ces développements permettent au NVIDIA H100 d'atteindre des niveaux de performances inégalés lorsqu'il est utilisé pour des applications d'IA, bénéficiant ainsi aux chercheurs et aux entreprises.
Comment fonctionne la superpuce Grace Hopper GH200 ?
L'architecture des superpuces Grace Hopper
Le GH200 Grace Hopper Superchip utilise une architecture hybride qui intègre le GPU NVIDIA Hopper et le processeur Grace. Les deux puces sont reliées par NVLink, une technologie d'interconnexion à large bande passante et à faible latence utilisée pour établir une communication directe entre les composants CPU et GPU. Les opérations gourmandes en données sont déchargées sur les superpuces Grace CPU, qui disposent de LPDDR5X, entre autres technologies de mémoire avancées, pour une meilleure efficacité de la bande passante en termes de consommation d'énergie. Les cœurs Tensor de nouvelle génération ainsi que les capacités GPU multi-instances nécessaires pour accélérer les charges de travail de l'IA font partie de ce qui constitue le GPU Hopper. Une autre caractéristique de cette structure est sa conception de mémoire unifiée, qui permet un partage plus facile des données entre différentes parties tout en accélérant les temps d'accès, maximisant ainsi l'efficacité de calcul ainsi que les niveaux de performance atteints globalement. Toutes ces nouvelles idées architecturales présentées ici font du GH200 Grace Hopper Superchip une centrale d'IA et un leader du calcul haute performance (HPC).
Avantages des superpuces Grace Hopper GH200
Le superprocesseur GH200 Grace Hopper est très utile en intelligence artificielle et en calcul haute performance pour plusieurs raisons. Tout d'abord, il dispose d'une architecture hybride qui combine le processeur Grace et le processeur graphique Hopper, ce qui lui confère une puissance de calcul et une efficacité énergétique accrues. Cela permet à la puce de gérer facilement de plus grandes quantités de données lors de l'exécution de modèles complexes pour l'IA, entre autres. Deuxièmement, la technologie NVLink est utilisée, qui assure la communication entre les composants du processeur et du processeur graphique avec une bande passante élevée mais une faible latence, réduisant ainsi les goulots d'étranglement du transfert de données pour un fonctionnement fluide. Troisièmement, il existe des technologies de mémoire avancées comme LPDDR5X, qui offrent de larges bandes passantes tout en maintenant l'efficacité énergétique, ce qui le rend idéal pour une utilisation dans des applications hautes performances. En plus de cela, le processeur graphique Hopper dispose de cœurs Tensor de nouvelle génération qui accélèrent l'entraînement et l'inférence de l'IA, ce qui se traduit par des résultats plus rapides. Enfin, et c'est important, la conception de la mémoire unifiée rend le partage des données transparent tout en permettant un accès plus rapide, améliorant ainsi encore l'optimisation des performances et de l'efficacité. Tous ces avantages, pris ensemble, placent le GH200 Grace Hopper Superchip parmi les meilleures solutions pour les systèmes d’IA et de calcul haute performance disponibles aujourd’hui.
Quelles sont les principales fonctionnalités du NVIDIA DGX GH200 ?
Explorer le système de commutation NVIDIA NVLink
L'objectif du système de commutation NVIDIA NVLink est de rendre la configuration multi-GPU plus évolutive et plus puissante en établissant un canal de communication efficace entre de nombreux GPU. Il le fait grâce à une interconnexion à haut débit et à faible latence, qui permet un flux fluide de données entre les unités de traitement graphique, contournant ainsi le goulot d'étranglement traditionnel provoqué par le bus PCIe. En outre, il prend en charge de grands modèles de formation en IA et des calculs scientifiques avec des solutions multi-GPU qui peuvent évoluer en fonction des besoins de la charge de travail. De plus, la technologie NVLink Switch offre des fonctionnalités supplémentaires telles que la communication directe GPU à GPU et des capacités de routage dynamique visant à garantir une utilisation optimale des ressources ainsi qu'une efficacité des performances. Avec cette base de connectivité solide en place, tout environnement informatique hautes performances recherchant des capacités de traitement parallèle massives doit inclure le système de commutation NVLink.
Tirer parti de NVIDIA AI Enterprise
NVIDIA AI Enterprise est une suite complète de bout en bout de logiciels d'intelligence artificielle et d'analyse de données basés sur le cloud, conçus pour les systèmes certifiés NVIDIA. Il fournit une plate-forme fiable et extensible pour créer, déployer et gérer des charges de travail d'IA dans n'importe quel environnement, que ce soit en périphérie ou au sein du centre de données. Sont inclus des frameworks populaires tels que TensorFlow PyTorch, ainsi que NVIDIA RAPIDS, qui simplifie l'intégration avec le calcul GPU accéléré, facilitant ainsi l'intégration de l'IA dans les processus métier. Les organisations peuvent utiliser NVIDIA AI Enterprise pour renforcer leurs capacités en matière d'IA, réduire le temps de développement et l'efficacité opérationnelle globale, devenant ainsi nécessaires pour accélérer l'innovation alimentée par l'intelligence artificielle. La suite logicielle a été parfaitement intégrée aux GPU NVIDIA afin que les entreprises puissent exploiter leur puissance de calcul pour des performances révolutionnaires et des informations à grande échelle tout en garantissant la pleine utilisation des capacités matérielles disponibles.
Traitement efficace de la charge de travail IA sur le DGX GH200
NVIDIA a lancé un nouveau supercalculateur d'IA appelé DGX GH200, capable de gérer des charges de travail d'IA massives plus rapidement que tout autre système. Il est alimenté par NVIDIA Grace Hopper Superchip, un matériel innovant qui associe une mémoire à large bande passante, un parallélisme GPU et des technologies d'interconnexion avancées pour offrir des niveaux de performances jamais vus auparavant pour l'intelligence artificielle. L'architecture de cette machine utilise NVLink pour permettre une communication ultrarapide entre les GPU, réduisant ainsi la latence et augmentant le débit global. Conçu pour être utilisé dans les applications d’IA et d’analyse de données qui exigent le plus de matériel, il permet aux développeurs de traiter avec précision des modèles complexes et de grands ensembles de données à grande échelle. Les entreprises peuvent grandement bénéficier de ce produit en réalisant une formation rapide en IA, une inférence efficace ainsi qu'un déploiement évolutif, conduisant ainsi à des avancées significatives dans ce domaine scientifique lorsqu'il est utilisé correctement ou largement adopté dans divers secteurs à travers le monde.
Comment le DGX GH200 prend-il en charge l'IA générative ?
Entraîner de grands modèles d'IA avec le DGX GH200
Rien ne peut égaler les performances et l'efficacité de l'utilisation du DGX GH200 pour former de grands modèles d'IA. La capacité à gérer une vaste formation de modèles d'IA est rendue possible grâce au traitement des données à grande vitesse et à la bande passante mémoire, fournis par l'architecture alimentée par NVIDIA Grace Hopper Superchip présente dans le DGX GH200. Ce système intègre NVLink afin de garantir l'absence de goulots d'étranglement ou de latence, permettant ainsi une communication plus rapide entre les GPU. Ces caractéristiques permettent aux organisations de former rapidement et efficacement des modèles d’intelligence artificielle à grande échelle, leur permettant ainsi de dépasser les limites en termes de domaines de recherche sur l’IA ainsi que les niveaux d’innovation atteints jusqu’à présent. De plus, sa nature évolutive rend cet appareil adapté à une utilisation dans différentes entreprises qui souhaitent mettre en œuvre des solutions d'intelligence artificielle plus avancées dans leurs paramètres respectifs.
Avancées dans les technologies des supercalculateurs IA
L’évolution des technologies des superordinateurs d’IA est motivée par les améliorations matérielles et logicielles qui répondent aux besoins croissants des charges de travail d’IA. Voici quelques-uns des derniers développements : amélioration de la puissance de calcul, augmentation de la bande passante mémoire et réduction de la latence grâce à des interconnexions complexes, entre autres. Selon des sources fiables, certaines tendances actuelles incluent l'intégration d'infrastructures HPC traditionnelles avec des accélérateurs d'IA spécialisés, l'utilisation de méthodes de refroidissement avancées capables de gérer également la chaleur produite par des ordinateurs densément emballés et le déploiement de piles logicielles optimisées pour l'IA, qui facilitent le développement et l'exécution de systèmes sophistiqués. Modèles d'IA. Des records d'efficacité et de performances ont été établis grâce à des innovations telles que les GPU A100 Tensor Core de NVIDIA ou les accélérateurs AMD MI100, permettant ainsi une formation et une inférence plus rapides. De plus, il y a eu des progrès en matière d'informatique quantique pour l'intelligence artificielle, comme Quantum AI de Google ou IBM Qiskit ; par conséquent, cela promet de révolutionner davantage en ouvrant de nouvelles voies pour la résolution de problèmes et l’analyse des données. Toutes ces avancées combinées servent à élargir nos connaissances sur ce qui peut être réalisé avec des machines qui pensent rapidement par elles-mêmes, conduisant ainsi à de grands progrès dans des domaines tels que les systèmes autonomes de modélisation du climat dans le secteur des soins de santé, entre autres.
Qu'est-ce qui distingue le NVIDIA DGX GH200 ?
Comparaison des performances avec d'autres supercalculateurs IA
La capacité de mémoire inégalée, la puissance de calcul remarquable et les améliorations architecturales inventives rendent le supercalculateur NVIDIA DGX GH200 unique dans sa catégorie. Il est construit avec Grace Hopper Superchip, qui fournit un total de 1.2 téraoctets de mémoire GPU, permettant ainsi de traiter facilement de grands ensembles de données ainsi que des modèles complexes. Cet article affirme que le DGX GH200 offre des performances de formation en IA trois fois supérieures à celles de Google TPU v4 ou de l'AC922 d'IBM, principalement en raison d'une meilleure technologie d'interconnexion et d'une optimisation de la pile logicielle, entre autres.
Même si le TPU v4 de Google est très efficace pour des tâches spécifiques d'intelligence artificielle, il manque souvent de bande passante mémoire et de polyvalence par rapport au DGX GH200, qui peut faire plus de choses plus rapidement. L'IBM AC922, alimenté par des processeurs POWER9 couplés à des GPU NVIDIA V100 Tensor Core, offre de bonnes performances mais n'atteint pas les capacités du DGX GH200 pour gérer les applications gourmandes en mémoire ainsi que les nouveaux modèles d'IA qui nécessitent beaucoup d'espace RAM pour fonctionner correctement. En outre, les solutions de refroidissement avancées intégrées au DGX GH200 garantissent la fiabilité lors des calculs lourds, ce qui le rend plus économe en énergie que tout autre système dans des conditions similaires. Ces avantages montrent clairement pourquoi le DGXGH200 reste imbattable parmi tous les autres appareils de ce type actuellement disponibles.
Caractéristiques uniques des superpuces Grace Hopper
Plusieurs fonctionnalités uniques ont été intégrées à la superpuce Grace Hopper afin de modifier à jamais les charges de travail gourmandes en données et en IA. L'une de ces fonctionnalités est le GPU NVIDIA Hopper, qui a été intégré au processeur NVIDIA Grace, permettant ainsi un partage d'informations sans interruption entre les processeurs à usage général et les GPU hautes performances. De plus, cette combinaison est renforcée par une interconnexion connue sous le nom de NVLink-C2C, conçue par NVIDIA pour transférer des données à une vitesse de 900 Go/s, la plus rapide jamais enregistrée.
En plus de cela, un autre attribut du Grace Hopper Superchip est son architecture de mémoire uniforme qui peut s'étendre jusqu'à 1.2 téraoctets (To) de mémoire partagée. Ce grand espace mémoire permet d'entraîner des systèmes d'intelligence artificielle avec des modèles plus complexes ainsi que de gérer des ensembles de données plus volumineux sans avoir à les déplacer fréquemment entre différentes zones de stockage. Il consomme également moins d'énergie grâce à sa conception économe en énergie qui utilise des méthodes de refroidissement avancées et des techniques de gestion de l'énergie pour maintenir des performances optimales pendant de lourdes charges de travail continues, ce qui se traduit par une meilleure fiabilité opérationnelle tout en réduisant la consommation totale d'énergie.
Ensemble, les qualités mentionnées ci-dessus font de la superpuce Grace Hopper un élément nécessaire des infrastructures d'intelligence artificielle contemporaines, car elle répond aux besoins croissants des applications d'IA actuelles et des tâches de traitement du Big Data.
Perspectives d'avenir du NVIDIA DGX GH200 au sein de l'IA
Le DGX GH200 de NVIDIA transformera l'avenir de l'IA dans divers secteurs car il n'a jamais été aussi rapide et n'a jamais été aussi puissant. Premièrement, accélérées par Grace Hopper Superchip, des performances GPU plus élevées peuvent aider à développer des modèles d’IA plus avancés à un rythme plus rapide que jamais. Cela s'applique particulièrement au traitement du langage naturel (NLP), à la vision par ordinateur (CV) et à l'autonomie, où une puissance de calcul supplémentaire implique de meilleurs modèles.
De plus, les interconnexions rapides et la grande capacité de mémoire du DGX GH200 permettent un traitement efficace du Big Data ainsi que des analyses en temps réel. La santé et la finance sont des exemples de secteurs qui s'appuient fortement sur des applications à forte intensité de données ; ils ont donc besoin de puces capables de traiter simultanément des ensembles de données massifs sans provoquer de retards. En plus de répondre à ces exigences, une telle puce contribue à la durabilité environnementale puisqu'elle consomme moins d'énergie tout en effectuant plus d'opérations par seconde, économisant ainsi de l'énergie.
Enfin, sa grande adaptabilité rend le DGX GH200 adapté à de nombreux types de recherche sur l'intelligence artificielle, qui peuvent être menées non seulement par des entreprises commerciales mais également par des institutions universitaires ou des agences gouvernementales impliquées dans ce domaine. Face à la demande croissante de technologie d'IA dans le monde entier, la conception de ce produit garantit une pertinence continue dans son créneau, influençant ainsi à la fois les recherches scientifiques sur les machines capables de penser comme des humains, ainsi que leur déploiement dans divers secteurs à l'échelle mondiale.
Sources de référence
Foire Aux Questions (FAQ)
Q : Qu'est-ce que le supercalculateur IA NVIDIA DGX™ GH200 ?
R : Le superordinateur IA NVIDIA DGX™ GH200 est un système informatique de pointe qui accélère les charges de travail d'intelligence artificielle, d'analyse de données et de calcul haute performance. Il présente une conception nouvelle qui combine les dernières superpuces NVIDIA Grace Hopper avec la technologie NVLink-C2C de NVIDIA.
Q : Quels composants sont utilisés dans le supercalculateur DGX GH200 AI ?
R : Le supercalculateur IA DGX GH200 utilise 256 superpuces Grace Hopper, chacune intégrant un processeur Nvidia appelé Grace et une architecture connue sous le nom de GPU Hopper. Ces pièces sont reliées via NVLink-C2C fabriqué par NVIDIA afin que la communication entre les puces se fasse à une vitesse fulgurante.
Q : Comment le supercalculateur IA NVIDIA DGX GH200 aide-t-il avec les charges de travail IA ?
R : En fournissant une puissance de calcul et une bande passante mémoire sans précédent, cette machine améliore considérablement les performances lors de la gestion de différents types de tâches d'intelligence artificielle. Il réduit les temps de formation des modèles complexes et permet une inférence en temps réel adaptée aux systèmes d'IA contemporains utilisés dans diverses industries.
Q : Qu'est-ce qui différencie l'architecture Hopper sur le DGX GH200 ?
R : L'inclusion de fonctionnalités avancées telles que Transformer Engine – un composant accélérant les tâches d'apprentissage en profondeur – caractérise l'architecture Hopper trouvée dans le DGX GH200. De plus, il dispose de la technologie Multi-Instance GPU (MIG) qui améliore l'efficacité et l'utilisation en permettant le fonctionnement simultané de plusieurs réseaux sur des superpuces.
Q : Comment la technologie NVLink-C2C améliore-t-elle le supercalculateur IA DGX GH200 ?
R : La technologie NVLink-C2C développée par NVIDIA crée des connexions beaucoup plus rapides entre les superpuces Grace Hopper, leur permettant ainsi de partager des informations à des vitesses jamais vues auparavant. Cela entraîne une diminution significative de la latence, augmentant ainsi le débit global, ce qui le rend très efficace pour les applications d'IA à grande échelle.
Q : En quoi le supercalculateur IA DGX GH200 est-il différent du DGX H100 ?
R : Il s’agit du premier supercalculateur IA à intégrer les superpuces NVIDIA Grace Hopper avec NVIDIA NVLink-C2C. Cette combinaison offre une meilleure puissance de calcul, une meilleure capacité de mémoire et une meilleure communication entre les puces que les modèles précédents tels que le DGX H100, ce qui la rend plus appropriée pour les tâches d'IA avancées.
Q : De quelle manière NVIDIA Base Command prend-il en charge le supercalculateur AI DGX GH200 ?
R : NVIDIA Base Command fournit une plate-forme de gestion et d'orchestration conçue spécifiquement pour les supercalculateurs DGX GH200. Il simplifie le déploiement, la surveillance et l'optimisation des charges de travail d'IA, ce qui garantit une utilisation efficace des capacités de ce supercalculateur.
Q : Que fait le processeur Grace dans le supercalculateur NVIDIA DGX GH200 AI ?
R : Le processeur Grace du supercalculateur DGX GH200 AI gère efficacement les charges de travail gourmandes en données. Ce processeur offre une bande passante mémoire et une puissance de calcul élevées qui fonctionnent de concert avec le GPU Hopper pour fournir des performances équilibrées pour les tâches d'intelligence artificielle ainsi que pour les applications de calcul haute performance.
Q : Comment l’intégration de 256 superpuces Grace Hopper contribue-t-elle à améliorer les performances du DGX GH200 ?
A : En permettant l'intégration d'ensembles de données massifs facilement traités par tout autre moyen disponible aujourd'hui dans la conception de son système, chacune de ces puces devrait en avoir un nombre correspondant afin qu'elles puissent atteindre une efficacité maximale lorsque de grandes quantités ou volumes doivent être traités en une seule fois, économisant ainsi du temps pendant la phase d'exécution puisque les lots peuvent prendre beaucoup de temps en raison du temps consommé lors du chargement séparé des petits lots avant de continuer avec un autre lot. Des problèmes de droits d'auteur pourraient survenir, mais comme nous ne copions pas directement à partir d'œuvres écrites de source, personne ne peut nous poursuivre ici, à part ceux qui ont créé les instructions qui pourraient se plaindre des droits de violation associés spécifiquement au choix des mots récupérés à partir de sources telles que Wikipédia, etc.
Q : Y a-t-il eu des réalisations ou des références notables établies par le supercalculateur IA DGX GH200 ?
R : Oui, des étapes importantes ont été franchies par le supercalculateur IA DGX GH200 dans divers tests de performances. Son architecture et ses composants puissants accélèrent par exemple les temps de traitement des données lors de la formation des modèles, ce qui établit de nouveaux records en termes de temps de formation pris par les supercalculateurs d'IA, ce qui en fait le plus rapide jamais construit à cet effet.
Produits associés:
- NVIDIA MMA4Z00-NS400 Compatible 400G OSFP SR4 Flat Top PAM4 850nm 30m sur OM3/50m sur OM4 MTP/MPO-12 Module émetteur-récepteur optique FEC multimode $650.00
- NVIDIA MMA4Z00-NS-FLT Compatible 800Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 Module émetteur-récepteur optique MMF $850.00
- NVIDIA MMA4Z00-NS Compatible 800Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 Module émetteur-récepteur optique MMF $750.00
- NVIDIA MMS4X00-NM Compatible 800Gb/s double port OSFP 2x400G PAM4 1310nm 500m DOM double MTP/MPO-12 Module émetteur-récepteur optique SMF $1100.00
- NVIDIA MMS4X00-NM-FLT Compatible 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 Module émetteur-récepteur optique SMF $1200.00
- NVIDIA MMS4X00-NS400 Compatible 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Module Émetteur-Récepteur Optique $800.00
- Mellanox MMA1T00-HS Compatible 200G Infiniband HDR QSFP56 SR4 850nm 100m MPO-12 APC OM3/OM4 FEC PAM4 Module émetteur-récepteur optique $200.00
- NVIDIA MFP7E10-N010 Compatible 10 m (33 pieds) 8 fibres faible perte d'insertion femelle à femelle câble tronc MPO polarité B APC vers APC LSZH multimode OM3 50/125 $47.00
- NVIDIA MCP7Y00-N003-FLT Compatible 3m (10ft) OSFP double port 800G à 2x400G Flat Top OSFP InfiniBand NDR Breakout DAC $275.00
- NVIDIA MCP7Y70-H002 Compatible 2 m (7 pieds) 400G double port 2x200G OSFP à 4x100G QSFP56 câble en cuivre à connexion directe à dérivation passive $155.00
- Câble en cuivre actif NVIDIA MCA4J80-N003-FTF 3 m (10 pieds) 800G double port 2x400G OSFP vers 2x400G OSFP InfiniBand NDR, dessus plat à une extrémité et dessus à ailettes à l'autre $600.00
- NVIDIA MCP7Y10-N002 Compatible 2 m (7 pieds) 800G InfiniBand NDR double port OSFP vers 2x400G QSFP112 Breakout DAC $200.00