Ces dernières années, les serveurs GPU NVIDIA ont joué un rôle important dans le développement et l'amélioration des capacités informatiques. Cet article fournit un aperçu de la manière dont ces serveurs modernes peuvent révolutionner le fonctionnement de diverses industries grâce à leur puissance de calcul de pointe et à leur simplicité d'utilisation. Grâce aux avancées des GPU, l'infrastructure devient moins un goulot d'étranglement qui ne peut pas répondre aux exigences définies par l'IA, l'apprentissage automatique et les applications de big data. Dans ce blog, l'accent sera mis sur les serveurs GPU de NVIDIA : comment ils fonctionnent, quel impact ils ont dans divers secteurs et quelles sont les exigences et le potentiel réel de ces systèmes dans les environnements informatiques actuels.
Ce qui rend GPU NVIDIA Idéal pour Serveur IA Solutions?

Les unités de traitement graphique (GPU) de NVIDIA sont exceptionnelles pour les tâches de travail d'IA en raison de leur structure sophistiquée adaptée à la gestion des tâches parallèles. Avec la présence des cœurs tenseurs, les GPU NVIDIA ont été améliorés pour effectuer des charges de travail d'apprentissage profond et, ainsi, réduire le temps de formation et d'inférence. Un tel parallélisme permet un calcul et une exécution plus rapides d'algorithmes complexes, ce qui est utile dans le cadre de l'IA. De plus, les GPU NVIDIA bénéficient d'une solide compatibilité avec de nombreux frameworks d'IA et langages de programmation, ce qui facilite leur intégration dans des flux de travail d'IA préexistants. Leur évolutivité permet de gérer une charge de travail étendue tout en préservant l'état du système, ce qui les rend adaptés aux besoins croissants en IA dans divers secteurs.
À la découverte de NVIDIA AI Compétences
Les capacités d'IA des applications de NVIDIA peuvent être vues sur de nombreux sites. À plusieurs reprises, il a été mentionné que les cadres d'apprentissage profond et la technologie de calcul accélérée par GPU de NVIDIA sont essentiels pour l'optimisation des tâches d'IA. Ce qu'ils disent, dans l'ensemble, c'est qu'avec les appareils de NVIDIA, on peut tirer parti de l'architecture CUDA, qui permet une optimisation efficace de commutation des processus informatiques, rendant ainsi la formation et l'inférence des modèles d'IA plus efficaces. L'utilisation d'articles en dit long sur la capacité de la boîte à outils TensorRT de NVIDIA à améliorer la vitesse à laquelle les grands neurones réseaux Les processeurs Intel de la NASA sont conçus pour fonctionner après avoir été implémentés sur des GPU de type tenseur et neuronal. De plus, l'IA de la NASA a été vantée non seulement pour son efficacité énergétique, mais aussi pour sa polyvalence, car l'IA de NVIDIA pourrait être utile dans les domaines de la médecine, de l'automobile, etc., offrant ainsi aux industries des possibilités d'intégrer et de développer des solutions basées sur l'IA.
Le rôle de GPU Tensor Core dans le traitement de l'IA
Les étapes de pré-formation et d'inférence des modèles d'apprentissage profond sont grandement accélérées grâce aux GPU Tensor Core. Certains sites Web indiquent qu'avec les cœurs de tenseur GPU, il est possible de mettre en œuvre un calcul de précision mixte où des calculs à virgule flottante 16 et 32 bits sont effectués simultanément pour améliorer le débit des performances. Cette augmentation de l'efficacité se traduit par un délai plus court pour la formation de modèles d'IA suffisamment sophistiqués pour justifier les inférences en temps réel utilisées dans les voitures autonomes ou les technologies de reconnaissance vocale. En outre, les GPU pour cœurs de tenseur permettent à de nombreuses applications d'IA basées sur différents frameworks tels que TensorFlow ou PyTorch d'être intégrées et exécutées sans effort sur des réseaux complexes.
Avantages de l'utilisation Serveurs GPU NVIDIA pour l'IA
Selon les principales sources Internet, les serveurs GPU Nvidia présentent plusieurs avantages lorsqu’ils sont utilisés pour améliorer les applications d’IA. Tout d’abord, ces serveurs sont suffisamment puissants pour offrir des performances de traitement parallèle sans précédent, ce qui se traduit par une formation de modèle plus rapide et des inférences en temps réel, ce qui est important pour déployer l’IA dans des environnements à hautes performances. Ensuite, ces serveurs sont conçus pour être économes en énergie tout en offrant des performances élevées, réduisant ainsi les pertes. Enfin, ils sont largement compatibles avec plusieurs frameworks d’IA, ce qui permet une plus grande flexibilité dans le déploiement et la mise à l’échelle des modèles d’IA dans de nombreux cas d’utilisation. Globalement, ces avantages rendent les serveurs GPU Nvidia nécessaires à l’évolution des systèmes d’IA.
Comment le Nvidia H100 Révolutionner Centre de données Opérations ?

Principales caractéristiques du Nvidia H100
Le NVIDIA H100 semble être un élément déterminant pour les centres de données, c'est le moins que l'on puisse dire. Selon des sources fiables, il aurait adopté l'architecture Hopper, qui est particulièrement développée pour faire face à l'augmentation remarquable du travail de calcul et aux énormes exigences posées par l'IA et le HPC en général. De plus, ce GPU intègre la technologie Transformer Engine, qui augmente le débit d'entraînement et d'inférence tout en réduisant la latence par rapport aux utilisations NVIDIA de Tesla. De plus, le H100 dispose d'une bande passante mémoire considérablement accrue en raison de son utilisation de mémoire à large bande passante (HBM2e), augmentant encore les débits de données et les vitesses de traitement. La prise en charge plus avancée des GPU multi-instances (MIG) améliore considérablement l'efficacité du partitionnement, permettant à davantage de charges de travail de s'exécuter simultanément avec la meilleure allocation des ressources. En raison de ces facteurs, on peut affirmer que le NVIDIA H100 est un composant crucial dans le développement de centres de données modernes - améliorant la complexité, la vitesse et le degré de parallélisme actuels.
Impact sur Centre de données Efficacité
L'intégration du GPU NVIDIA H100 a considérablement accéléré les efforts visant à améliorer l'efficacité des centres de données. Un examen attentif de certaines sources fiables montre qu'il améliore la mesure des performances dans plusieurs aspects essentiels. Pour commencer, l'architecture Hopper du GPU H100 est non seulement connue pour être rentable, mais elle réduit également les coûts opérationnels d'exploitation d'un centre de données tout en garantissant une production maximale - ce qui est particulièrement important pour les centres de données qui gèrent de grandes quantités de processus. En outre, les principaux sites Web technologiques soulignent les avantages de l'intégration de la technologie Transformer Engine, qui permet de traiter les tâches d'IA et de HPC à un rythme élevé tout en augmentant simultanément le débit et la réduction de la latence. Ceci est bien soutenu par les spécifications du GPU, qui possède une mémoire à bande passante élevée (HBM2e) avec une bande passante mémoire supérieure à 1 To/s, permettant le transfert de données et la vitesse de traitement. Un autre aspect important est l'amélioration du GPU multi-instance (MIG), qui permet d'exécuter plusieurs charges de travail en parallèle, augmentant ainsi la flexibilité et la rentabilité. Toutes ces spécifications techniques démontrent que le H100 a le potentiel de changer la façon dont fonctionnent les centres de données en termes d'efficacité et de performances, aidé par les spécifications et les références de performances du H100 en comparaison avec les données techniques les plus fiables disponibles aujourd'hui.
Comparaison Nvidia H100 avec les modèles précédents
En comparant l'architecture du NVIDIA H100 avec celles de ses prédécesseurs, les NVIDIA A100 et V100, les différences les plus marquantes deviennent évidentes. Le A100 fait une première impression surprenante en affichant un développement extrême, comme le suggèrent les analyses effectuées par des sources telles que NVIDIA, AnandTech et Tom's Hardware. Pour commencer, compte tenu des différences entre les architectures, le H100 est basé sur l'architecture Tantum, qui est comparativement plus robuste et avancée que les architectures Ampere du A100 et Volta du V100. Avec 80 milliards de transistors, le H100 éclipse les 100 milliards du A54, repoussant encore les limites des capacités de calcul.
Deuxièmement, l'utilisation de la technologie Transformer Engine sur le H100 a permis aux charges de travail d'IA et d'apprentissage automatique de fonctionner plus rapidement que sur le V100, où elle n'était pas implémentée. De plus, le H100 a surpassé l'A100 dans les lignes de base en passant de la mémoire HBM2e à la HBM3, ce qui améliore la bande passante mémoire du H100 à plus de 1 To et lui permet de réduire la bande passante, surpassant l'A100 1.6 fois.
De plus, le H100 dispose de quatre instances supplémentaires par rapport à la prise en charge de l'A100, ce qui lui permet de prendre en charge jusqu'à 7 instances GPU différentes, conformément à leur prise en charge MIG GPU multi-instance. Ces capacités avancées dans les opérations multifacettes du H100 constituent la base de sa construction visant à une évolution ultérieure. En particulier, les spécifications du H100 revendiquent en effet des améliorations impressionnantes en termes d'efficacité du débit des ressources et de dispositions de mise à l'échelle, ce qui détermine son angle d'approche en tant que GPU de référence des centres de données de la période actuelle.
Pourquoi Choisir NVIDIA RTX pour Graphique Des charges de travail ?

LUMIÈRE SUR NOS NVIDIA RTX Technologie
Selon NVIDIA, la nouvelle technologie RTX est devenue une solution révolutionnaire pour toute charge de travail graphique, car le principe de mise au point s'accompagne de fonctions de traçage de rayons, d'ombrage programmable et d'apprentissage de l'IA. Le principal avantage de l'utilisation du GPU RTX est qu'il permet de simuler l'aspect physique de la lumière, d'améliorer la qualité de l'image et d'améliorer les effets du rendu graphique. La technologie utilise des cœurs RT, qui font partie du parcours graphique et accélèrent les fonctions de traçage de rayons pour l'éclairage, les ombres et les reflets. De plus, des capacités d'IA telles que NVIDIA DLSS ou Deep Learning Super Sampling, qui augmentent les fréquences d'images tout en maintenant la qualité graphique, sont également incluses via les cœurs Tensor. Toutes ces fonctionnalités NVIDIA RTX font de la technologie l'une des meilleures pour les charges de travail exigeantes en puissance, rapides et qui ont de l'espace pour s'étendre. La technologie RTX joue un rôle central dans divers secteurs tels que le jeu, la réalisation de films, la réalité virtuelle et la visualisation architecturale, permettant à l'utilisateur d'obtenir un meilleur rendu visuel tout en consommant moins de ressources.
Applications dans Graphiques professionnels
La technologie NVIDIA RTX est utilisée dans diverses applications graphiques professionnelles, intégrant les cartes graphiques NVIDIA. Dans la visualisation architecturale, les systèmes RTX DGX dotés de la technologie NVIDIA RTX permettent aux architectes de créer des scènes photoréalistes avec un éclairage et des reflets précis pour les décisions futures et les réunions avec les clients. Pour le cinéma et l'animation, la technologie RTX raccourcit considérablement le pipeline de rendu, permettant d'effectuer des modifications à la volée ainsi que des modifications rapides tout en conservant une qualité visuelle acceptable. Les développeurs de jeux peuvent également exploiter la puissance des GPU RTX pour créer des environnements réalistes avec un éclairage et des effets appropriés pour améliorer l'engagement grâce à une narration améliorée. De plus, dans la réalité virtuelle, de nombreuses applications et interactions gourmandes en graphiques peuvent fonctionner sans problème avec la technologie RTX, réduisant ainsi le décalage et augmentant les performances. NVIDIA RTX s'est ainsi avéré être un atout inestimable pour les professionnels du graphisme qui souhaitent explorer de nouveaux sommets d'innovation graphique.
Performance de NVIDIA RTX en traitement graphique
Les cartes graphiques NVIDIA RTX sont censées révolutionner l'industrie graphique informatique avec des performances améliorées obtenues via des fonctionnalités d'IA, le traçage de rayons en temps réel et l'ombrage programmable. À cet égard, de nombreux sites Web parmi les meilleurs du moment recommandent le service en raison de sa capacité à exécuter plusieurs processus complexes simultanément avec une efficacité et une précision relativement élevées. L'utilisation du Raytracing nous permet d'obtenir des ombres et des reflets de lumière réalistes, ce qui peut modifier le degré de réalisme des graphiques rendus. D'autres fonctionnalités, telles que DLSS, ont également tendance à contribuer à l'augmentation de la fréquence d'images et de la qualité de l'image sans impact significatif sur la configuration système requise, améliorant ainsi les performances sur de nombreuses plates-formes. De plus, les cœurs RT de deuxième génération et Tensor de troisième génération améliorent considérablement la puissance de traitement intégrée aux cartes graphiques NVIDIA et facilitent l'exécution de ces opérations graphiques. Ainsi, on peut affirmer sans risque que NVIDIA RTX est une technologie adaptée à tout besoin graphique intensif, en particulier dans les jeux, le cinéma et la conception, car elle apporte de nombreuses nouvelles possibilités et une productivité accrue grâce à l'application de la technologie NVIDIA Ampere.
Quels sont les avantages de Plans de serveur GPU avec NVIDIA?

Explorer GPU dédié Options du serveur
Les serveurs GPU dédiés équipés de la technologie NVIDIA sont un atout majeur pour les charges de travail informatiques hautes performances. Les principales sources actuelles montrent clairement que ces serveurs dédiés sont conçus pour travailler avec des charges lourdes telles que l'apprentissage automatique, la modélisation scientifique et les données en temps réel. La flexibilité dans la distribution des ressources contribue notamment à réduire les coûts tandis que l'efficacité des ressources est mesurée à l'aide d'architectures massivement parallèles de processeurs graphiques NVIDIA. D'autres avantages, tels qu'une sécurité renforcée, une tolérance aux pannes accrue, des possibilités d'extension et des capacités de gestion, augmentent également l'attrait global de ces serveurs, en particulier pour les entreprises qui ont besoin de solutions de traitement de données hautes performances et haute capacité. C'est pour le rendu de graphiques complexes ou l'accélération du rendu des applications d'IA que les plans de serveurs GPU dédiés sont conçus pour améliorer les performances de calcul sans associer la latence à la lenteur lors des tâches de calcul.
Comment Plans de serveur GPU Améliorer l'évolutivité
Les plans de serveur GPU ont élevé les limites de l'évolutivité en intégrant une gestion flexible des ressources qui permet à l'utilisation des ressources informatiques de croître en fonction de la demande. Cette capacité garantit que les ressources peuvent être augmentées pour gérer les charges de traitement de pointe ou minimisées pour économiser de l'argent, permettant ainsi un niveau constant de performances implémentées sans avoir besoin de prévoir et de surprovisionner les installations. De plus, grâce à la technologie GPU de NVIDIA, ces plans de serveur permettent également une latence élevée et faible, offrant une compatibilité opérationnelle sur différentes plages spatiales, telles que des modèles d'apprentissage profond ou des analyses de données sophistiquées. Les frontières géopolitiques de l'évolutivité ont été repoussées par l'intégration basée sur le cloud, qui permet la virtualisation des ressources et la mise à l'échelle au niveau de la demande d'utilisation, ce qui rend les infrastructures évolutives encore plus efficaces en termes d'adaptabilité et de temps que de coût. Ces technologies et méthodologies avancées sont synthétisées dans les plans de serveur GPU, permettant d'offrir une grande flexibilité et un contrôle, dont les environnements informatiques contemporains en constante évolution ont besoin.
Rentabilité de Serveurs GPU NVIDIA
Les entreprises qui adoptent des serveurs GPU NVIDIA peuvent profiter des avantages d'un calcul accéléré tout en réduisant les coûts d'exploitation. Selon les meilleurs experts du domaine, ces serveurs sont efficaces en termes d'énergie utilisée et de matériel nécessaire, car ils offrent des performances très élevées même avec une infrastructure très réduite. L'économie d'échelle est obtenue grâce à l'architecture virtualisée, qui limite le nombre de serveurs physiques qu'une entreprise doit gérer, réduisant ainsi les frais d'investissement et d'exploitation, y compris le refroidissement et l'espace. De plus, comme la technologie développée par les GPU NVIDIA peut exploiter plusieurs tâches simultanément, l'efficacité sera garantie. D'autres autorités ont indiqué que la transition vers des serveurs optimisés par GPU, en particulier des serveurs utilisant la technologie NVIDIA GeForce GTX, est une approche durable qui, à son tour, peut soutenir la croissance future avec un faible investissement dans les nouvelles technologies. En résumé, les serveurs GPU NVIDIA constituent un investissement judicieux pour les entreprises qui se concentrent à la fois sur les performances et sur l'investissement global dans la stratégie des technologies de l'information.
Notre processus NVIDIA Quadro Les solutions améliorent HPC Performance?

Les principales caractéristiques de NVIDIA Quadro pour CHP
Les modèles NVIDIA Quadro améliorent la productivité du calcul haute performance (HPC) grâce à plusieurs éléments clés, dont la prise en charge de l'architecture NVIDIA Tesla. Tout d'abord, la gamme de GPU Quadro permet de traiter en parallèle des données. Cela signifie que les calculs complexes, qui sont leur marque de fabrique dans les tâches HPC, peuvent être réalisés de manière assez efficace. Ensuite, la capacité de mémoire et de bande passante est améliorée, ce qui est toujours essentiel pour stocker de grands ensembles de données et accélérer les opérations d'entreposage de données. Un autre avantage important de NVIDIA Quadro est sa capacité à produire des graphiques de haute qualité, en particulier pour le rendu multitudinaire nécessaire aux applications de visualisation scientifique et technique. De plus, ces GPU sont également stables et fiables ; ils devraient donc fonctionner correctement dans la plupart des environnements informatiques. Enfin, les solutions Quadro sont destinées à être intégrées à une variété d'applications HPC et, par conséquent, à compléter diverses activités. De telles capacités permettent aux institutions d'exploiter plus efficacement les ressources HPC en termes de performances de calcul et d'évolutivité.
Intégration avec HPC placement
L'utilisation de NVIDIA Quadro dans les systèmes de calcul haute performance rend les systèmes plus efficaces et évolutifs en raison de l'équilibre entre le matériel et les logiciels. Les GPU Quadro sont développés pour se connecter efficacement aux infrastructures HPC actuelles telles que la structure Infiniband et les systèmes de fichiers parallèles afin d'augmenter la bande passante d'échange de données tout en réduisant la latence. Ces GPU NVIDIA améliorent le développement et l'exécution du code en fournissant CUDA et différents écosystèmes logiciels NVIDIA conformes aux procédures de calcul haute performance habituelles. Ce type d'intégration garantit une utilisation optimale des ressources et une mise à l'échelle des ressources informatiques à la demande en fonction de l'évolution des besoins du projet. Par conséquent, les institutions peuvent être très efficaces dans l'exécution des tâches liées au traitement de modèles scientifiques ou d'ingénierie à une grande vitesse, ce qui leur permet de mener plus facilement des recherches et des innovations.
Avantages de l'utilisation NVIDIA Quadro en calcul haute performance
En matière de calcul haute performance, les solutions NVIDIA Quadro présentent plusieurs avantages. Tout d’abord, elles doivent atteindre des niveaux élevés de performance et de précision, qui sont essentiels pour travailler avec des mathématiques et une physique complexes. La conception des GPU Quadro a été axée sur le calcul parallèle, réduisant efficacement le temps de calcul et améliorant l’efficacité du travail. En outre, ils améliorent l’efficacité opérationnelle en facilitant l’intégration du flux de travail avec divers logiciels HPC, ce qui permet des performances GPU plus rapides dans le centre de données. La capacité de pointe des applications d’IA et de ML offre aux chercheurs la possibilité d’appliquer des modèles qui craignent le big data, et ces modèles rendent la charge de travail très gérable. De plus, les GPU Quadro ont un niveau élevé de tolérance aux pannes, ce qui réduit les pannes et garantit le fonctionnement des entreprises matérielles dans des conditions de surcharge. Ensemble, ces fonctionnalités garantissent aux clients les meilleures performances et capacités dans leurs applications HPC.
Sources de référence
Foire Aux Questions (FAQ)

Q : Quels avantages informatiques découlent de l’utilisation de serveurs équipés de GPU NVIDIA ?
R : Les serveurs GPU NVIDIA offrent des avantages notables pour le calcul avancé, tels que des performances accrues pour les applications d'apprentissage profond et d'IA, une puissance de traitement accrue et la capacité d'effectuer des calculs complexes. Ces serveurs utilisent le GPU pour traiter un volume élevé et une vitesse élevée de données et sont adaptés aux opérations gourmandes en données.
Q : Comment les cartes graphiques GeForce augmentent-elles le traitement graphique en ajoutant la série NVIDIA GeForce RTX ?
R : La série de cartes graphiques NVIDIA GeForce RTX inclut le ray tracing et le rendu graphique intégré à l'IA, qui améliorent le traitement graphique en créant des environnements en temps réel avec des reflets, des ombres et des lumières réalistes. Cette série améliore également l'expérience de jeu et d'autres applications graphiques professionnelles grâce à la puissante technologie GPU qui y est intégrée.
Q : Dans quelles applications la carte graphique NVIDIA RTX A6000 pour charges de travail professionnelles peut-elle être utilisée ?
R : La carte graphique A6000 RTX de NVIDIA dispose d'un nombre considérable d'unités de traitement graphique NVIDIA et d'une capacité de mémoire élevée, ce qui la rend idéale pour les charges de travail professionnelles. Elle est idéale pour les secteurs tels que les médias, l'architecture et le divertissement qui nécessitent de la vitesse avec le développement et le rendu de l'IA ainsi que des graphiques très puissants grâce à NVIDIA Amp, qui offre une variété de fonctionnalités.
Q : Dans quels aspects le PCIe 40 Go du NVIDIA L48 améliore-t-il les performances des charges de travail pilotées par les données ?
R : L'augmentation de la mémoire et la puissance de traitement efficace rendent le modèle NVIDIA L40s 48 Go PCIe adapté aux charges de travail impliquant de grands ensembles de données, l'apprentissage en profondeur, l'analyse de données, la simulation scientifique, etc.
Q : Pourquoi la technologie NVIDIA Virtual GPU (vGPU) est-elle indispensable dans les environnements informatiques actuels ?
R : La virtualisation s'est imposée comme une force dans l'économie actuelle, et la technologie NVIDIA Virtual GPU (vGPU) est un élément clé pour parvenir à une véritable virtualisation. Vgpu résout le problème de la mise à l'échelle des lames HP, permettant ainsi d'utiliser plusieurs serveurs dans un environnement d'entreprise. Cette technologie est indispensable pour les postes de travail virtuels, les solutions basées sur le cloud et les applications virtualisées.
Q : Quels avantages la carte NVIDIA Quadro RTX 4000 offre-t-elle aux leaders créatifs dans leurs tâches ?
A : Des performances optimisées grâce au rendu avancé et au calcul visuel. La carte graphique NVIDIA Quadro RTX 4000 prend en charge suffisamment de cartes graphiques pour exécuter plusieurs écrans à sortie multiple et est suffisamment polyvalente pour être utilisée avec les jeux vidéo, les animations et même plusieurs secteurs professionnels.
Q : De quelles manières un VPS GPU alimenté par NVIDIA sera-t-il bénéfique pour permettre le cloud computing ?
R : Les charges de travail importantes peuvent fonctionner de manière accélérée lorsqu'elles sont assistées par des serveurs graphiques NVIDIA grâce à l'utilisation d'un VPS GPU. Cela présente une valeur considérable dans l'IA, les graphiques et d'autres applications qui nécessitent un calcul rapide pour réussir.
Q : En quoi la carte NVIDIA H100 NVL 94 Go est-elle plus adaptée à la recherche en IA que toutes les autres options proposées ?
R : Ce dispositif peut faciliter de nombreuses sessions et calculs car il offre d'importantes ressources mémoire et une architecture GPU puissante nécessaire au calcul parallèle. Cela renforce le potentiel d'expansion de la R&D dans les domaines d'IA utilisables.
Q : Parmi tous les produits NVIDIA, quels sont les GPU A16 et A2, quelle est leur durée de vie et dans quels pays ?
R : Alors que la plupart des cartes graphiques NVIDIA possèdent des domaines d'expertise dans leur gamme, les GPU A16 et A2 cherchent à s'étendre dans le reste. L'A16 vise les bureaux virtuels pouvant accueillir de nombreux utilisateurs avec des caractéristiques VDI, tandis que l'A2 s'adresse aux utilisateurs d'IA d'entrée de gamme.
Q : Dans quelle mesure le concept de GPU universel est-il avantageux pour les centres de données utilisant la technologie NVIDIA ?
R : Le concept de GPU universel aide les centres de données à disposer d'une architecture GPU plus ajustable et plus élastique, leur permettant de s'attaquer à différentes tâches allant de l'IA aux graphiques. En utilisant la technologie Nvidia, il permet aux centres de données d'améliorer leur infrastructure, de réduire les dépenses et d'exécuter une gamme de programmes à l'aide d'une plate-forme GPU universelle.