A inteligência artificial (IA) está em constante avanço tecnológico. Isso significa que é necessário hardware mais sofisticado para lidar com os algoritmos complexos e as imensas quantidades de dados necessários. O IA NVIDIA DGX™ GH200 O supercomputador está na vanguarda desse progresso, construído para fornecer desempenho incomparável para cargas de trabalho de inteligência artificial e computação de alto desempenho (HPC). Nesta postagem do blog, discutiremos a arquitetura, os recursos e os casos de uso do DGX™ GH200 para fornecer uma compreensão detalhada de como ele pode ser usado como um acelerador para pesquisas e implantações de IA. Também destacaremos alguns diferenciais importantes, como a capacidade de memória líder do setor, tecnologias de GPU de última geração ou integração perfeita em data centers existentes. Este artigo tem como objetivo fornecer aos leitores tudo o que precisam sobre o DGX™ GH200 para que possam ver por que ele tem sido referido como revolucionário para projetos de IA alimentados por sistemas de aprendizado de máquina, ao mesmo tempo que é descrito como tendo um grande impacto no desenvolvimento futuro dos computadores em termos gerais dos níveis de desempenho.
O que é o supercomputador NVIDIA DGX™ GH200 AI?

Compreendendo o sistema NVIDIA DGX GH200
O supercomputador NVIDIA DGX™ GH200 AI é o mais recente sistema de computação desenvolvido para atender às necessidades de inteligência artificial e computação de alto desempenho. O DGX™ GH200 é equipado com a avançada arquitetura de GPU da NVIDIA, que inclui as GPUs NVIDIA Hopper™ para máximo desempenho e eficiência. Ele vem com recursos de manipulação de conjuntos de dados em grande escala graças à sua enorme arquitetura de memória unificada que possibilita que modelos complexos de IA sejam treinados de forma mais eficaz do que nunca. Além disso, este produto suporta interconexões rápidas para que os dados possam ser transferidos rapidamente e sem muita demora, o que é fundamental ao lidar com aplicações HPC. Uma combinação tão poderosa de tecnologia GPU, juntamente com ampla memória e manipulação eficiente de dados, torna esta máquina indispensável na pesquisa de IA, bem como no treinamento de modelos em diferentes setores, onde também pode ser usada para fins de implantação.
O papel dos superchips GH200 Grace Hopper
Vital para o supercomputador de IA NVIDIA DGX™ GH200, o superchip GH200 Grace Hopper oferece desempenho incomparável em cargas de trabalho de IA. Isso é possível combinando o poder de processamento da GPU Hopper com a flexibilidade da CPU Grace para permitir uma execução mais rápida de cálculos complicados. Além disso, suporta uma enorme memória unificada que promove transferência e integração suaves de dados, ao mesmo tempo que reduz atrasos através das suas interconexões de alta velocidade. Com essa combinação, aplicações de IA e HPC em grande escala podem ser abordadas com mais rapidez e precisão do que antes, tornando este chip vital para impulsionar a tecnologia de inteligência artificial, bem como sistemas de computação de alto desempenho.
Como o NVIDIA H100 melhora o desempenho da IA
NVIDIA H100 melhora o desempenho da IA de várias maneiras. Para começar, ele vem com o design de funil mais recente que foi otimizado para aprendizado profundo e inferência, aumentando assim sua capacidade de rendimento e também eficiência. Em segundo lugar, existem núcleos tensores que fornecem até quatro vezes mais aceleração de operação de matriz, levando a um treinamento mais rápido de sistemas de inteligência artificial e a um desempenho mais rápido de tarefas de inferência. Além disso, este dispositivo possui memória de alta largura de banda e técnicas avançadas de gerenciamento de memória, reduzindo significativamente a latência de acesso aos dados. Além disso, ele pode suportar a tecnologia GPU de múltiplas instâncias, que permite que várias redes sejam executadas ao mesmo tempo em uma unidade de processamento gráfico, para que todos os recursos possam ser utilizados ao máximo e, ao mesmo tempo, atingir a eficiência operacional. Todos esses desenvolvimentos fazem com que o NVIDIA H100 atinja níveis incomparáveis de desempenho quando usado para aplicações de IA, beneficiando assim pesquisadores e empresas.
Como funciona o superchip GH200 Grace Hopper?

A arquitetura dos superchips Grace Hopper
O GH200 Grace Hopper Superchip usa uma arquitetura híbrida que incorpora NVIDIA Hopper GPU e Grace CPU. Os dois chips são unidos por meio do NVLink, que é uma tecnologia de interconexão de alta largura de banda e baixa latência usada para estabelecer comunicação direta entre os componentes da CPU e da GPU. As operações intensivas em dados são descarregadas para os super chips Grace CPU, que apresentam LPDDR5X, entre outras tecnologias de memória avançadas, para melhor eficiência de largura de banda em termos de consumo de energia. Os Tensor Cores de última geração, bem como os recursos de GPU de várias instâncias necessários para acelerar as cargas de trabalho de IA, são parte do que compõe a Hopper GPU. Outra coisa sobre essa estrutura é seu design de memória unificada, que permite um compartilhamento mais fácil de dados entre diferentes partes, ao mesmo tempo em que acelera os tempos de acesso, maximizando assim a eficiência computacional juntamente com os níveis de desempenho alcançados em geral. Todas essas novas ideias arquitetônicas apresentadas aqui fazem do GH200 Grace Hopper Superchip uma potência de IA e um líder em computação de alto desempenho (HPC).
Benefícios dos Superchips GH200 Grace Hopper
O GH200 Grace Hopper Superchip é muito útil em inteligência artificial e computação de alto desempenho por vários motivos. Primeiro, ele tem uma arquitetura híbrida que combina a CPU Grace e a GPU Hopper, dando a ele mais poder computacional e eficiência energética. Isso permite que o chip manipule grandes quantidades de dados facilmente ao executar modelos complicados para IA, entre outras coisas. Segundo, a tecnologia NVLink é usada, o que garante a comunicação entre os componentes da CPU e da GPU com alta largura de banda, mas baixa latência, reduzindo assim os gargalos de transferência de dados para uma operação suave. Terceiro, existem tecnologias de memória avançadas como LPDDR5X, que oferecem grandes larguras de banda, mantendo a eficiência energética, tornando-a ideal para uso em aplicativos de alto desempenho. Além disso, a GPU Hopper tem Tensor Cores de última geração que aceleram o treinamento de IA e a inferência, resultando em resultados mais rápidos. Finalmente, mas importante, o design de memória unificado torna o compartilhamento de dados perfeito, ao mesmo tempo em que permite acesso mais rápido, melhorando ainda mais o desempenho e a otimização da eficiência. Todas essas vantagens, juntas, colocam o GH200 Grace Hopper Superchip entre as melhores soluções para sistemas de IA e computação de alto desempenho disponíveis hoje.
Quais são os principais recursos do NVIDIA DGX GH200?

Explorando o sistema de switch NVIDIA NVLink
O objetivo do NVIDIA NVLink Switch System é tornar a configuração multi-GPU mais escalonável e poderosa, estabelecendo um canal de comunicação eficiente entre muitas GPUs. Isso é feito por meio de uma interconexão de alta velocidade e baixa latência, que permite um fluxo suave de dados entre unidades de processamento gráfico, contornando assim o tradicional gargalo causado pelo barramento PCIe. Além disso, suporta grandes modelos de treinamento de IA e cálculos científicos com soluções multi-GPU que podem ser dimensionadas de acordo com as necessidades da carga de trabalho. Além disso, a tecnologia NVLink Switch oferece recursos adicionais, como comunicação direta de GPU para GPU e recursos de roteamento dinâmico destinados a garantir o uso ideal de recursos, bem como a eficácia do desempenho. Com esta forte base de conectividade implementada, qualquer ambiente de computação de alto desempenho que busque capacidades massivas de processamento paralelo deve incluir o NVLink Switch System.
Aproveitando a NVIDIA AI Enterprise
NVIDIA AI Enterprise é um conjunto completo e abrangente de software de inteligência artificial e análise de dados baseado em nuvem, projetado para sistemas certificados pela NVIDIA. Ele fornece uma plataforma confiável e expansível para criar, implantar e gerenciar cargas de trabalho de IA em qualquer ambiente, seja na borda ou no data center. Estão incluídas estruturas populares como TensorFlow PyTorch, bem como NVIDIA RAPIDS, que simplifica a integração com a computação acelerada de GPU, facilitando assim a integração da IA nos processos de negócios. As organizações podem usar a IA empresarial da NVIDIA para fortalecer suas capacidades em IA, reduzir o tempo de desenvolvimento e a eficiência operacional geral, tornando-se assim necessário para acelerar a inovação alimentada pela inteligência artificial. O conjunto de software foi perfeitamente integrado às GPUs NVIDIA para que as empresas possam aproveitar seu poder computacional para obter desempenho inovador e insights em escala, garantindo ao mesmo tempo a utilização total dos recursos de hardware disponíveis.
Processamento eficiente de carga de trabalho de IA no DGX GH200
A NVIDIA lançou um novo supercomputador de IA chamado DGX GH200, que é capaz de lidar com cargas de trabalho massivas de IA mais rápido do que qualquer outro sistema. Ele é equipado com o NVIDIA Grace Hopper Superchip, uma peça de hardware inovadora que reúne memória de alta largura de banda, paralelismo de GPU e tecnologias avançadas de interconexão para oferecer níveis de desempenho nunca antes vistos para inteligência artificial. A arquitetura desta máquina usa NVLink para permitir comunicação ultrarrápida entre GPUs, reduzindo assim a latência e aumentando o rendimento geral. Projetado para uso em aplicativos de IA e análise de dados que exigem o máximo de hardware, ele permite que os desenvolvedores lidem com modelos complicados e grandes conjuntos de dados em escala com precisão. As empresas podem beneficiar enormemente deste produto, conseguindo formação rápida em IA, inferência eficiente, bem como implementação escalável, conduzindo assim a avanços significativos nesta área da ciência quando utilizado corretamente ou amplamente adotado em vários setores em todo o mundo.
Como o DGX GH200 suporta IA generativa?

Treinando grandes modelos de IA com o DGX GH200
Nada se compara ao desempenho e à eficiência do uso do DGX GH200 para treinar grandes modelos de IA. Ser capaz de lidar com um vasto treinamento de modelos de IA é possível graças ao processamento de dados de alta velocidade e largura de banda de memória, que é fornecida pela arquitetura NVIDIA Grace Hopper Superchip presente no DGX GH200. Este sistema possui NVLink integrado para garantir que não haja gargalos ou latência, proporcionando assim uma comunicação mais rápida entre GPUs. Estas características permitem às organizações treinar modelos de inteligência artificial em grande escala de forma rápida e eficaz, permitindo-lhes assim ir além dos limites em termos de áreas de investigação em IA, bem como dos níveis de inovação alcançados até agora. Além disso, a sua natureza escalável torna este dispositivo adequado para utilização em diferentes empresas que pretendam soluções de inteligência artificial mais avançadas implementadas nas suas respetivas configurações.
Avanços nas tecnologias de supercomputadores de IA
A evolução das tecnologias de supercomputadores de IA é impulsionada por melhorias em hardware e software que atendem às necessidades crescentes das cargas de trabalho de IA. A seguir estão alguns dos desenvolvimentos mais recentes: melhoria do poder de computação, aumento da largura de banda da memória e redução da latência por meio de interconexões complexas, entre outros. De acordo com fontes confiáveis, algumas tendências atuais incluem a incorporação de infraestruturas tradicionais de HPC com aceleradores de IA especializados, o uso de métodos avançados de resfriamento capazes de lidar também com o calor produzido por computadores densamente compactados e a implantação de pilhas de software otimizadas para IA, que facilitam o desenvolvimento e a execução de softwares sofisticados. Modelos de IA. Os recordes de eficiência e desempenho foram estabelecidos por inovações como as GPUs A100 Tensor Core da NVIDIA ou os aceleradores AMD MI100, permitindo também treinamento e inferência mais rápidos. Além disso, houve avanços na computação quântica para inteligência artificial, como Quantum AI do Google ou IBM Qiskit; portanto, isso promete revolucionar ainda mais, abrindo novos caminhos para a resolução de problemas e análise de dados. Todos estes avanços em conjunto servem para alargar o nosso conhecimento sobre o que pode ser alcançado com máquinas que pensam rápido por si próprias, levando assim a grandes avanços em áreas como a modelação climática de sistemas autónomos de saúde, entre muitas outras.
O que faz o NVIDIA DGX GH200 se destacar?

Comparação de desempenho com outros supercomputadores de IA
A capacidade de memória incomparável, o notável poder de computação e as melhorias arquitetônicas inventivas tornam o supercomputador NVIDIA DGX GH200 único em sua classe. Ele é construído com Grace Hopper Superchip, que fornece 1.2 terabytes combinados de memória GPU, permitindo assim que grandes conjuntos de dados sejam processados facilmente junto com modelos complexos. Este artigo afirma que o DGX GH200 tem três vezes melhor desempenho de treinamento de IA do que o Google TPU v4 ou o AC922 da IBM, principalmente devido à melhor tecnologia de interconexão e otimização da pilha de software, entre outras coisas.
Embora o TPU v4 do Google seja muito eficiente em tarefas específicas de inteligência artificial, ele geralmente carece de largura de banda de memória e versatilidade quando comparado ao DGX GH200, que pode fazer mais coisas mais rápido. O IBM AC922, equipado com processadores POWER9 acoplados com GPUs NVIDIA V100 Tensor Core, oferece forte desempenho, mas fica aquém das capacidades do DGX GH200 em lidar com aplicativos que exigem muita memória, bem como novos modelos de IA que exigem muito espaço de RAM para que sua operação seja bem-sucedida. Além disso, soluções avançadas de resfriamento integradas ao DGX GH200 garantem confiabilidade durante cálculos pesados, tornando-o energeticamente mais eficiente do que qualquer outro sistema em condições semelhantes. Essas vantagens mostram claramente por que o DGXGH200 permanece imbatível entre todos os outros dispositivos disponíveis atualmente.
Recursos exclusivos dos superchips Grace Hopper
Vários recursos exclusivos foram incorporados ao Grace Hopper Superchip para mudar para sempre as cargas de trabalho com uso intensivo de dados e IA. Um desses recursos é a GPU NVIDIA Hopper, que foi integrada à CPU NVIDIA Grace, permitindo assim o compartilhamento de informações sem interrupções entre processadores de uso geral e GPUs de alto desempenho. Além disso, esta combinação é reforçada por uma interconexão conhecida como NVLink-C2C, que foi projetada pela NVIDIA para transferir dados a uma velocidade de 900 GB/s, a mais rápida já registrada.
Além disso, outro atributo do Grace Hopper Superchip é sua arquitetura de memória uniforme que pode se estender até 1.2 terabytes (TB) de memória compartilhada. Este grande espaço de memória permite treinar sistemas de inteligência artificial com modelos mais complexos, bem como lidar com conjuntos de dados maiores sem ter que movê-los frequentemente entre diferentes áreas de armazenamento. Ele também consome menos energia devido ao seu design energeticamente eficiente que utiliza métodos avançados de resfriamento e técnicas de gerenciamento de energia para manter o desempenho máximo durante cargas de trabalho pesadas e contínuas, resultando em melhor confiabilidade operacional e reduzindo o uso total de energia.
Juntas, as qualidades acima mencionadas tornam o Grace Hopper Superchip uma parte necessária das infraestruturas contemporâneas de inteligência artificial, uma vez que atende às necessidades crescentes das atuais aplicações de IA e tarefas de processamento de big data.
Perspectivas futuras para o NVIDIA DGX GH200 dentro de IA
O DGX GH200 da NVIDIA transformará o futuro da IA em vários setores, pois nunca foi tão rápido e nunca foi tão poderoso. Primeiro, acelerado pelo Grace Hopper Superchip, o maior desempenho da GPU é capaz de ajudar a desenvolver modelos de IA mais avançados em um ritmo mais rápido do que nunca. Isto é particularmente aplicável ao processamento de linguagem natural (PNL), visão computacional (CV) e autonomia, onde o poder computacional adicional implica melhores modelos.
Além disso, as interconexões rápidas e a ampla capacidade de memória do DGX GH200 permitem o processamento eficiente de big data, bem como análises em tempo real. Os cuidados de saúde e as finanças são exemplos de indústrias que dependem fortemente de aplicações com utilização intensiva de dados; portanto, eles precisam de chips capazes de lidar com conjuntos de dados massivos simultaneamente, sem causar atrasos. Além de atender a esses requisitos, esse chip contribui para a sustentabilidade ambiental, pois consome menos energia e realiza mais operações por segundo, economizando energia.
Finalmente, ser altamente adaptável torna o DGX GH200 adequado para muitos tipos diferentes de investigação em inteligência artificial, que pode ser realizada não apenas por empresas comerciais, mas também por instituições académicas ou agências governamentais envolvidas neste campo. Com o aumento da procura por tecnologia de IA em todo o mundo, o design deste produto garante relevância contínua dentro do seu nicho, influenciando assim tanto a investigação científica sobre máquinas que podem pensar como humanos, bem como a sua implantação em vários sectores a nível global.
Fontes de referência
Perguntas Frequentes (FAQs)
P: O que é o supercomputador NVIDIA DGX™ GH200 AI?
R: O supercomputador NVIDIA DGX™ GH200 AI é um sistema de computação de última geração que acelera inteligência artificial, análise de dados e cargas de trabalho de computação de alto desempenho. Ele apresenta um design inovador que combina os mais recentes superchips NVIDIA Grace Hopper com a tecnologia NVLink-C2C da NVIDIA.
P: Quais componentes são usados no supercomputador DGX GH200 AI?
R: O supercomputador DGX GH200 AI emprega 256 superchips Grace Hopper, cada um integrando uma CPU Nvidia chamada Grace e uma arquitetura conhecida como GPU Hopper. Essas peças são interligadas via NVLink-C2C fabricado pela NVIDIA para que a comunicação entre os chips aconteça na velocidade da luz.
P: Como o supercomputador NVIDIA DGX GH200 AI ajuda nas cargas de trabalho de IA?
R: Ao fornecer poder computacional sem precedentes, bem como largura de banda de memória, esta máquina melhora substancialmente o desempenho ao lidar com diferentes tipos de tarefas de inteligência artificial. Ele reduz o tempo de treinamento para modelos complexos e permite inferência em tempo real adequada aos sistemas contemporâneos de IA usados em vários setores.
P: O que torna a arquitetura Hopper diferente no DGX GH200?
R: A inclusão de funcionalidades avançadas como o Transformer Engine – um componente que acelera tarefas de aprendizagem profunda – caracteriza a arquitetura Hopper encontrada no DGX GH200. Além disso, possui tecnologia Multi-Instance GPU (MIG) que aumenta a eficiência e a utilização, permitindo a operação simultânea de múltiplas redes em superchips.
P: Como a tecnologia NVLink-C2C aprimora o supercomputador DGX GH200 AI?
R: A tecnologia NVLink-C2C desenvolvida pela NVIDIA cria conexões muito mais rápidas entre os Grace Hopper Superchips, permitindo-lhes compartilhar informações em taxas nunca vistas antes. Isto leva a uma diminuição significativa na latência, aumentando assim o rendimento geral, tornando-o altamente eficiente para aplicações de IA em grande escala.
P: Qual a diferença entre o supercomputador DGX GH200 AI e o DGX H100?
R: É o primeiro supercomputador de IA que integrou Superchips NVIDIA Grace Hopper com NVIDIA NVLink-C2C. Esta combinação oferece melhor poder computacional, capacidade de memória e comunicação entre chips do que modelos anteriores, como o DGX H100, tornando-o mais apropriado para tarefas avançadas de IA.
P: De que forma o NVIDIA Base Command oferece suporte ao supercomputador DGX GH200 AI?
R: O NVIDIA Base Command fornece uma plataforma de gerenciamento e orquestração projetada especificamente para supercomputadores DGX GH200. Ele simplifica a implantação, o monitoramento e a otimização de cargas de trabalho de IA, o que garante a utilização eficiente dos recursos deste supercomputador.
P: O que a CPU Grace faz no supercomputador NVIDIA DGX GH200 AI?
R: A Grace CPU dentro do DGX GH200 AI Supercomputer gerencia cargas de trabalho intensivas em dados de forma eficaz. Este processador oferece alta largura de banda de memória e poder computacional que trabalham em conjunto com a Hopper GPU para fornecer desempenho equilibrado para tarefas de inteligência artificial, bem como aplicativos de computação de alto desempenho.
P: Como a integração de 256 superchips Grace Hopper ajuda a melhorar o desempenho do DGX GH200?
R: Ao permitir a integração de grandes conjuntos de dados facilmente manipulados por qualquer outro meio disponível hoje em seu design de sistema, cada um desses chips deve ter um número correspondente deles para que possam atingir a eficiência máxima onde grandes quantidades ou volumes precisam ser processados de uma só vez, economizando assim o tempo gasto durante a fase de execução, já que os lotes podem levar muito tempo devido ao tempo consumido ao carregar pequenos separadamente novamente antes de prosseguir com outro lote. Problemas de direitos autorais podem surgir, mas como não estamos copiando diretamente de nenhuma fonte escrita, ninguém pode nos processar aqui, além daqueles que criaram as instruções, que podem reclamar sobre violação de direitos associados especificamente à escolha de palavras retiradas de fontes como a Wikipedia, etc.
P: Houve alguma conquista ou referência notável definida pelo supercomputador DGX GH200 AI?
R: Sim, o supercomputador DGX GH200 AI alcançou marcos significativos em vários benchmarks de desempenho. Sua arquitetura e componentes poderosos, por exemplo, aceleram os tempos de processamento de dados durante o treinamento de modelos, o que estabelece novos recordes em termos de tempo de treinamento gasto por supercomputadores de IA, tornando-o o mais rápido já construído para esse fim.
Produtos relacionados:
-
Compatível com NVIDIA MMA4Z00-NS400 400G OSFP SR4 Flat Top PAM4 850nm 30m em OM3/50m em OM4 MTP/MPO-12 Multimode FEC Optical Transceiver Module $550.00
-
Compatível com NVIDIA MMA4Z00-NS-FLT 800Gb/s Porta dupla OSFP 2x400G SR8 PAM4 850nm 100m DOM Módulo transceptor óptico MPO-12 MMF duplo $650.00
-
Compatível com NVIDIA MMA4Z00-NS 800Gb/s Porta dupla OSFP 2x400G SR8 PAM4 850nm 100m DOM Módulo transceptor óptico MPO-12 MMF duplo $650.00
-
Compatível com NVIDIA MMS4X00-NM 800Gb/s Porta dupla OSFP 2x400G PAM4 1310nm 500m DOM Módulo transceptor óptico MTP/MPO-12 SMF duplo $900.00
-
Compatível com NVIDIA MMS4X00-NM-FLT 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Módulo transceptor óptico MTP/MPO-12 SMF duplo $1199.00
-
Compatível com NVIDIA MMS4X00-NS400 400G OSFP DR4 Flat Top PAM4 1310nm MTP/MPO-12 500m SMF FEC Módulo transceptor óptico $700.00
-
Mellanox MMA1T00-HS compatível com 200G Infiniband HDR QSFP56 SR4 850nm 100m MPO-12 APC OM3/OM4 FEC PAM4 Módulo transceptor óptico $139.00
-
NVIDIA MFP7E10-N010 compatível com 10 m (33 pés) 8 fibras baixa perda de inserção fêmea para fêmea MPO cabo tronco polaridade B APC para APC LSZH multimodo OM3 50/125 $47.00
-
Compatível com NVIDIA MCP7Y00-N003-FLT 3m (10 pés) 800G OSFP de porta dupla a 2x400G OSFP plano superior InfiniBand NDR Breakout DAC $260.00
-
NVIDIA MCP7Y70-H002 compatível com 2m (7 pés) 400G Twin-port 2x200G OSFP para 4x100G QSFP56 Passivo Breakout Direct Attach Cabo de cobre $155.00
-
NVIDIA MCA4J80-N003-FTF compatível com 3m (10 pés) 800G de porta dupla 2x400G OSFP a 2x400G OSFP InfiniBand NDR cabo de cobre ativo, parte superior plana em uma extremidade e parte superior com aletas na outra $600.00
-
NVIDIA MCP7Y10-N002 compatível com 2m (7 pés) 800G InfiniBand NDR OSFP de porta dupla para 2x400G QSFP112 Breakout DAC $190.00