NIC é Network Interface Controller, também conhecido como adaptador de rede ou placa de interface de rede, que é usado em computadores e servidores. Ele pode se comunicar com switches, dispositivos de armazenamento, servidores e estações de trabalho através de cabos de conexão de rede (cabos de par trançado, fibras ópticas, etc.). Com o aumento da popularidade do mercado e da capacidade técnica, também existem vários tipos de placas de rede, como placas Ethernet e placas InfiniBand. Este artigo também enfoca as diferenças entre uma placa Ethernet e um adaptador InfiniBand, esperando ajudá-lo a escolher a placa de rede mais adequada.
O que é uma placa Ethernet?
Uma placa Ethernet é um adaptador de rede conectado a um slot da placa-mãe e suporta o padrão de protocolo Ethernet. Cada adaptador de rede tem um endereço físico globalmente exclusivo, chamado de endereço MAC. Os dados podem ser enviados com precisão para o computador de destino com base no endereço MAC do adaptador de rede. Existem muitos tipos de placas Ethernet e vários métodos de classificação. Eles podem ser divididos de acordo com a largura de banda, interface de rede e interface de barramento. Uma placa Ethernet de interface óptica é chamada de placa Ethernet de fibra (adaptador Fibra-Ethernet). Ele segue o protocolo de comunicação Ethernet de fibra óptica e geralmente é conectado a um switch Ethernet de fibra óptica por meio de um cabo de fibra óptica. É o tipo de placa de rede mais utilizado. Atualmente, os adaptadores de fibra Ethernet podem ser classificados por interface de barramento e largura de banda.
Classificação da interface de barramento
Os tipos de interface de barramento de placa Ethernet podem ser classificados como PCI, PCI-Express (abreviado como PCI-E), USB e ISA. ISA/PCI é a interface de barramento anterior e está sendo gradualmente eliminada à medida que a tecnologia se torna mais madura. PCIe é atualmente a interface de barramento mais usada e é muito comum em aplicativos de nível industrial e computadores servidores.
1. Como funciona a placa PCIe?
PCIe é um anexo serial que funciona mais como uma rede do que como um barramento. A diferença mais óbvia de outras interfaces de barramento que lidam com dados de diferentes fontes é que o PCIe controla o fluxo de dados por meio de um switch para uma conexão ponto a ponto. A placa PCle é inserida no slot e gera uma conexão lógica (interconexão ou link) para comunicação entre si. Ele geralmente suporta canais de comunicação ponto a ponto entre as duas portas PCle e pode executar as ações de enviar e receber solicitações ou interrupções normais de PCI.
2. Quais são as categorias de placas PCIe?
Especificações: Normalmente, o número de canais no slot PCle determina uma especificação para a placa PCle. As placas PCle comuns têm as seguintes especificações físicas: x1, x4, x8, x16 e x32. Por exemplo, uma placa PClex8 significa que a placa possui oito canais.
Versão: PCIe substitui os antigos padrões de barramento PCI e PCI-X e é constantemente modificado para atender à crescente demanda por alta largura de banda. A versão mais antiga do PCIe 1.0 (2.5GT/s) foi lançada em 2002, mais tarde, PCIe 2.0 (5GT/s), PCIe 3.0 (8GT/s), PCIe 4.0 (16GT/s), PCIe 5.0 (32GT/s), PCIe 6.0 (64GT/s) e PCIe7.0 (128GT/s) apareceram. Todas as versões PCIe suportam compatibilidade com versões anteriores.
A classificação de Be largura
À medida que o tráfego da Internet cresce dia a dia, os equipamentos de rede estão sob pressão dos principais ISPs para iterar e atualizar constantemente com requisitos de desempenho mais altos para obter transferência de dados de 10G, 25G, 40G ou até 100G. Algumas informações básicas sobre eles serão detalhadas nas seções a seguir.
1. Fibra 10G adaptador(Servidor Ethernet adaptador)
Adaptador de rede de fibra 10G adota placa de interface de rede de barramento PCI de 32/64 bits, suporta fibra monomodo ou multimodo 10G e é adequado para construção de rede backbone corporativa e de campus. Ao mesmo tempo, a Ethernet 10G pode transmitir até 100 quilômetros, o que pode atender aos requisitos de transmissão na área metropolitana. A implantação de uma rede 10G na camada de backbone do MAN pode simplificar bastante a estrutura da rede, reduzir custos e facilitar a manutenção. A Ethernet de ponta a ponta é usada para construir um MAN com baixo custo, alto desempenho e recursos avançados de suporte de serviço.
2. Fibra 25G adaptador
Adaptadores de fibra 25G compensar a baixa largura de banda da Ethernet 10G e o alto custo da Ethernet 40G usando a tecnologia de camada física de canal único de 25Gb/s para alcançar a transmissão de 100G com base em quatro canais de fibra de 25Gbps. Como o pacote SFP28 é baseado no pacote SFP+ e ambos são do mesmo tamanho, a porta do adaptador de fibra 25G pode suportar taxas de 25G e 10G. Comparado ao adaptador de rede 10G, a maior largura de banda do NIC de fibra 25G para atender às necessidades de rede de clusters de computação de alto desempenho, nas atualizações de rede de velocidade 100G ou até mais alta, o adaptador de fibra 25G será uma das infraestruturas indispensáveis.
3. Fibra 40G adaptador
O adaptador de fibra 40G possui uma interface 40G QSFP+ que suporta largura de banda de transmissão de 40Gbps. Ele também suporta slot padrão PCI-e x8 para garantir uma operação eficiente e estável. Normalmente disponível em portas simples e duplas, NICs de fibra 40G são a solução de interconexão de mais alto desempenho para data centers corporativos, computação em nuvem, computação de alto desempenho e ambientes incorporados.
4. 100 GFibra adaptador
Atualmente, os adaptadores de rede de fibra 100G mais comuns no mercado são de porta única e porta dupla. Cada porta pode fornecer Ethernet de até 100 Gbit/s, garantindo o roteamento adaptativo de transmissão confiável e aprimorando a capacidade de descarregamento do vSwitch/vRouter. Placas de rede de fibra 100G fornecer uma solução flexível e de alto desempenho, oferecendo uma variedade de descarregamentos e aceleradores inovadores no hardware para melhorar a eficiência das redes de data center e conexões de armazenamento.
A conexão entre o servidor e o switch está aumentando para uma largura de banda maior. A placa Ethernet 25G tornou-se o principal dispositivo intermediário entre o servidor 25G e o switch 100G. E como o data center está crescendo para 400G em uma velocidade sem precedentes, a conexão entre servidores e switches crescerá para 100G, as placas de rede de 100G também desempenham um papel indispensável no data center.
Wo que é adaptador InfiniBand?
Rede InfiniBand
Como um padrão de comunicação de rede de computadores, o InfiniBand é amplamente usado em computação de alto desempenho (HPC) devido às suas vantagens de largura de banda de alto rendimento e atraso de transmissão de rede ultrabaixo. A rede InfiniBand pode ser estendida horizontalmente por meio de redes de switch para se adaptar aos requisitos de rede de várias escalas. A partir de 2014, a maioria dos supercomputadores TOP500 usa a tecnologia de rede InfiniBand. Nos últimos anos, aplicativos relacionados a IA/big data também adotaram redes InfiniBand para alcançar a implantação de cluster de alto desempenho.
Como um protocolo em camadas, o InfiniBand define uma pilha de protocolos em camadas semelhante ao modelo de protocolo de sete camadas OSI. Os switches IB criam um canal direto privado e protegido no nó do servidor. Neste canal, a transmissão de dados e mensagens não exigirá mais processamento da CPU, mas será implementada diretamente por meio de RDMA. Dessa forma, as funções de recebimento e envio são descarregadas para o adaptador InfiniBand para processamento. Fisicamente, os adaptadores InfiniBand se conectam à memória da CPU com base em interfaces PCIe, fornecendo maior largura de banda, menor latência e maior escalabilidade do que outros protocolos de comunicação.
Adaptador InfiniBand
A arquitetura InfiniBand define um conjunto de componentes de hardware necessários para implantar a arquitetura, e a placa de rede InfiniBand é um deles. O adaptador InfiniBand também é chamado de HCA – Host Channel Adapter. O HCA é o ponto no qual um nó final InfiniBand (como um servidor ou dispositivo de armazenamento) se conecta à rede InfiniBand. Os arquitetos do InfiniBand gastaram muito tempo garantindo que a arquitetura pudesse implementar mais do que uma função HCA específica necessária em uma única peça de hardware, firmware ou software para que a coleção final de hardware, software e firmware representando a função HCA fornecesse acesso aos recursos de rede para um aplicativo. Com efeito, a estrutura da fila usada pelo aplicativo para acessar o hardware InfiniBand aparecerá diretamente no endereço virtual do aplicativo. O mesmo mecanismo de conversão de endereços é um meio para os HCAs acessarem a memória em nome dos aplicativos de nível de usuário. Frequentemente, os aplicativos referem-se a endereços virtuais; Os HCAs têm a capacidade de converter esses endereços em endereços físicos para transferência de informações.
Vantagens de InfiniBand adaptador
- As placas de rede InfiniBand oferecem o mais alto desempenho e a solução de interconexão mais escalável para servidores e sistemas de armazenamento. Particularmente em HPC, Web 2.0, computação em nuvem, big data, serviços financeiros, data centers virtualizados e aplicativos de armazenamento, haverá melhorias significativas no desempenho, resultando em tempos de conclusão mais curtos e custos gerais de processo mais baixos.
- Os adaptadores InfiniBand são a solução ideal para clusters HPC que exigem alta largura de banda, altas taxas de mensagens e baixa latência para obter alta eficiência do servidor e produtividade do aplicativo.
- A placa InfiniBand transfere o processamento do protocolo e a movimentação de dados da CPU para a interconexão, maximizando a eficiência da CPU e realizando processamento ultrarrápido de simulação de alta resolução, grandes conjuntos de dados e algoritmos altamente paralelizados.
Como selecionar um InfiniBand Network Card
- Largura de banda da rede: 100G, 200G, 400G
- Número de adaptadores em uma única máquina
- Taxa de porta: 100 Gb/s (HDR100/EDR), 200 Gb/s (HDR)
- Número de portas: 1/2
- Tipo de interface do host: PCIe3/4 x8/x16, OCP2.0/3.0
- Se a função Socket-Direct ou Multi-host é necessária
InfiniBand versus Ethernet
- Largura de Banda: como os dois aplicativos são diferentes, os requisitos de largura de banda também são diferentes. Ethernet é mais uma interconexão de dispositivos terminais, não há alta demanda por largura de banda. O InfiniBand é usado para interconectar servidores em computação de alto desempenho. Ele leva em consideração não apenas a interconexão, mas também como reduzir a carga da CPU durante a transmissão de rede de alta velocidade. Beneficiando-se da tecnologia RDMA, Rede InfiniBand pode obter o descarregamento da CPU em transmissão de alta velocidade e melhorar a utilização da rede. Portanto, um grande aumento na velocidade da CPU não sacrificará mais recursos para processamento de rede e retardará o desenvolvimento do desempenho do HPC.
- Latência: Principalmente dividido em switch e adaptador de rede para comparação. Para switch: Como a segunda camada de tecnologia no modelo de transmissão de rede, os switches Ethernet possuem um longo processo de processamento, que geralmente ocorre em vários nós (mais de 200ns suportando cut-though), enquanto os switches InfiniBand possuem um processamento de camada 2 muito simples. A tecnologia Cut-Through pode reduzir bastante o atraso de encaminhamento para menos de 100ns, o que é muito mais rápido que os switches Ethernet. Para adaptadores de rede: Usando a tecnologia RDMA, as placas de rede InfiniBand podem encaminhar pacotes sem passar pela CPU, o que acelera muito o encapsulamento de pacotes e o atraso de desencapsulamento (geralmente o atraso de recebimento e envio é de 600ns). No entanto, o atraso de transmissão e envio de aplicativos TCP e UDP baseados em Ethernet é de cerca de 10 us, com uma diferença de mais de dez vezes.
- Confiabilidade: No campo da computação de alto desempenho, a retransmissão de perda de pacotes tem um grande impacto no desempenho geral. Portanto, um protocolo de rede altamente confiável é necessário para garantir as características sem perdas da rede no nível do mecanismo, de modo a atingir suas características de alta confiabilidade. O InfiniBand é um protocolo de rede completo com seus próprios formatos de Camada 1 a Camada 4. Os pacotes são enviados e recebidos na rede com base no controle de fluxo de ponta a ponta. Não há acúmulo de cache na transmissão pela rede InfiniBand, portanto, o atraso do atraso é controlado ao mínimo, criando assim uma rede pura ideal. A rede construída por Ethernet não possui um mecanismo de controle de fluxo de escalonamento, que além de alto custo, também consome maior energia. Além disso, como não há mecanismo de controle de fluxo de ponta a ponta, a rede aparecerá em casos levemente extremos, resultando em congestionamento de cache e perda de pacotes, o que faz com que o desempenho de encaminhamento de dados flutue bastante.
- Networking: A rede Ethernet exige que cada servidor da rede envie pacotes periodicamente para garantir a atualização em tempo real das entradas. Quando o número de nós na rede aumenta para um certo nível, são geradas tempestades de broadcast, resultando em um sério desperdício de largura de banda da rede. Ao mesmo tempo, a falta de mecanismo de aprendizado de entrada de tabela da rede Ethernet levará a uma rede em loop, e a Ethernet não possui SDN especial, portanto, o formato do pacote ou o mecanismo de encaminhamento precisa ser alterado para atender aos requisitos do SDN durante a rede implantação, aumentando assim a complexidade da configuração da rede. A InfiniBand nasce com o conceito de SDN. Cada rede InfiniBand de camada 2 possui um gerenciador de sub-rede para configurar o ID do nó (LocalID) na rede. Em seguida, as informações do caminho de encaminhamento são calculadas uniformemente através do plano de controle e entregues ao switch InfiniBand. Dessa forma, uma rede InfiniBand de camada 2 pode ser configurada sem nenhuma configuração, evitando inundações e VLANs e quebras de rede em anel são evitadas. Portanto, uma grande rede de Camada 2 com dezenas de milhares de servidores pode ser facilmente implantada.
Recomendações de placa de rede
Placa Ethernet ConnectX-5 (MCX512A-ACAT)
A placa de interface de rede Ethernet ConnectX-5 apresenta até duas portas de conexão 10/25GbE, latência de 750ns, até 200 milhões de pacotes por segundo (Mpps) e Data Plane Development Kits (DPDK). Para cargas de trabalho de armazenamento, o ConnectX-5 oferece uma gama de acelerações inovadoras, como comutação de assinatura em hardware (T10-DIF), switches PCIe incorporados e descarregamento de destino NVMe sobre Fabric. As placas adaptadoras ConnectX-5 também trazem descarregamento avançado de Open vSwitch para data centers de telecomunicações e nuvem para impulsionar taxas de pacotes e rendimento extremamente altos, ao mesmo tempo em que reduz o consumo de recursos da CPU, aumentando assim a eficiência da infraestrutura do data center.
Placa Ethernet ConnectX-6 (MCX623106AN-CDAT)
ConnectX-6 Dx SmartNIC suporta taxas de transferência de 1/10/25/40/50/100 GbE, pipes programáveis flexíveis para novos fluxos de rede, multihoming com QoS avançado, IPsec e suporte de aceleração de criptografia em linha TLS e aceleração de criptografia para bloquear estática dados. É a placa de interface de rede em nuvem mais segura e avançada do setor para acelerar aplicativos de data centers de missão crítica, como segurança, virtualização, SDN/NFV, big data, aprendizado de máquina e armazenamento.
Placa de rede ConnectX-6 VPI IB (MCX653105A-ECAT-SP)
A placa ConnectX-6 VPI fornece uma única porta, latência abaixo de 600 ns e 215 milhões de mensagens por segundo para conectividade HDR100 EDR InfiniBand e Ethernet 100GbE. Suporte a PCIe 3.0 e PCIe 4.0; recursos avançados de armazenamento, incluindo criptografia em nível de bloco e descarregamento de soma de verificação; para o mais alto desempenho e a solução mais flexível projetada para atender às crescentes necessidades de aplicativos de data center.
Placa de rede ConnectX-5 VPI IB (MCX556A-ECAT)
As placas adaptadoras ConnectX-5 InfiniBand oferecem uma solução flexível e de alto desempenho com portas de conectividade Ethernet e InfiniBand de 100 Gb/s de porta dupla, baixa latência e altas taxas de mensagens, bem como switches PCIe incorporados e NVMe sobre Fabrics, offload. Esses adaptadores inteligentes habilitados para Remote Direct Memory Access (RDMA) fornecem recursos avançados de offload de aplicativos para High-Performance Computing (HPC), hiperescala de nuvem e plataformas de armazenamento.
A partir dos adaptadores InfiniBand e placas Ethernet mencionados acima, é fácil ver que ambos têm características próprias e áreas de aplicação correspondentes. O tipo de placa a ser implantado depende não apenas dos protocolos suportados pela placa, mas também do seu ambiente de rede e orçamento.
Produtos relacionados:
- Placa de interface de rede Ethernet Intel® I210 F1 Gigabit SFP PCI Express x1 Ethernet v2.1 $65.00
- Intel® 82599EN SR1 Porta única 10 Gigabit SFP+ PCI Express x8 Placa de interface de rede Ethernet PCIe v2.0 $115.00
- Placa de interface de rede Ethernet Intel® 82599ES SR2 10 Gigabit SFP + PCI Express x8 Ethernet PCIe v2.0 $169.00
- Placa de interface de rede Ethernet Intel® X710-BM2 DA2 porta dupla 10 Gigabit SFP + PCI Express x8 PCIe v3.0 $245.00
- Intel® XL710-BM1 DA4 Quad Port 10 Gigabit SFP + PCI Express x8 Placa de interface de rede Ethernet PCIe v3.0 $550.00
- Adaptador de rede ConnectX-4121 Lx EN compatível com NVIDIA Mellanox MCX4A-ACAT, SFP25 de porta dupla de 28 GbE, PCIe3.0 x 8, suporte alto e curto $249.00
- Placa de interface de rede Ethernet Intel® XXV710 DA2 25 Gigabit SFP28 PCI Express x8 Ethernet PCIe v3.0 $429.00
- Intel® XL710-BM1 QDA1 Porta única 40 Gigabit QSFP+ PCI Express x8 Placa de interface de rede Ethernet PCIe v3.0 $595.00
- Intel® XL710 QDA2 Porta dupla 40 Gigabit QSFP+ PCI Express x8 Placa de interface de rede Ethernet PCIe v3.0 $635.00
- Controlador Intel® Ethernet E810-CAM2 100G QSFP28 de porta dupla, adaptador de rede Ethernet PCIe 4.0 x16 $900.00
- Placa de interface de rede NVIDIA Mellanox MCX512A-ACAT SmartNIC ConnectX®-5 EN, porta dupla 10/25GbE SFP28, PCIe 3.0 x 8, suporte alto e curto $318.00
- NVIDIA Mellanox MCX631102AN-ADAT SmartNIC ConnectX®-6 Lx Ethernet Network Interface Card, 1/10/25GbE Dual-Port SFP28, Gen 4.0 x8, suporte alto e curto $385.00
- NVIDIA Mellanox MCX621102AN-ADAT SmartNIC ConnectX®-6 Dx Ethernet Network Interface Card, 1/10/25GbE Dual-Port SFP28, Gen 4.0 x8, suporte alto e curto $315.00
- Placa de interface de rede NVIDIA MCX623106AN-CDAT SmartNIC ConnectX®-6 Dx EN, QSFP100 de porta dupla de 56 GbE, PCIe4.0 x 16, suporte alto e curto $1200.00
- Placa de interface de rede NVIDIA Mellanox MCX515A-CCAT SmartNIC ConnectX®-5 EN, porta única 100 GbE QSFP28, PCIe3.0 x 16, suporte alto e curto $715.00
- Placa de interface de rede NVIDIA Mellanox MCX516A-CCAT SmartNIC ConnectX®-5 EN, porta dupla 100 GbE QSFP28, PCIe3.0 x 16, suporte alto e curto $985.00
- Placa adaptadora NVIDIA Mellanox MCX653106A-ECAT-SP ConnectX-6 InfiniBand/VPI, HDR100/EDR/100G, porta dupla QSFP56, PCIe3.0/4.0 x16, suporte alto $828.00
- Placa adaptadora NVIDIA Mellanox MCX653105A-ECAT-SP ConnectX-6 InfiniBand/VPI, HDR100/EDR/100G, porta única QSFP56, PCIe3.0/4.0 x16, suporte alto $690.00
- Placa adaptadora NVIDIA Mellanox MCX653106A-HDAT-SP ConnectX-6 InfiniBand/VPI, HDR/200GbE, porta dupla QSFP56, PCIe3.0/4.0 x16, suporte alto $1600.00
- Placa adaptadora NVIDIA Mellanox MCX653105A-HDAT-SP ConnectX-6 InfiniBand/VPI, HDR/200GbE, porta única QSFP56, PCIe3.0/4.0 x16, suporte alto $1400.00