El mercado de servidores GPU ha estado en auge últimamente y algunos clientes se preguntan si los servidores universales pueden equiparse con tarjetas GPU. O si una máquina solo necesita 1 o 2 tarjetas, ¿funciona adoptar un servidor universal + tarjeta GPU? Los servidores GPU y los servidores universales son la clasificación actual del mercado de servidores según los escenarios comerciales. No hay distinciones estrictas entre los dos. Se puede entender que los servidores GPU son servidores universales optimizados para soportar mejor las GPU. Si debemos hacer una comparación simple entre los dos, podemos analizarla a partir de los siguientes diez aspectos.
1. Admiten diferentes cantidades de tarjetas GPU.
Los servidores GPU suelen admitir al menos 4 tarjetas GPU. Las tarjetas más comunes en el mercado incluyen 4 tarjetas, 8 tarjetas, 10 tarjetas, 20 tarjetas, etc. Las tarjetas que se mencionan aquí son tarjetas estándar de doble ancho. La siguiente es la vista posterior de un servidor GPU como referencia. Las ranuras para GPU de 8 tarjetas son las ranuras 1 a 8, y las ranuras para GPU de 10 tarjetas son las ranuras 0 a 9.
Vista posterior del servidor GPU
Servidores universales: generalmente, los servidores 2U no tienen más de 4 tarjetas y los servidores 4U no tienen más de 6 tarjetas, lo que también se refiere a tarjetas estándar de ancho doble.
2. Admiten diferentes tipos de tarjetas GPU.
Servidor GPU: Tiene buena compatibilidad con tarjetas. Además de las de ancho simple y doble, los modelos de algunos fabricantes también pueden admitir tarjetas de juego de consumo de 2.5 o 3 anchos. Por ejemplo, el G5208 lanzado por Stone Group admite la versión 8 con ventilador de 4090 tarjetas, que es una máquina innovadora. Sus parámetros de compatibilidad con GPU y diagrama de estructura son los siguientes.
Diagrama de estructura del G5208
Servidores universales: principalmente de ancho simple y ancho doble, y no pueden admitir tarjetas de consumidor de ancho triple, principalmente debido a su tamaño y disipación de calor.
3. Tienen diferentes formas de máquina:
Servidores GPU: generalmente servidores de un solo nodo, siendo 4U el más común en el mercado, y servidores torre-torre, así como servidores NVlink de alta gama en configuraciones 5U, 6U u 8U.
Servidores universales: generalmente en formato 2U, pero también en altura 1U, de alta densidad 2U2, 2U4, 4U8, en formato blade o de gabinete completo, con formas de producto más diversas.
4. Tienen diferentes topologías de GPU y CPU.
Servidor GPU: además de la transferencia directa de PCIE, también se puede ampliar a través de un software PCIE. Hay varios tipos de topología, incluidos el equilibrio, la común y la cascada. Se puede seleccionar de forma más flexible para diferentes escenarios comerciales del cliente (entrenamiento, razonamiento, renderizado de video, etc.), como se muestra en la siguiente figura.
Comparación de tres tipos de topología
Servidores universales: generalmente, transferencia PCIE (raramente a través de software PCIe) y la cantidad de GPU compatibles es limitada.
5. Diferentes marcas de servidores
Servidor GPU: A excepción de los fabricantes líderes que desarrollan sus propias plataformas (LC, H3C, CJB, LX, etc.), la mayoría de los demás utilizan plataformas AMD (por supuesto, no se excluyen otros fabricantes ODM, como HQ, HS, etc.).
Servidores universales: hay docenas de ellos. A excepción de las pocas empresas más importantes que se dedican en gran medida al desarrollo propio, la mayoría de las demás empresas utilizan servidores ensamblados, con el objetivo principal de lograr una buena relación coste-beneficio.
6. El consumo de energía de todo el servidor varía mucho.
Servidor GPU: el consumo de energía es relativamente alto. Si tomamos como ejemplo el servidor de ocho tarjetas 4090, un servidor necesita más de 4KW. Por ejemplo, la plataforma de ocho tarjetas Supermicro más utilizada en el mercado suele utilizar una fuente de alimentación de 8+2 2KW (por supuesto, también se puede configurar en un modo de funcionamiento de 2+3);
Servidores universales: Los servidores de gama baja suelen tener entre 500 y 550 W, aunque también los hay de 800 W, 100 W, 1200 W y 1600 W. Por lo general, no hay muchos servidores que superen los 2 KW.
7. Sus precios por cada servidor son diferentes
Servidor GPU: La plataforma es 2 o 3 veces más cara que un servidor universal. El precio real de envío de una unidad puede oscilar entre 100,000 RMB y millones. Esto depende principalmente del precio de la tarjeta GPU. Por ejemplo, para 8 tarjetas A100, el costo de la plataforma representa una proporción muy pequeña.
Servidores universales: tienen un amplio rango de precios, desde 10,000 RMB a 20,000 RMB y cientos de miles de RMB, pero la mayoría de los precios de venta están por debajo de los 100,000 RMB y el precio promedio es de aproximadamente 30,000 a 50,000 RMB por unidad. Es por eso que a todos les gusta vender servidores GPU ahora. Un servidor GPU cuesta diez veces más que otros, y si se venden docenas de máquinas 4090 de ocho tarjetas, la tarea de rendimiento de ventas se logra básicamente.
8. Tienen diferentes cuotas de mercado generales.
Hace dos años, los servidores GPU representaban alrededor del 20-25% de todo el mercado de servidores, mientras que los servidores estándar representaban más del 70%. Ahora, el mercado de GPU está en auge, especialmente con la construcción de AIDC. Se estima aproximadamente que los envíos de modelos GPU han superado el 30% o el 40%. Según las estadísticas de IDC, la participación de mercado de servidores de aceleración nacionales superó el 30% en 2024.
9. Tienen diferentes escenarios de negocio de servidores.
Los servidores GPU se utilizan generalmente para renderizado de video y procesamiento de gráficos, entrenamiento de IA, razonamiento de IA o computación HPC, mientras que los servidores estándar se pueden usar en cualquier lugar, como nubes privadas, almacenamiento distribuido, nodos de administración y nodos de computación general HPC, etc.
10. Los requisitos de tecnología de refrigeración líquida son de diferente urgencia.
Los servidores GPU son “devoradores de energía” y son la clave para reducir el índice PUE en los centros de computación inteligentes. Por lo tanto, muchos centros de computación inteligentes que están actualmente en construcción o se están preparando para ser construidos han planeado refrigeración líquida para servidores GPU (tanto de placa fría como de inmersión). Sin embargo, el riesgo radica en la garantía de la tarjeta GPU. Una vez que la tarjeta GPU se convierte a refrigeración líquida, podría afectar la garantía del fabricante original (por supuesto, este problema es temporal y no se descarta que los fabricantes de GPU lancen modelos especiales de refrigeración líquida en el futuro. De hecho, NVIDIA lanzó una GPU A100 de ancho único refrigerada por líquido hace dos años). Los servidores universales no son tan urgentes como los servidores GPU en términos de refrigeración líquida y tienen una estructura relativamente simple y son más maduros que los servidores GPU en términos de conversión de placa fría de refrigeración líquida o adaptación de inmersión.