En la informática de alto rendimiento (HPC), nada es más importante que una transferencia de datos eficiente y fiable. Infinibanda La tecnología es conocida por su gran ancho de banda y bajos tiempos de latencia, lo que la hace ideal para clústeres y sistemas rápidos que utilizan GPU. Esta publicación de blog analiza los componentes de Infiniband, cómo puede resultar beneficioso y dónde se puede utilizar. Al aprender qué puede hacer Infiniband y cómo funciona, las empresas podrán tomar mejores decisiones sobre cómo configurar sus entornos HPC, lo que a su vez conducirá a un procesamiento de datos más rápido y sin interrupciones.
¿Qué es Infiniband y cómo funciona?

Comprender la tecnología Infiniband
Para satisfacer las necesidades de los entornos HPC, Infiniband es una tecnología de red súper rápida. Se ejecuta en una topología de estructura conmutada, lo que ayuda a crear rutas eficientes para la comunicación entre nodos. La arquitectura de Infiniband comprende conmutadores que enrutan paquetes de datos y adaptadores de canal de host (HCA) para conectar dispositivos finales. A través del acceso remoto directo a la memoria (RDMA), Infiniband permite transferencias directas de memoria entre sistemas, minimizando así la latencia y reduciendo la participación de la CPU. Puede alcanzar velocidades de transferencia de datos de hasta 200 Gbps y tiene una latencia de tan solo 500 nanosegundos, lo que lo hace perfecto para aplicaciones como computación paralela o cargas de trabajo de aprendizaje automático donde se requiere un intercambio rápido de información.
Arquitectura y especificación de Infiniband
Para soportar los requisitos de transmisión de datos de alta resistencia de los entornos HPC, la arquitectura Infiniband está diseñada específicamente. En esencia, hay dos componentes principales: adaptadores de canal de host (HCA) y conmutadores. Los HCA actúan como una interfaz entre los dispositivos finales (por ejemplo, servidores, sistemas de almacenamiento) y la estructura InfiniBand. Estos adaptadores tienen capacidades RDMA que permiten el acceso directo a la memoria entre dispositivos sin involucrar a la CPU, lo que reduce significativamente la latencia.
Los conmutadores, por otro lado, enrutan paquetes de datos a través de la red, asegurando rutas de comunicación eficientes con un retraso mínimo entre nodos. InfiniBand admite varias velocidades de enlace y configuraciones, como carril 1x, que se pueden agregar para lograr anchos de banda más altos, como carriles 4x o incluso 12x. La implementación que se utiliza actualmente admite velocidades de hasta 200 Gbps por puerto, es decir, EDR (velocidad de datos mejorada) o HDR (alta velocidad de datos); esto proporciona suficiente rendimiento para aplicaciones que exigen mucho, como simulaciones de dinámica molecular, modelos meteorológicos o aprendizaje automático a gran escala.
Además, en InfiniBand se incluyeron mecanismos QoS (calidad de servicio) que priorizan el tráfico de datos críticos y al mismo tiempo mantienen niveles de rendimiento predecibles. Además, la escalabilidad permite interconexiones sin bloqueo entre miles de nodos, lo que permite que las redes crezcan junto con las capacidades computacionales. Es gracias a este sólido principio de diseño que es posible que InfiniBand sirva como infraestructura troncal para las supercomputadoras modernas.
Características clave de Infiniband
- Muy rápido y en muy poco tiempo: Infiniband proporciona velocidades de transferencia de datos ultraaltas, actualmente 200 Gbps por puerto con HDR, y comunicación de baja latencia constante. Por eso es perfecto para aplicaciones HPC que necesitan intercambios de datos rápidos, como análisis en tiempo real o simulaciones científicas.
- RDMA (Acceso remoto directo a memoria): una de las características más llamativas de Infinibanda es su capacidad RDMA que permite la transferencia directa de datos entre ubicaciones de memoria de diferentes dispositivos sin intervención de la CPU. Esto reduce drásticamente la latencia y deja más recursos de CPU para otras tareas, mejorando así el rendimiento general del sistema.
- Escalabilidad: Infiniband ha sido diseñado para ofrecer una buena escalabilidad: puede conectar miles de nodos en grandes clústeres de HPC. La arquitectura sin bloqueo garantiza que la red no se convierta en un cuello de botella mientras crece, lo que permite realizar cálculos a gran escala y ejecutar aplicaciones con uso intensivo de datos simultáneamente.
- Calidad de servicio (QoS): Los mecanismos de QoS están integrados en Infiniband para controlar y priorizar el tráfico de la red. Esta característica se vuelve esencial cuando hay flujos críticos a los que se les debe dar prioridad sobre otros, garantizando así niveles sostenidos de rendimiento en dichos entornos.
- Topologías y configuraciones flexibles: la estructura admite varias topologías, como Fat Tree, Mesh o Torus, lo que permite que las redes se adapten a requisitos de rendimiento específicos, así como a necesidades de escalabilidad. Además, la compatibilidad con diferentes configuraciones de carriles (1x, 4x, 12x) brinda flexibilidad para lograr los anchos de banda deseados.
- Fiabilidad y tolerancia a fallos: En Infiniband se utilizan mecanismos avanzados de detección/corrección de errores para que se pueda mantener la integridad de los datos durante la transmisión y, al mismo tiempo, garantizar que se produzca una comunicación fiable dentro del sistema en todo momento, es decir, el control de flujo a nivel de enlace junto con el enrutamiento adaptativo contribuyen. mucho hacia una alta confiabilidad y, por lo tanto, aplicaciones de misión crítica aplicables.
¿Cómo se compara Infiniband con Ethernet?

Infinibanda frente a Ethernet: La batalla por la baja latencia
Cuando se compara Infiniband con Ethernet en términos de baja latencia, normalmente se observa que Infiniband funciona mejor que Ethernet debido a su construcción y diseño. Entre las características clave de Infiniband se encuentran los menores gastos generales de comunicación, lo que conduce a una disminución de la latencia. Además, esta tecnología admite el acceso remoto directo a la memoria (RDMA), lo que permite la transferencia de datos entre computadoras directamente desde la memoria sin involucrar a la CPU, lo que reduce los retrasos y libera potencia de procesamiento.
Por el contrario, se sabe que Ethernet tiene una cobertura más amplia y es más barata que otras redes, especialmente ahora con Data Center Bridging (DCB) y RDMA sobre Ethernet convergente (RoCE). Aún así, incluso después de que se hayan realizado estas mejoras, Ethernet siempre muestra latencias más altas que Infiniband.
Por lo tanto, para aplicaciones que requieren una latencia ultrabaja junto con un alto rendimiento, como simulaciones complejas o computación de alto rendimiento (HPC), se preferiría InfiniBand la mayor parte del tiempo.
Infiniband proporciona un gran ancho de banda: comparación de velocidades y rendimiento
Infiniband supera a Ethernet en términos de ancho de banda y rendimiento. De hecho, Infiniband HDR (High Data Rate) ofrece velocidades de hasta 200 Gbps por puerto, que es mucho más rápido que los 400 Gbps más avanzados o incluso los 100 Gbps que se encuentran comúnmente en Ethernet. Además, se pueden agregar muchos carriles junto con Infiniband para que su eficiencia de transferencia de datos sea alta debido a la escalabilidad de acuerdo con las necesidades de rendimiento de la aplicación. La arquitectura de esta tecnología se ha diseñado desde cero con grandes cantidades de procesamiento de baja latencia integrado, lo que hace que InfiniBand sea ideal para casos de uso que involucran volúmenes masivos de información, como los que se encuentran dentro de clústeres de HPC y centros de datos de hiperescala.
Fiabilidad y escalabilidad: ventajas de Infiniband sobre Ethernet
En comparación con Ethernet, Infiniband es más confiable y escalable, lo cual es necesario para respaldar el funcionamiento de sistemas grandes. Incluso a largas distancias, cuentan con métodos de detección y corrección de errores que son lo suficientemente potentes como para mantener la integridad de los datos, reduciendo así las tasas de retransmisión y garantizando un rendimiento uniforme. Además, tiene un carácter determinista de funcionamiento que garantiza previsibilidad en términos de latencia; Esta característica se vuelve importante cuando se trata de aplicaciones que necesitan procesos estrechamente coordinados.
Siguiendo con la misma nota, las capacidades de QoS (calidad de servicio) que se encuentran en Infiniband permiten asignar ancho de banda de manera determinista, asegurando así que el rendimiento se mantenga en diferentes cargas de trabajo con diferentes requisitos. Para poder escalar bien, InfiniBand puede admitir eficazmente una gran cantidad de nodos, permitiendo así que los recursos informáticos crezcan sin ninguna disminución notable en el rendimiento. Por lo tanto, esto los convierte en la opción más adecuada para entornos como grupos de supercomputadoras o centros de datos de nivel empresarial donde es necesario transferir y procesar con frecuencia enormes cantidades de información en áreas amplias.
¿Cuáles son las ventajas de las redes Infiniband?

Baja latencia y alto rendimiento
Las redes InfiniBand tienen fama de ser muy rápidas, por eso se las conoce como redes de baja latencia y alto rendimiento. Según los que lo saben, se ha informado que InfiniBand podría bajar a 100 ns de latencia, mucho menos que Ethernet. Este período de tiempo súper bajo garantiza la llegada rápida de paquetes para que los programas de aplicaciones sensibles a la latencia puedan funcionar mejor.
Además, InfiniBand ofrece compatibilidad con un rendimiento muy elevado: los sistemas actuales ofrecen hasta 200 Gigabits por segundo (Gbps) por conexión. Este gran ancho de banda es necesario cuando se trata de transferencias de datos masivas dentro de clústeres de HPC o entre centros de datos. En comparación con Ethernet, que a veces experimenta latencias más altas y velocidades de datos más bajas, esto convierte a InfiniBand en una solución eficiente y robusta para la informática de alto rendimiento, entre otras aplicaciones exigentes.
Acceso remoto directo a memoria (RDMA)
Según fuentes confiables, el acceso remoto directo a la memoria (RDMA) es una característica importante en las redes Infiniband que permite la transferencia de datos entre la memoria de dos computadoras sin utilizar sus sistemas operativos. Esto crea una ruta directa para los datos, lo que genera menos latencia y menores gastos de CPU. RDMA mejora el rendimiento al permitir la creación de redes sin copia, es decir, donde la información se mueve directamente desde el búfer de la aplicación a la red en lugar de pasar primero a través de un búfer del sistema operativo como ocurre con los protocolos de red tradicionales.
Según se informa, esta tecnología puede alcanzar latencias tan bajas como un microsegundo y admitir transferencias de datos de varios cientos de gigabits por segundo. Con tales velocidades, queda claro por qué RDMA sería más útil en aplicaciones que necesitan potencia de procesamiento en tiempo real junto con un alto rendimiento; por ejemplo, sistemas de comercio financiero o bases de datos distribuidas utilizadas en análisis de datos a gran escala. RDMA también admite la derivación del kernel, lo que permite que las aplicaciones se comuniquen directamente con el hardware de la red, reduciendo así aún más la latencia y mejorando la eficiencia de las transferencias de datos.
En resumen, el acceso remoto directo a la memoria (RDMA) ofrece anchos de banda elevados, latencias bajas y una utilización eficiente de la CPU, demostrando así ser una tecnología esencial siempre que sea necesario acceder rápidamente a la información o mejorar el rendimiento.
HDR Infiniband y perspectivas de futuro
El siguiente paso en la tecnología de redes está representado por HDR (High Data Rate) Infiniband, que ha sido diseñado para satisfacer las demandas de los centros de datos y entornos informáticos de alto rendimiento. Este sistema puede alcanzar 200 Gbps cuando se trata de transferir información de un punto a otro, abordando así requisitos de velocidades de datos más altas con menor latencia.
Muchas características diferencian a HDR Infiniband de sus predecesores. Uno de ellos es que utiliza tecnología de silicio de conmutación de última generación que mejora la integridad de la señal y las capacidades de corrección de errores. Esto hace que la transmisión de datos sea más confiable incluso en distancias más largas, lo que la hace adecuada para sistemas distribuidos a gran escala.
Otro aspecto importante de HDR Infiniband es su papel futuro como habilitador de EDR (velocidad de datos extrema) y más allá, fomentando así simulaciones complejas, análisis a gran escala y aplicaciones en tiempo real que requieren una latencia ultrabaja. Además, dados los avances en las cargas de trabajo de IA/ML, habrá una necesidad cada vez mayor de que dichas redes tengan anchos de banda elevados pero latencias bajas, como las proporcionadas por HDR Infiniband.
Al procesar rápidamente enormes cantidades de información, el despliegue de estas redes puede acelerar los avances de la investigación científica en diversos campos, como los vehículos autónomos o la realidad virtual, entre otros. En conclusión, esto significa que HDR InfiniBand no solo ofrece una solución para las necesidades actuales de redes de alto rendimiento, sino que también indica un enfoque de futuro para respaldar aplicaciones computacionales y de uso intensivo de datos de próxima generación.
¿Cómo se utiliza Infiniband en centros de datos y HPC?

Infiniband en Computación de Alto Rendimiento (HPC)
Las supercomputadoras más rápidas del mundo confían en Infiniband para permitir la transferencia de datos de alta velocidad entre nodos. Esto es necesario para simulaciones a gran escala, investigaciones científicas y análisis, entre otras cosas. Aún más importante, permite que los clústeres procesen estas aplicaciones más rápido que nunca al conectar directamente dispositivos informáticos en un sistema HPC entre sí mediante la creación de una arquitectura informática paralela impulsada por la red que elimina los cuellos de botella tradicionales asociados con el almacenamiento compartido o el acceso a la memoria. métodos, permitiendo así que cada nodo acceda a sus propios recursos independientemente de los demás.
Integración de Infiniband en centros de datos
En los centros de datos actuales, la integración de Infiniband aumenta el rendimiento y la escalabilidad al proporcionar una interconexión de alta velocidad que es esencial para tareas con uso intensivo de datos. Para una comunicación rápida entre servidores, sistemas de almacenamiento y otros dispositivos de red en particular, se implementa con este objetivo, haciendo así más eficientes las operaciones de un centro de datos. Tiene funciones avanzadas como el acceso remoto directo a la memoria (RDMA), que reduce la sobrecarga de la CPU y, por lo tanto, aumenta la velocidad a la que se transfiere la información. Además, su propio diseño ampliable permite agregar capacidad paso a paso y al mismo tiempo garantizar una productividad continua durante un período prolongado en el que la demanda podría haber crecido más que antes dentro de una instalación de este tipo. Por lo tanto, mediante el uso de la tecnología InfiniBand, se pueden lograr tasas de rendimiento más altas dentro de los centros de datos junto con latencias más bajas, mejorando así la eficiencia necesaria para soportar diferentes aplicaciones que van desde la computación en la nube hasta el análisis de big data y el aprendizaje automático.
Infiniband para clústeres de GPU e IA
Los clústeres de GPU y las aplicaciones de IA dependen de Infiniband porque puede manejar bien los requisitos de alto ancho de banda y baja latencia. A medida que los modelos de IA se vuelven más complejos y las cargas de trabajo de GPU más grandes, las interconexiones de Infiniband permiten compartir datos rápidamente entre GPU, lo que a su vez acelera los tiempos de entrenamiento e inferencia. Estas mejoras de rendimiento son posibles gracias a características como la compatibilidad con RDMA o la descarga de hardware que reduce la utilización de la CPU y mejora la eficiencia de la transferencia de datos. Con la implementación a gran escala de InfiniBand para sistemas de IA, se minimizan los cuellos de botella para que los recursos de la GPU se puedan utilizar de manera óptima, lo que conduce a cálculos más rápidos y a una mejor eficiencia de escalado de los modelos de inteligencia artificial y, al mismo tiempo, permite procesar grandes cantidades de datos rápidamente con niveles de precisión más altos a través de esta tecnología. De este modo, es posible procesar conjuntos de datos más grandes más rápido y con mayor precisión. Por lo tanto, el uso de Infiniband dentro de los clústeres de GPU mejora en gran medida las capacidades de la investigación de IA, que van desde algoritmos de aprendizaje profundo hasta análisis predictivos aplicables en varios campos de la vida.
¿Cuáles son los componentes de una red Infiniband?

Conmutadores y adaptadores Infiniband
Los conmutadores y adaptadores InfiniBand son componentes esenciales de las redes InfiniBand. Los conmutadores Fabric, también conocidos como conmutadores Infiniband, son responsables de reenviar paquetes de datos a través de la red. Estos conmutadores vinculan varios dispositivos para permitir una rápida comunicación y transferencia de datos entre ellos. Tienen diferentes números de puerto que pueden oscilar entre 8 y 648 puertos; interconectan varias topologías como Fat-Tree y Clos necesarias para escalar la infraestructura de red de manera efectiva.
Por otro lado, los adaptadores de canal de host (HCA), también llamados adaptadores Infiniband, se instalan en dispositivos de red como servidores o sistemas de almacenamiento, permitiendo su conexión a una estructura InfiniBand. Los HCA facilitan el acceso directo a la memoria (RDMA) a través de Infiniband, lo que reduce la sobrecarga de la CPU y mejora así las tasas de transferencia de información. Admiten funciones importantes como QDR (velocidad de datos cuádruple) y FDR (velocidad de datos catorce), ambas necesarias para cumplir con los requisitos de alto rendimiento y baja latencia en los centros de datos modernos que prestan servicios a aplicaciones.
Juntos, estos dos tipos de dispositivos constituyen la parte principal de cualquier red InfiniBand: tienen diferentes propósitos, pero trabajan para lograr una comunicación eficiente y confiable en una amplia gama de aplicaciones informáticas de alto rendimiento.
Cables y conectores Infiniband
Para crear una red InfiniBand, necesita cables y conectores. Estos dos componentes conectan los conmutadores, adaptadores y otros dispositivos de la red. Normalmente, estos cables son de dos tipos: cobre y fibra óptica. Los cables de cobre se utilizan para distancias más cortas porque son más económicos y fáciles de instalar que la fibra óptica; SDR (velocidad de datos única), DDR (velocidad de datos doble) y QDR (velocidad de datos cuádruple) son algunas de las velocidades admitidas que pueden manejar los cables de cobre. Para distancias más largas o mayores demandas de rendimiento, se prefiere utilizar cable de fibra óptica ya que permite más ancho de banda con menos pérdida de señal.
Los conectores InfiniBand tienen varios formatos estandarizados como QSFP (Conectable de factor de forma pequeño cuádruple) que puede admitir velocidades de transferencia de datos QDR, FDR y EDR debido a su diseño de alta densidad; Este conector es lo suficientemente versátil como para poder usarse con cables de cobre y fibra óptica, lo que hace que la planificación de la red sea flexible y escalable.
En conclusión, los cables infiniband junto con sus conectores sirven como elementos cruciales para configurar una infraestructura de red de alto rendimiento sólida y adaptable donde pueden ser necesarias diferentes combinaciones de velocidades/distancias para una comunicación eficiente dentro de una red.
Configuración de puertos y nodos
En una red InfiniBand, la configuración de puertos y nodos es el proceso de configurar y administrar puertos y nodos de red con miras a optimizar el rendimiento y la confiabilidad. Un puerto, en este caso, se refiere a la interfaz a través de la cual un dispositivo se conecta a la red; Los conmutadores o adaptadores pueden tener muchos puertos para admitir múltiples conexiones. Por el contrario, los nodos son dispositivos o sistemas individuales conectados a una red, como servidores y dispositivos de almacenamiento, entre otros.
Configurar puertos implica darles direcciones además de asegurarse de que estén asignados correctamente para que la carga en las redes esté equilibrada. Los conmutadores InfiniBand utilizan algoritmos avanzados para el mapeo de puertos y la optimización de la ruta de datos. Esto permite una asignación dinámica que maximiza el rendimiento en todos los puntos y al mismo tiempo minimiza los retrasos dentro de cualquier sección determinada del sistema.
Por otro lado, al configurar un nodo es necesario especificar algunos parámetros de red como los GUID (identificadores globales únicos) de los nodos, así como políticas para los administradores de subred. El administrador de subred descubre todos los nodos dentro de la descripción de su topología de tejido y luego configura cada uno junto con sus interconexiones. Realiza la resolución de rutas, entre otras tareas, como el monitoreo del rendimiento y la gestión de fallas, lo que garantiza el funcionamiento eficiente de las redes al abordar rápidamente los problemas potenciales dondequiera que puedan ocurrir.
La configuración de puertos y nodos debe realizarse de manera efectiva si se quiere lograr una comunicación de alta velocidad caracterizada por una baja latencia en las redes InfiniBand. Por lo tanto, los administradores deben planificar cuidadosamente estos componentes mientras los administran para que pueda tener lugar una transmisión fluida de datos, garantizando así un rendimiento sólido de dichos entornos utilizados con fines informáticos de alto rendimiento.
Preguntas Frecuentes (FAQ)
P: ¿Qué es Infiniband y en qué se diferencia de otras tecnologías de red?
R: InfiniBand, utilizada principalmente en entornos informáticos de alto rendimiento, es una tecnología de red de alta velocidad y baja latencia. Tiene tasas de transferencia de datos mucho más altas que las de las redes Ethernet tradicionales y también latencias más bajas, lo que lo hace útil para interconectar servidores, dispositivos de almacenamiento y GPU. Las supercomputadoras también utilizan esta tecnología porque maneja eficientemente grandes cantidades de datos.
P: ¿Quién gestiona la especificación Infiniband?
R: La Asociación Comercial InfiniBand (IBTA) mantiene y desarrolla la especificación InfiniBand. IBTA garantiza que los productos de varios proveedores puedan trabajar juntos creando así una amplia gama de soluciones.
P: ¿Cuáles son los principales beneficios de utilizar Infiniband para la transferencia de datos?
R: En comparación con Gigabit Ethernet o Fibre Channel, que se consideran tecnologías de red convencionales, una menor latencia, un mayor rendimiento y una mejor escalabilidad se encuentran entre las muchas ventajas que conlleva el uso de infiniband para transferir datos. Por lo tanto, es adecuado en escenarios donde se necesita un movimiento de información rápido y confiable, como centros de datos o clústeres de HPC.
P: ¿Se puede utilizar Infiniband junto con redes Ethernet?
R: Sí; a través de pasarelas o adaptadores adecuados que permitan la integración entre ambos, las organizaciones pueden seguir disfrutando de las mayores velocidades que ofrecen las infinibands manteniendo intacta su compatibilidad con las infraestructuras Ethernet existentes.
P: ¿Qué velocidades de transferencia de datos puede admitir Infiniband?
R: Con NDR (Next Data Rate) a 400 Gbps (Gigabits por segundo), InfiniBand puede manejar incluso aplicaciones muy exigentes, como cargas de trabajo de IA o simulaciones científicas, que requieren cantidades extremadamente altas de rendimiento.
P: ¿Cuál es la forma en que Infiniband garantiza que la calidad de servicio (QoS) está destinada a aplicaciones críticas?
R: Se puede priorizar el tráfico y se puede asignar ancho de banda mediante infiniband para que se admita QoS. Esto garantiza que los programas importantes obtengan suficientes recursos de red para funcionar de la mejor manera. Los carriles virtuales y los niveles de servicio se encuentran entre las características que ayudan a garantizar una transferencia de datos consistente y confiable.
P: ¿Cuáles son algunos componentes de una arquitectura de red InfiniBand?
R: Algunos componentes que se encuentran dentro de una arquitectura de red InfiniBand incluyen adaptadores de canal de host (HCA), adaptadores de canal de destino (TCA), conmutadores InfiniBand y adaptadores de red, que juntos forman una estructura conmutada que se utiliza para interconectar servidores y dispositivos de almacenamiento, permitiendo así una comunicación de alta velocidad. entre ellos.
P: ¿Cómo logra Infiniband una latencia más baja en comparación con otras tecnologías de red?
R: A diferencia de las redes Ethernet tradicionales, esta tecnología logra una latencia menor al utilizar una pila de protocolos optimizada y un diseño de hardware eficiente. Para lograrlo, utiliza controladores de host que descargan las tareas de procesamiento de la CPU, lo que reduce el tiempo que se tarda en mover datos a través de una red, lo que da como resultado latencias mucho más bajas.
P: ¿Qué empresas ofrecen productos y soluciones Infiniband?
R: Los principales proveedores de este tipo de elementos son NVIDIA (antes Mellanox), Intel, entre otras firmas especializadas en computación de alto rendimiento y tecnología para centros de datos. Ofrecen clusters de distintas velocidades a través de distintos modelos, como adaptadores o switches, entre otros componentes necesarios para construir clusters/interconexiones de alta velocidad.
P: ¿Infiniband funciona bien con la conexión de GPU en informática de alto rendimiento?
R: Sí, lo hace de manera eficiente porque sus bajas latencias junto con altas velocidades de transferencia de datos permiten una conexión óptima entre estos dos dispositivos, lo que hace que la comunicación sea efectiva al realizar tareas computacionales como aprendizaje profundo o simulaciones científicas que requieren dicha funcionalidad.
Productos relacionados:
-
NVIDIA MMS4X00-NM Compatible 800 Gb/s Puerto doble OSFP 2x400G PAM4 1310nm 500m DOM Dual MTP/MPO-12 Módulo transceptor óptico SMF $900.00
-
10 m (33 pies) 12 fibras hembra a hembra Cable troncal MPO Polaridad B LSZH OS2 9/125 Modo único $32.00
-
NVIDIA MMA4Z00-NS Compatible 800 Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF Módulo transceptor óptico $650.00
-
Compatible con NVIDIA MFP7E10-N015 15 m (49 pies) 8 fibras Baja pérdida de inserción Hembra a hembra Cable troncal MPO Polaridad B APC a APC LSZH multimodo OM3 50/125 $54.00
-
NVIDIA MCP4Y10-N00A Compatible 0.5 m (1.6 pies) 800G Puerto doble 2x400G OSFP a 2x400G OSFP InfiniBand NDR Pasivo Cable de cobre de conexión directa $105.00
-
NVIDIA MFA7U10-H015 Compatible 15 m (49 pies) 400G OSFP a 2x200G QSFP56 Cable óptico activo HDR Breakout de doble puerto $785.00
-
NVIDIA MCP7Y60-H001 Compatible 1 m (3 pies) 400G OSFP a 2x200G QSFP56 Cable pasivo de conexión directa $99.00
-
NVIDIA MMS4X00-NM-FLT Compatible 800G Twin-port OSFP 2x400G Flat Top PAM4 1310nm 500m DOM Dual MTP/MPO-12 SMF Módulo transceptor óptico $1199.00
-
NVIDIA MMA4Z00-NS-FLT Compatible 800 Gb/s Twin-port OSFP 2x400G SR8 PAM4 850nm 100m DOM Dual MPO-12 MMF Módulo transceptor óptico $650.00
-
DAC pasivo InfiniBand NDR de 4 m (10 pies) 00 G, compatible con NVIDIA MCP0.5Y1.6-N800A-FTF, con puerto doble 2x400 G OSFP a 2x400 G OSFP, parte superior plana en un extremo y parte superior con aletas en el otro $105.00
-
Cable de cobre activo InfiniBand NDR de 4 m (80 pies) compatible con NVIDIA MCA003J3-N10-FTF de doble puerto 800x2G OSFP a 400x2G OSFP, parte superior plana en un extremo y parte superior con aletas en el otro $600.00
-
NVIDIA MMA4Z00-NS400 Compatible 400G OSFP SR4 Flat Top PAM4 850nm 30m en OM3/50m en OM4 MTP/MPO-12 Módulo transceptor óptico FEC multimodo $550.00
-
Tarjeta adaptadora NVIDIA Mellanox MCX75510AAS-NEAT ConnectX-7 InfiniBand/VPI, NDR/400G, OSFP de puerto único, PCIe 5.0x 16, soporte alto $1650.00
-
Tarjeta adaptadora NVIDIA Mellanox MCX653105A-HDAT-SP ConnectX-6 InfiniBand/VPI, HDR/200GbE, puerto único QSFP56, PCIe3.0/4.0 x16, soporte alto $1400.00
-
NVIDIA MCP7Y50-N001-FLT Compatible 1 m (3 pies) 800G InfiniBand NDR Twin-port OSFP a 4x200G Flat Top OSFP Breakout DAC $255.00
-
NVIDIA MCA7J70-N004 Compatible 4 m (13 pies) 800G InfiniBand NDR Twin-port OSFP a 4x200G OSFP Breakout ACC $1100.00
-
NVIDIA MCA7J60-N004 Compatible 4m (13ft) 800G Twin-port OSFP a 2x400G OSFP InfiniBand NDR Breakout Cable de cobre activo $800.00
-
NVIDIA MCP7Y00-N001-FLT Compatible 1 m (3 pies) 800G OSFP de doble puerto a 2x400G OSFP de parte superior plana InfiniBand NDR Breakout DAC $160.00