Transceptor óptico 800G: SR8 vs DR vs FR vs LR vs FR4 vs LR4 vs FR8
Los patrocinadores del MSA conectable 800G son principalmente empresas chinas y japonesas, entre las que se incluyen principalmente China Telecom Technology Laboratory, H3C, Huawei, Sumitomo, Tencent y Yamazaki. El objetivo es definir módulos ópticos conectables de bajo costo para aplicaciones de centros de datos con transmisión de 800G de corto alcance, incluidas las especificaciones 8X100G y 4X200G, con distancias de transmisión que incluyen 100 m, 500 m y 2 km, como se muestra en la siguiente figura.
Actualmente, hay algunas opiniones en la industria de que las necesidades de transmisión de 800G surgirán en 2021, y el mercado comenzará a madurar en 2023. En consecuencia, existe un grupo de trabajo del módulo óptico QSFP-DD800 MSA liderado por el gigante de las comunicaciones de EE. UU. Broadcom y Cisco para promover la estandarización de módulos ópticos 800G y conectores relacionados en formato QSFP-DD.
Figura 1. El alcance de la investigación de 800G MSA
El contenido general de este artículo:
1. Las nuevas aplicaciones (computación en la nube, aplicaciones de IA) han provocado la demanda de un mayor ancho de banda de interconexión, y la industria necesita módulos ópticos más rápidos, como 800G;
2. Arquitectura del centro de datos y requisitos de ancho de banda de los conmutadores en diferentes ubicaciones;
3. Requisitos del escenario de interconexión SR, análisis técnico de la solución 8x100G;
4. Necesidad de análisis de FR para interconectar el escenario, la viabilidad de la tecnología 4x200G, tecnología clave;
5. Posibles soluciones técnicas para escenarios DR;
6. Resumen y perspectivas.
Figura 2. Principales empresas impulsoras de 800G MSA
1. Antecedentes: se acerca el mercado de 800G
Según la investigación de Fiber Mall, las nuevas aplicaciones como AR/VR, AI y 5G generarán cantidades crecientes de tráfico y crecerán exponencialmente. Esto conducirá a la necesidad de más ancho de banda y más conexiones, como se muestra en la figura. La capacidad de ancho de banda de interconexión global seguirá creciendo rápidamente durante los próximos cuatro años, con una tasa de crecimiento compuesta del 48 %.
Figura 3. Índice de Interconexión Global
El mercado correspondiente a la demanda también refleja esta tendencia. Como se muestra en la Figura 4, el conteo de luz predice que los módulos ópticos de 400G en el mercado de centros de datos crecerán rápidamente en los próximos cinco años, y aparecerá un mercado de 2x400G u 800G alrededor de 2022. Según Vladimir, Ph.D., CEO de Lightcounting Market Research, los operadores de centros de datos en la nube implementarán módulos ópticos 800G QSFP-DD y 800G OSFP en 2023 y 2024 para hacer frente al creciente tráfico de red. La mayoría de estos módulos ópticos serán enchufables y es posible ver módulos empaquetados conjuntamente.
Figura 4. Pronóstico de ventas anuales del mercado de módulos ópticos para centros de datos
Como la Ley de Moore de duplicar la capacidad en dos años aún no ha vencido en los chips ASIC de conmutación, la arquitectura de los centros de datos en la nube se verá desafiada por la expansión de la capacidad. Los conmutadores Ethernet actualmente desplegados comercialmente tienen una capacidad de 12.8 Tb/s, aunque serán reemplazados por 25.6 Tb/s en 1 año. La ruta de evolución de la capacidad para los conmutadores se muestra en la Figura 5, lo que ejercerá una enorme presión sobre las interconexiones ópticas de alta densidad. Esto se debe a que no todos los dispositivos optoelectrónicos pueden duplicar su densidad de integración cada dos años como lo hacen los procesos CMOS. Esto está determinado por las diferencias en los dispositivos, el diseño y los métodos de fabricación.
Figura 5. Ley de evolución de la capacidad del chip de conmutación del centro de datos
En los últimos años, los módulos ópticos de corto alcance de 100G basados en sondeo directo NRZ han causado un gran revuelo, transportando la mayor parte del tráfico de rápido crecimiento para los servicios en la nube. Desde que el IEEE inició la investigación sobre estándares relacionados con 400GE en marzo de 2011, marcó el comienzo de la implementación de módulos ópticos QSFP-DD de 400G a escala en 2020 y la demanda será aún mayor el próximo año. La Figura 4 ilustra esta tendencia de crecimiento. Vale la pena señalar que en la etapa temprana de aplicación, los módulos QSFP-DD de 400G se utilizan principalmente para la transmisión en escenarios DR4 con tasas de 4x100G y distancias de hasta 500m, así como escenarios FR4 con tasas de 2x200G y distancias de hasta 2km, el 400GE La función MAC no se usa realmente. Al mismo tiempo, también se observa que es posible que el IEEE no estandarice los puertos ópticos 800GE en el corto plazo, al menos en los últimos dos años no completará la interconexión de alta densidad 8x100GE o 2x400GE del estándar 800GE. Pero para entonces ha surgido la demanda real de 800G, por lo que la industria necesita desarrollar especificaciones para lograr la interconexión y la interoperabilidad de los productos de módulos ópticos 800G de diferentes fabricantes.
2. Arquitectura del centro de datos
En general, la arquitectura del centro de datos y las características del tráfico pueden diferir según la aplicación que se esté sirviendo. Por ejemplo, es más probable que el tráfico principal en un centro de datos que proporciona servicios de tipo XaaS para clientes externos sea de servidor a cliente de norte a sur, en cuyo caso el tamaño del centro de datos puede estar más concentrado geográficamente. Por el contrario, en un centro de datos orientado al almacenamiento o en la nube para necesidades internas, es más probable que el tráfico fluya de este a oeste de servidor a servidor, lo que normalmente requiere una concentración de recursos del mega centro de datos. Aunque los escenarios de aplicación son similares, los operadores aún pueden elegir soluciones de interconexión óptica basadas en PSM4 o CWDM4 según sus propias preferencias. Esto conduce a una diversidad de arquitecturas y tecnologías de centros de datos.
Hay al menos dos arquitecturas de centros de datos comunes. La siguiente figura muestra una arquitectura de centro de datos típica (3 niveles) y su hoja de ruta de evolución de la tasa de conmutación. Sin embargo, un centro de datos típico tendrá más dispositivos que el de la figura y la arquitectura parecerá más grande y compleja. La relación de convergencia de aproximadamente 3:1 se considera entre cada capa. Por ejemplo, un conmutador Spine se puede conectar a tres conmutadores Leaf, y así sucesivamente. Además de la capa Spine, se necesita una solución de interconexión óptica coherente de tipo ZR para lograr la interconexión con otros centros de datos (escenario DCI). El símbolo de la tasa de interfaz de 800G es que cuando la tasa entre el servidor y el conmutador TOR alcanza los 200G, se debe adoptar la estructura de abanico PSM4 4x200G entre TOR y Leaf, así como la capa Spine.
Figura 6. Arquitecturas comunes de centros de datos de capa 3 y evolución de la tasa de interconexión óptica
Los conmutadores TOR, Leaf y Spine corresponden en realidad a la capa de acceso, la capa de agregación y la capa central. Para una red de centro de datos (DCN) típica, se requieren 800 G de ancho de banda de conexión de red si se implementan 200 G de ancho de banda de servidor. Sin embargo, se pueden hacer algunas concesiones en la capacidad del centro de datos para proporcionar servicios (ancho de banda, distancia de transmisión y otros recursos) en función del presupuesto de construcción del centro de datos. Como en la Tabla 1, se proporcionan los requisitos de ancho de banda y distancia de transmisión para diferentes niveles en la red del centro de datos, y se indican los requisitos de tamaño de paquete de módulo óptico recomendados.
Tabla 1. Requisitos de ancho de banda y distancia de transmisión para diferentes capas de DCN
Teniendo en cuenta las demandas informáticas masivas de las aplicaciones de IA emergentes recientemente, generalmente se adopta una arquitectura de conmutación de dos capas en algunos clústeres de supercomputadoras orientados a aplicaciones de IA o centros de datos de IA, como se muestra en la Figura 7. Esto se debe a que, considerando las características de la informática de IA , no hay necesidad de agregación de tráfico entre capas. Como el tráfico de cada servidor ya es muy grande, corresponde directamente a una interfaz de conmutador y disfruta de recursos de ancho de banda exclusivos. Se puede ver que las características del tráfico de esta red de centros de datos de IA o supercomputadoras son diferentes de las de los centros de datos convencionales. Se trata principalmente de servicios de tráfico de partículas grandes que no necesitan un intercambio frecuente.
Figura 7. Arquitectura de red del centro de datos AI/HPC y demostración de velocidad
Esta red de centro de datos de capa 2 no requiere agregación de tráfico entre capas. Si se implementan servidores de 400 G, se requiere un ancho de banda de interconexión de red de 800 G. En comparación con la red tradicional del centro de datos conmutado de tres capas, esta arquitectura de dos capas es más conveniente para una implementación rápida y tiene una latencia más baja, lo que es muy adecuado para la IA futura o la supercomputadora DCN. La Tabla 2 muestra los indicadores técnicos específicos de esta DCN.
Tabla 2. Requisitos de la red del centro de datos de IA o HPC
Sin embargo, en algunas pequeñas empresas o pequeñas redes de centros de datos en la nube, es posible que la velocidad de transferencia entre Leaf y los servidores no requiera tanto ancho de banda como 400 G, lo que requiere un diseño específico que considere la relación entre los escenarios de aplicación reales que se enfrentan y el costo.
Hablemos de lo que debe buscar en la construcción de un centro de datos. Los dos factores más importantes que deben tenerse en cuenta en una solución de centro de datos son la escalabilidad y el costo. Al diseñar un centro de datos, el control de costos y el rendimiento no se pueden construir con un estándar que sea demasiado alto o demasiado bajo. Si los usuarios construyen en exceso, habrá recursos desperdiciados, aunque estos recursos se pueden usar para expandir más negocios. Pero la capacidad de recursos inactivos es costosa, y esa capacidad puede convertirse en tecnología obsoleta cuando realmente se necesita utilizarla. Por ejemplo, si un usuario construye un centro de datos con un ciclo de vida esperado de 10 años y tiene capacidad adicional incorporada para adaptarse al crecimiento futuro, esa capacidad puede volverse obsoleta en cinco años. En ese momento, los avances en el consumo de energía, el rendimiento y otras características pueden poner las operaciones y el mantenimiento del centro de datos en una desventaja significativa.
Los centros de datos también pueden ser un desafío si se construyen con un estándar más bajo e incluso pueden ser más costosos. Si la capacidad del usuario para diseñar reglas no cumple con los requisitos planificados, habrá un gasto de capital significativo al expandir y actualizar el centro de datos.
Es debido a la posible construcción del centro de datos anterior sobre o debajo del problema, por lo que la rápida expansión del centro de datos, la operación conveniente y el costo de estos problemas importantes son las prioridades de muchas empresas.
Se debe a la posible sobreconstrucción o subconstrucción de los centros de datos antes mencionada. Por lo tanto, los principales problemas de la rápida expansión del centro de datos, la facilidad de operación y el costo son prioridades para muchas empresas. Para la solución más flexible, las empresas suelen elegir el modelo de alojamiento del centro de datos. Los operadores de alojamiento de centros de datos permiten a los usuarios "pagar a pedido, escalar gradualmente". Los usuarios pueden ampliar o reducir el espacio alquilado según sea necesario y solo pagan la tarifa de uso asociada. Esto elimina la capacidad no utilizada o infrautilizada del usuario, elimina todos los problemas relacionados con la infraestructura y maximiza el valor de su inversión en TI.
Sin embargo, esto no es un problema para algunos gigantes de Internet, que están más preocupados por el valor de los datos en sí mismos, por lo que no dudarán en invertir mucho dinero para construir sus propios centros de datos y brindar sus propios servicios en la nube, manteniendo activos clave. en sus propias manos. Por ejemplo, Alibaba, Tencent, Baidu, Facebook, Google e incluso algunos de ellos tienen departamentos de investigación relacionados con la infraestructura de red dedicados, investigando varias soluciones de interconexión óptica de bajo costo y alta velocidad, incluso el módulo óptico para desarrollar el suyo propio. El objetivo es construir una mejor red de centros de datos, brindar servicios más rápidos y diversos y atraer a más usuarios.
Finalmente, vale la pena explicar por qué las redes de centros de datos se han vuelto tan populares en los últimos años. Todo comienza con un vídeo. El último pronóstico de tráfico de VNI de Cisco, que se muestra a continuación, muestra que el tráfico de video se ha convertido en una parte cada vez más importante de la red en los últimos años y se espera que represente más del 80% de todo el tráfico de Internet para 2022. Esto no será una sorpresa para usted, ya que somos los destinatarios y productores de tráfico de video todos los días. El auge del servicio de video es el cambio de la arquitectura de la red portadora y la distribución del tráfico. Con la construcción de redes de distribución de contenido (CDN) y el hundimiento de las redes de centros de datos (DCN), el contenido, como videos y archivos, se almacena en caché más cerca del usuario, lo que proporciona una latencia más baja y un almacenamiento en búfer más rápido. La mayor parte del tráfico ya no necesitaría viajar largas distancias en la red troncal, sino que terminaría dentro del rango de redes de área metropolitana de corta y media distancia o redes de centros de datos. Ya en 2017, hubo un informe de que el tráfico MAN de corta y media distancia había superado al tráfico troncal de larga distancia. El centro de datos, especialmente la interconexión del centro de datos (DCI) en la nube, es la aplicación más típica de las redes metropolitanas. Por lo tanto, no es de extrañar que el tema esté candente en los últimos años.
Figura 8. Pronóstico de tráfico VNI más reciente de Cisco
Solución 3.8x100G para escenario 800G SR
a) Análisis de requisitos del escenario de aplicación de 800G QSFP-DD o OSFP SR
Para la transmisión de centros de datos de 100 m, la industria se ha visto afectada por la tecnología de transmisión VCSEL con un límite de velocidad de alrededor de 100 G por canal, y parece difícil continuar aumentando la velocidad. El 800G MSA tiene como objetivo desarrollar módulos ópticos 8x100G QSFP-DD u OSFP de bajo costo para aplicaciones SR, asegurando al menos las aplicaciones más importantes en SR, admitiendo transmisiones de 60 a 100 m, como se muestra en la Figura 9.
Además, el grupo de trabajo 800G MSA está tratando de definir una tecnología de transmisor que permita una reducción lineal del costo a través de un enfoque altamente integrado para permitir un avance rápido y temprano en el mercado de interconexiones ópticas de alta densidad 800G. El 800G SR8 de bajo costo puede respaldar las tendencias evolutivas actuales del centro de datos al proporcionar conectividad de servidor serial 100G de bajo costo: puertos de conmutador crecientes y cantidades decrecientes de servidores por bastidor. Como se muestra en la Figura 9, el grupo de trabajo 800G MSA definirá una especificación de subcapa dependiente del medio (PMD) física de bajo costo para interconexiones de fibra monomodo basadas en la tecnología 100G PAM4. Además, debido a la necesidad de baja latencia en las aplicaciones SR, KP4 FEC se utilizará para implementar la corrección de errores en módulos ópticos 800G MSA, y otros algoritmos DSP incluyen recuperación y ecualización de reloj simple. También será necesario definir un conector para que el módulo PSM8 permita la conexión a 8x100G.
Figura 9. Diagrama de bloques de la arquitectura del módulo óptico 800G SR8/PSM8 y rango de especificación 800G MSA
En comparación con los módulos SR convencionales, el 800G SR8 ya no utilizará una solución multimodo basada en VCSEL, sino un método de transmisión monomodo paralelo, PSM8, con un formato de modulación PAM4 e incluye un chip DSP.
b) Análisis de viabilidad de la solución 8x100G
Como se analizó anteriormente, la tasa de 100G de un solo canal puede limitar la solución multimodo en 400G QSFP-DD SR8 para continuar la evolución a 800G QSFP-DD SR8. Con base en el modelo teórico de IEEE, se puede inferir que cuando la tasa de baudios alcance la banda de 50G, la distancia de transmisión soportada por fibra multimodo MMF no superará los 50m, como se muestra en la Tabla 3.
Los principales factores limitantes son el ancho de banda de modulación de VCSEL y la dispersión intermodal de MMF. Aunque la distancia de transmisión se puede extender a aproximadamente 100 m con la ayuda del poderoso algoritmo DSP al optimizar el dispositivo y el diseño de fibra óptica, el costo es alto, con un gran retraso y consumo de energía. En base a esto, el grupo de trabajo del módulo óptico conectable 800G de MSA recomienda la tecnología de transmisión monomodo para la interconexión 800G-SR8.
Tabla 3. La relación entre el ancho de banda MMF y la distancia de transmisión se predice según el modelo teórico IEEE
Para garantizar una solución basada en SMF de fibra monomodo con menor costo y consumo de energía, se deben definir requisitos estándar de PMD razonables para el 800G-SR8. La definición de la capa PMD debe satisfacer al menos tres principios:
1) Permitir múltiples tecnologías de transmisores basadas en soluciones, como DML, EML y SiPh.
2) Todo el potencial del dispositivo se puede utilizar por completo para lograr el rendimiento del enlace objetivo.
3) Los parámetros de la capa PMD se relajan tanto como sea posible siempre que se satisfaga la calidad de funcionamiento fiable del enlace. Estos tres principios se explican y analizan a continuación con los resultados del estudio experimental.
En primer lugar, en términos de presupuesto de energía, se espera que el 800G-SR8 basado en monomodo sea muy similar al 400G-SR8, la única diferencia es la necesidad de definir la pérdida de inserción para el conector monomodo PSM8 recientemente definido. . Esto significa que el chip DSP puede cumplir con los requisitos de presupuesto de energía del 800G-SR8 usando directamente los dispositivos optoelectrónicos probados de la interconexión 400G-SR8 actual. Por lo tanto, además de definir el conector PSM8, el mayor desafío en la definición de la especificación PMD 800G-SR8 radica en encontrar la amplitud de modulación óptica (OMA), la relación de extinción (ER), el transmisor y el cierre del ojo de dispersión del transmisor apropiados para PAM4 (TDECQ) y la sensibilidad del receptor. Para encontrar estas métricas adecuadas, el grupo de trabajo de MSA probó y evaluó el rendimiento de BER de varios transmisores diferentes, como se muestra en la Figura 10.
Figura 10. (a) Resultados EML BER frente a OMA basados en ASIC DSP de 400 G disponibles comercialmente; (b) Resultados SiPh BER frente a OMA basados en ASIC DSP de 400 G disponibles comercialmente, (c) Resultados DML BER frente a OMA basados en ASIC DSP de 400 G disponibles comercialmente
Los resultados experimentales anteriores son curvas BER frente a OMA medidas en tiempo real en una señal PAM100 de 4G de longitud de onda única basada en un chip DSP comercial de 400G. Entre ellos, los resultados de 100G de EML y SiPh ya se pueden conocer porque se han discutido en los últimos años, pero la sensibilidad basada en la solución DML también es bastante buena, solo la plataforma BER es un poco más alta, pero mientras sea por debajo del umbral BER de KP4 FEC. Dado que la fotónica de silicio, la pérdida del transmisor óptico es un poco mayor, su potencia de salida es menor que otras soluciones, por lo que debe tratar de considerar la relajación adecuada al definir el índice OMA mínimo de 800G SR8.
Tenga en cuenta que aunque los dispositivos DML con un ancho de banda más pequeño que los dispositivos EML y SiPh se usan en los resultados DML anteriores, el uso de chips DSP comerciales que son más potentes que el receptor de referencia 400GE definido por IEEE aún puede lograr una mejor ecualización y una sensibilidad OMA similar a la de EML y SiPh para cumplir con el presupuesto de energía 800G SR8. Para liberar todo el potencial de DSP en aplicaciones 800G SR8, las pruebas de cumplimiento del receptor, como TDECQ, deben redefinirse para que coincidan con la capacidad de ecualización real de los chips DSP comerciales, como más derivaciones que las 5 derivaciones definidas actualmente.
Por otro lado, considerando los requisitos de menor sensibilidad en escenarios SR y las estrictas restricciones de consumo de energía en los módulos ópticos 800G, también se recomendará el uso de modos DSP de baja complejidad en los futuros módulos ópticos 800G. La relación de extinción ER, como métrica directamente relacionada con el consumo de energía, es teóricamente cuanto menor sea la ER, mejor siempre que se garantice la transmisión confiable del enlace. Con base en el análisis anterior, el grupo de trabajo de MSA cree que una solución de bajo costo y bajo consumo de energía basada en SMF se puede utilizar como una solución prometedora para las aplicaciones 800G-SR.
4. Solución 4x200G para escenario 800G FR
a) Análisis de requisitos del escenario 800G FR QSFP-DD o OSFP
La transmisión de 200G de un solo canal basada en la tecnología de modulación PAM4 es el próximo gran hito técnico para los sistemas de Detección Directa de Modulación de Intensidad (IMDD) y la base para lograr interconexiones ópticas de 4G de 800 canales e incluso más interconexiones de alta velocidad de 1.6T basadas en ella.
Como se muestra en la Figura 11, el grupo de trabajo definirá un conjunto completo de especificaciones de capa PMD y PMA parcial, incluida una nueva solución FEC de baja potencia y baja latencia para envolver una capa sobre la señal de entrada eléctrica 112G para mejorar la ganancia de codificación neta. del módem.
Uno de los objetivos de la industria es desarrollar una nueva generación de simuladores eléctricos y ópticos de banda ancha para componentes de transmisores y receptores, incluidos los ADC y DAC de uso común. Para cumplir con los requisitos de alimentación de los módulos ópticos conectables de 800G, la próxima generación de chips DSP PAM200 de 4G se fabricará utilizando un proceso CMOS de unión inferior, como 7nm/5nm, y también requerirá algoritmos de procesamiento de señales digitales de baja potencia y baja complejidad. para ecualizar el canal.
Figura 11. Diagrama de bloques de la estructura del módulo óptico 800G FR4/PSM4 y rango de especificación 800G MSA
La solución de interconexión 4x200G FR parece tener dos rutas de realización, una es una solución PSM4 con 4 pares de fibras monomodo y la otra utiliza un solo par de fibras basadas en CWDM4, que todavía tiene una diferencia relativamente grande en el puerto óptico externo. densidad, y el costo y la complejidad de los módulos CWDM4 también deben aumentar significativamente.
b) Análisis de viabilidad de la solución 4x200G
En LAN-WDM, se requiere TEC para el control de temperatura, mientras que en la aplicación 200G de un solo canal, se espera que se evite el control de temperatura. El presupuesto de energía para 800G-FR4 se analizará en función de CWDM4. Los principales factores relacionados con el balance de potencia incluyen la pérdida de inserción del enlace, la interferencia de trayectos múltiples (MPI), el retraso de grupo diferente (DGD) y la penalización por dispersión y transmisor (TDP). Según el modelo publicado en el estándar IEEE, la penalización causada por MPI y DGD se calcula como se muestra en la Tabla 4. Dado que el baudio de un solo canal 200G es superior a 100G, la penalización por dispersión debe ser mayor. El grupo de trabajo recomendó un valor TDP razonable de 3.9 dB. En resumen, teniendo en cuenta el envejecimiento del receptor, las pérdidas de acoplamiento y la potencia de salida óptica de un transmisor típico, el grupo de trabajo concluyó que la sensibilidad del receptor 200G PAM4 debe ser de alrededor de -5dBm.
Tabla 4. Análisis de presupuesto de energía de 800G-FR4
En comparación con 100G, los baudios de 200G se duplican, lo que da como resultado una degradación de SNR de 3dB. Puede ser necesario utilizar códigos de corrección de errores FEC más fuertes para mantener una sensibilidad de -5dBm y evitar que la plataforma BER supere el umbral Pre FEC BER. Por lo tanto, como se mencionó anteriormente, una capa adicional de FEC de baja latencia y baja complejidad debe envolverse encima de KP4 FEC cuando se implementa el módulo óptico. El nuevo umbral de error de FEC se puede establecer de acuerdo con los requisitos reales de rendimiento del enlace óptico y de presupuesto de energía.
El grupo de trabajo también analizó más a fondo el rendimiento del enlace de 200G de un solo canal a través de simulaciones y experimentos. Los parámetros de los dispositivos utilizados en el enlace se muestran en la Tabla 5. Los resultados experimentales muestran que cuando el umbral de BER del nuevo FEC se establece en 2e-3, la sensibilidad del receptor puede alcanzar el objetivo, como se muestra en la Figura 12 (a ). Sin embargo, el algoritmo de estimación de secuencia de máxima verosimilitud (MLSE) se usa en los experimentos para compensar la fuerte interferencia ISI entre códigos en el canal debido al filtrado de banda estrecha.
La línea discontinua en la Figura 12(a) representa los resultados basados en la simulación de parámetros del dispositivo experimental. Junto con los resultados experimentales, el estudio de simulación muestra que el factor limitante para el rendimiento del sistema es el ancho de banda de los dispositivos como DA/AD, controlador y modulador electroóptico. Suponiendo que los dispositivos de alto ancho de banda se introduzcan en el mercado en los próximos años, la simulación se basa en el mismo sistema, pero después de configurar el ancho de banda del dispositivo a un tamaño mayor, se encuentra que el requisito de sensibilidad correspondiente se puede cumplir en el DSP en Pre FEC BER=2e-3 usando solo el algoritmo de ecualización directa (FFE), y los resultados se muestran en la Fig. 4 (b), que está de acuerdo con la expectativa teórica.
Tabla 5. Parámetros del dispositivo utilizados en experimentación y simulación
Figura 12. (a) Resultados experimentales y de simulación de un solo canal de 200 G en la condición del ancho de banda del dispositivo existente; (b) Resultados de simulación de ecualización FFE de un solo canal de 200 G con dispositivos con ancho de banda mejorado.
Con base en el análisis anterior, todavía se recomienda cumplir con las métricas TDECQ correspondientes en la prueba de cumplimiento del escenario 800G-FR4. Solo el número de derivaciones FFE de los receptores de referencia utilizados en las pruebas TDECQ debe aumentarse a un valor apropiado, lo que también merece una mayor discusión y estudio. Por supuesto, si la capacidad (ancho de banda) de los futuros dispositivos de 100 Gbd no cumple con nuestras expectativas, aún tendremos que considerar el uso de algoritmos más complejos como MLSE en el escenario FR4, lo que significa desarrollar nuevas soluciones de cumplimiento.
c) Análisis de solución de empaque 4x200G
Para garantizar la integridad de la señal de alta velocidad considerando el rango de frecuencia de Nyquist (es decir, 56 GHz), se debe reconsiderar el diseño del paquete del transmisor 4x200G y el receptor. En la Figura 13 se dan dos posibles implementaciones del transmisor. El método A es la solución tradicional donde el controlador y el modulador se colocan juntos. Por el contrario, el chip Driver diseñado al revés en la solución B se empaqueta conjuntamente con el chip DSP para optimizar la integridad de la señal en la línea de transmisión de RF. Ambas tecnologías están actualmente disponibles.
Los estudios preliminares de simulación muestran que se pueden obtener mejores resultados y anchos de banda garantizados superiores a 56 GHz utilizando la solución B. La ondulación en la curva de respuesta de frecuencia S21 de la solución A puede ser causada por la reflexión de la señal en la entrada del controlador, que se puede optimizar haciendo coincidir la Diseño del controlador para mejorar aún más el rendimiento final de la solución A.
Figura 13. Dos tipos de embalaje para el transmisor. La línea de transmisión de RF (línea roja), la alineación y el modulador se consideran en la simulación S21, y se supone que el ancho de banda de 3 dB del chip EML utilizado es de 60 GHz.
En el lado del receptor, la capacitancia parásita debe reducirse para lograr un fotodetector (PD) de gran ancho de banda, junto con un amplificador de transimpedancia (TIA) de gran ancho de banda para garantizar el ancho de banda del receptor. No existe ningún problema técnico para implementar un dispositivo de este tipo utilizando la tecnología de semiconductores actual. Incluso hay empresas en la industria que ya han invertido mucho esfuerzo en desarrollar los productos correspondientes, que se espera alcancen la producción en masa dentro de uno o dos años. Además, la conexión entre PD y TIA también es importante y debe optimizarse y analizarse porque los efectos parásitos pueden afectar el rendimiento.
d) Codificación de corrección de errores hacia adelante (FEC) en un solo canal 200G
En general, se mencionó anteriormente una solución FEC más fuerte con un umbral PreFEC BER de 2e-3 para garantizar los requisitos de sensibilidad del receptor 200G PAM4. La Figura 14 muestra los resultados de la comparación entre las soluciones en cascada y de reemplazo. En la primera solución, el FEC KP4 se reemplaza con el FEC nuevo y más costoso en el puerto óptico intermedio, que tiene ventajas en términos de sobrecarga total y ganancia neta de codificación. En la segunda solución, se adopta un enfoque de FEC en cascada, en el que KP4 continúa reteniéndose como la capa de codificación externa y se usa junto con el nuevo código interno. Este código en cascada tiene la ventaja de una latencia y un consumo de energía bajos y, por lo tanto, es más adecuado para el escenario de aplicación 800G-FR4.
Figura 15. Solución 800G FEC: FEC de reemplazo nuevo frente a FEC KP4 en cascada
Una forma más directa de lograr el umbral FEC de BER 2E-3 es conectar los números de generación que se muestran en la Figura 16 en serie con KP4, minimizando el consumo de energía y el retraso de extremo a extremo. Tanto los códigos Hamming con capacidad de corrección de BER simple como los códigos BCH con capacidad de corrección de BER doble son opciones adecuadas para los códigos de generación en este esquema en cascada. Ambos códigos internos tienen una sobrecarga de alrededor del 6% y, combinados con un algoritmo de decodificación recursivo simple de entrada y salida suave (SIHO) con 64 patrones de prueba, tanto los códigos Hamming como BCH pueden lograr un rendimiento de corrección de errores de umbral superior a 2e-3. La distribución de símbolos definida en 400GBASE-R sirve esencialmente como intercalador de paridad para la codificación en cascada, y el retraso de 10k bits es suficiente para la descorrelación con el ruido introducido en la fibra.
Figura 16. Diagrama de estructura del esquema en cascada para KP4 y códigos lineales
5. Posibles soluciones para escenarios 800G DR QSFP-DD u OSFP
Como se muestra en la Tabla 6, hay cuatro caminos para lograr 800G DR.
En primer lugar, la solución SR8 definida en 800G MSA puede ampliar directamente el rango de transmisión en 500 m. Dado que la solución de fibra paralela requiere más fibras, el costo de las fibras de hasta 500 m de largo puede ser un problema en esta aplicación.
En segundo lugar, basándose en la solución FR4 existente, se puede proporcionar una solución CWDM 2x400G simplemente duplicando los dispositivos transceptores, lo que parece lograr un buen equilibrio entre el consumo de recursos de fibra y la madurez del esquema, pero su costo y consumo de energía pueden limitar su aplicación práctica. .
Finalmente, la próxima generación de soluciones 200G de un solo canal (PSM4 o CWDM4) puede cubrir las aplicaciones DR. Este enfoque requiere solo 4 pares de módulos transceptores ópticos y parece tener el consumo de energía y el costo más bajos. Sin embargo, debido a la madurez de la industria y la viabilidad práctica de pruebas adicionales, no está claro cuándo estará disponible comercialmente la solución.
Tabla 6. Cuatro posibles soluciones para 800G DR
En resumen, se han discutido cuatro opciones posibles para 800G DR y el Grupo de Trabajo continuará monitoreando el desarrollo de cada ruta técnica y recomendará opciones en el momento apropiado en el futuro.
6. Resumen y perspectiva
El MSA conectable 800G tomará la delantera en la definición de módulos ópticos para los escenarios 800G-SR8 y FR4. En el escenario SR8, para tener en cuenta más tecnologías e introducir soluciones monomodo basadas en SMF, el grupo de trabajo consideró los ajustes apropiados a algunos parámetros clave de la capa PMD, lo que eventualmente permitió que los requisitos de OMA y ER se relajaran para reducir el consumo de energía y los receptores de referencia para las pruebas TDECQ deberán redefinirse.
El grupo de trabajo también demostró la viabilidad técnica de la transmisión óptica de 200G de un solo canal para aplicaciones de 800G FR4. Los resultados experimentales y de simulación mostraron que es necesario agregar una subcapa de codificación FEC de baja latencia y baja potencia en el módulo óptico para lograr el presupuesto de energía objetivo. Los detalles técnicos de este nuevo FEC se presentarán en la especificación estándar 800G-FR4 para facilitar la interoperabilidad de múltiples proveedores. Al mismo tiempo, la mejora del ancho de banda del dispositivo y la optimización del diseño del paquete del módulo son dos temas que necesitan más estudio.
El MSA conectable 800G lanzó la primera versión de la especificación en el cuarto trimestre de 4, con una pequeña cantidad de dispositivos ya en prototipo y se espera que los primeros modelos ópticos 2020G estén disponibles en 800. Con la generación 2021GbE lista para su lanzamiento en el mercado, Los módulos ópticos enchufables de 400G aprovecharán el nuevo ecosistema para proporcionar una mayor densidad de interconexión para la próxima generación de conmutadores de 800 T y 25.6 T para permitir interconexiones ópticas rentables de un solo canal de 51.2 G y 100 G.
Mirando más allá de 800G a 1.6T, la industria está comenzando a ver las posibles limitaciones de los módulos ópticos enchufables. Al utilizar PCB clásicas, es poco probable que las interconexiones SerDes para C2M se amplíen a velocidades de 200G de un solo canal, lo que requiere dispositivos electrónicos/chips analógicos y dispositivos ópticos que se coloquen más cerca del chip de conmutación. Ya sea que la industria finalmente elija óptica empaquetada (CPO), óptica a bordo (OBO), o una versión mejorada de conectable, la definición de MSA de 200G de un solo canal será 800G y 1.6T interconectan la unidad base necesaria, la importancia, y el significado de evidente por sí mismo.