¿Cómo se procesan 255 Tbit / s en comunicación de fibra óptica?

24

Nunca he entendido cómo se logran las nuevas velocidades de transferencia de datos de ruptura de registros en términos de conversión de / a señales eléctricas y ópticas.

Supongamos que tenemos 255 Tbits de datos y queremos transferirlos en un segundo. (Este es un logro del mundo real). Tienes 255 Tbits almacenados en, digamos, 255 trillones de capacitores (eso es RAM). Ahora se espera que podamos leer cada uno sucesivamente, indagando cada bit de modo que un segundo después, hayamos leído los 255 trillones de ellos. Obviamente, esto no está orquestado por un procesador de 3 GHz.

¿Qué pasa con el extremo receptor? Los pulsos llegan a 255 THz, pero la frecuencia de actualización de los dispositivos electrónicos que intentan leer una señal entrante no es de 255 THz. Lo único que puedo imaginar es que miles de procesadores con sus señales de reloj con división de tiempo multiplexados (retrasados) por menos de 0.000000000001 segundos. Aunque la forma de lograr tal multiplexación también me devuelve a mi problema con esta diferencia de mil veces en las frecuencias.

    
pregunta stevie

3 respuestas

43

En lugar de preocuparte por un trabajo de investigación que está llevando las cosas al límite, comienza por entender las cosas que tienes delante.

¿Cómo un disco duro SATA 3 en una computadora en el hogar pone 6 Gbits / s en un enlace serial? El procesador principal no es de 6 GHz y el del disco duro no lo es tanto, según su lógica, no debería ser posible.

La respuesta es que los procesadores no están sentados allí poniendo un bit a la vez, hay un hardware dedicado llamado SERDES (serializador / deserializador) que convierte un flujo de datos paralelo de menor velocidad en uno de alta velocidad en serie y luego De vuelta al otro extremo. Si eso funciona en bloques de 32 bits, la velocidad es inferior a 200 MHz. Y esos datos luego son manejados por un sistema DMA que mueve automáticamente los datos entre los SERDES y la memoria sin que el procesador se involucre. Todo lo que el procesador debe hacer es indicar al controlador DMA dónde están los datos, cuánto enviar y dónde colocar cualquier respuesta. Después de que el procesador pueda apagarse y hacer otra cosa, el controlador DMA se interrumpirá una vez que finalice el trabajo.

Y si la CPU pasa la mayor parte del tiempo inactiva, podría usar ese tiempo para iniciar un segundo DMA & SERDES corriendo en una segunda transferencia. De hecho, una CPU podría ejecutar algunas de esas transferencias en paralelo, lo que le proporcionará una tasa de datos bastante buena.

OK, esto es eléctrico en lugar de óptico y es 50,000 veces más lento que el sistema que se le preguntó, pero se aplican los mismos conceptos básicos. El procesador solo se ocupa de los datos en grandes porciones, el hardware dedicado los trata en partes más pequeñas y solo un poco de hardware especializado se ocupa de ellos 1 bit a la vez. Luego, colocas muchos de esos enlaces en paralelo.

Una adición tardía a esto que se insinúa en las otras respuestas, pero que no se explica explícitamente en ninguna parte, es la diferencia entre la velocidad de bits y la velocidad de transmisión. La velocidad de bits es la velocidad a la que se transmiten los datos, la velocidad de transmisión es la velocidad a la que se transmiten los símbolos. En muchos sistemas, los símbolos se transmiten en bits binarios, por lo que los dos números son efectivamente los mismos, por lo que puede haber mucha confusión entre los dos.

Sin embargo, en algunos sistemas se utiliza un sistema de codificación de múltiples bits. Si en lugar de enviar 0 V o 3 V por el cable, cada período de reloj envía 0 V, 1 V, 2 V o 3 V por cada reloj, entonces su tasa de símbolos es la misma, 1 símbolo por reloj. Pero cada símbolo tiene 4 estados posibles y, por lo tanto, puede contener 2 bits de datos. Esto significa que su velocidad de bits se ha duplicado sin aumentar la velocidad de reloj.

Ningún sistema del mundo real del que soy consciente usa un símbolo de múltiples bits de estilo de nivel de voltaje tan simple, las matemáticas detrás de los sistemas del mundo real pueden ser muy desagradables, pero el principio básico sigue siendo el mismo; Si tiene más de dos estados posibles, puede obtener más bits por reloj. Ethernet y ADSL son los dos sistemas eléctricos más comunes que utilizan este tipo de codificación, al igual que cualquier sistema de radio moderno. Como @ alex.forencich dijo en su excelente respuesta, el sistema que preguntó sobre el formato de señal de 32-QAM (modulación de amplitud en cuadratura), 32 posibles símbolos diferentes significan 5 bits por símbolo transmitido.

    
respondido por el Andrew
59

Parece que te refieres específicamente a enlace . Se puede leer aquí: link .

En este caso, es un poco más complicado que "una señal óptica". El enlace en cuestión utiliza múltiples formas de paralelismo para alcanzar esa cifra de 255 Tbps:

  • Se utiliza multiplexación por división de longitud de onda densa para introducir 50 longitudes de onda diferentes en la fibra en intervalos de 50 GHz (~ 0.8 nm en la banda C de 1550 nm), cada una de las cuales contiene 1/50 de los datos.

  • La fibra utilizada es una fibra de modo reducido de 7 núcleos hecha a medida, con 3 modos por núcleo, cada uno con 2 polarizaciones, para 7 * 3 * 2 = 42 canales independientes (más o menos). Parece que el punto de venta de su fibra es que el aislamiento entre los núcleos es bastante bueno, por lo que el receptor solo tiene que igualar la interferencia entre los modos y las polarizaciones de cada núcleo por separado (7 paralelos 6x6 en lugar de 42x42).

Luego, utilizaron un formato de señal de 24.3 Gbaud 32-QAM (5 bits por símbolo, 24.3 * 5 = 121.5 Gbps) para los 42 * 50 canales, para un ancho de banda total de 0.1215 * 42 * 50 = 255.15 Tbps.

Ahora, estos tipos en realidad hicieron un poco de trampa aquí: toman 50 láseres, los multiplexan juntos, los modulan con un solo modulador de IQ, luego descorrelatan las polarizaciones y los canales adyacentes con demoras fijas para emular usando transmisores independientes. Así que en realidad es solo una señal a 121.5 Gbps, repetida 2100 veces en paralelo. Y la señal transmitida es probablemente solo una secuencia binaria pseudoaleatoria (PRBS) que se genera al vuelo y no se lee de la memoria. O podría leerse en SRAM rápido o en una matriz de DRAM en un generador de formas de onda arbitrarias de alto rendimiento.

En el lado de recepción, se requiere el procesamiento de la señal digital para recuperar los datos originales compensando la interferencia entre los modos y las polarizaciones en cada núcleo y aplicando la corrección de errores. El documento menciona una cifra de 200 Tbps netos, que sería la velocidad de datos antes de la codificación para la transmisión (similar a cómo 1000BASE-X gigabit ethernet es 1 Gbps antes de la codificación y 1.25 Gbps después, o PCIe es 2/4 / 7.877 Gbps antes codificación y 2.5 / 5/8 Gbps después), pero no está claro qué codificación y esquema de corrección de errores en adelante están asumiendo.

También parece que no construyeron un receptor real, sino que están utilizando dos osciloscopios de alta velocidad con detectores coherentes para capturar datos sin procesar y luego realizar el procesamiento y la ecualización de la señal fuera de línea. También tuvieron que hacer una captura intercalada de tiempo elegante porque tuvieron que ejecutar la detección coherente en los 3 modos de cada núcleo de fibra al mismo tiempo, pero solo tenían 2 osciloscopios rápidos disponibles. E incluso esa configuración solo les permite recibir 1 longitud de onda en 1 núcleo de fibra a la vez: 729 Gbps, y solo en ráfagas cortas.

Pero todo esto está bien, porque el documento trata sobre la fibra y no sobre el enlace real.

TL; DR: la cifra de 255 Tbps es un poco engañosa: no construyeron un transceptor capaz de eso, pero evaluaron la fibra multinúcleo que hicieron con 2100 copias de una señal de 121.5 Gpbs y un solo receptor.

    
respondido por el alex.forencich
15

Ignorando los detalles de la transmisión específica en cuestión (que @ alex.forencich ya ha analizado con bastante detalle), parece que probablemente sea útil considerar el caso más general.

Aunque esta transmisión en particular alcanzó 255 Tbps a través de la fibra, los enlaces de fibra extremadamente rápidos ya están en uso regular. No estoy seguro exactamente de cuántas implementaciones hay (probablemente no muchas) pero hay especificaciones comerciales para OC-1920 / STM-640 y OC-3840 / STM-1280, con tasas de transmisión de 100 y 200 Gbps respectivamente . Eso es aproximadamente tres órdenes de magnitud más lento de lo que demostró esta prueba, pero aún es bastante rápido según la mayoría de las medidas ordinarias.

Entonces, ¿cómo se hace esto? Se utilizan muchas de las mismas técnicas. En particular, casi todo lo que hace una transmisión de fibra "rápida" utiliza multiplexación por división de onda densa (DWDM). Esto significa, en esencia, que comienza con un número bastante grande de láseres, cada uno de los cuales transmite una longitud de onda de luz diferente. Usted modula los bits en esos y luego los transmite todos juntos a través de la misma fibra, pero desde un punto de vista eléctrico, está alimentando una cantidad de flujos de bits completamente separados en los moduladores, luego está mezclando las salidas ópticamente, por lo que todos esos diferentes colores de luz atraviesan la misma fibra al mismo tiempo.

En el extremo receptor, los filtros ópticos se usan para separar los colores nuevamente, y luego se usa un fototransistor para leer un flujo de bits individual.

Aunque solo he mostrado 7 entradas / salidas, los sistemas reales usan docenas de longitudes de onda.

En cuanto a lo que se necesita en los extremos de transmisión y recepción: bueno, hay una razón por la cual los enrutadores trenzados son caros. A pesar de que una sola memoria solo necesita alimentar una fracción del ancho de banda general, normalmente se necesita una RAM bastante rápida; un poco de las partes más rápidas de los enrutadores utilizan SRAM de gama alta, por lo que en ese momento los datos provienen de Puertas, no condensadores.

Probablemente vale la pena señalar que incluso a velocidades más bajas (e independientemente de la implementación física, como DWDM), es tradicional aislar las partes de mayor velocidad del circuito en algunas partes pequeñas. Por ejemplo, XGMII especifica la comunicación entre 10 Gigabit / segundo Ethernet MAC y PHY. Aunque la transmisión a través del medio físico es un flujo de bits (en cada dirección) que lleva 10 gigabits por segundo, XGMII especifica un bus de 32 bits de ancho entre el MAC y el PHY, por lo que la velocidad de reloj en ese bus es aproximadamente 10 GHz / 32 = 312,5 MHz (bueno, técnicamente, el reloj en sí es la mitad de eso: utiliza la señalización DDR, por lo que hay datos sobre los flancos ascendentes y descendentes del reloj). Solo dentro de la PHY alguien tiene que lidiar con una frecuencia de reloj de varios GHz. Por supuesto, XGMII no es la única interfaz MAC / PHY, pero la mayoría son similares en este aspecto, es decir, todos ellos tienen una interfaz más amplia en un reloj inferior, luego PHY pone esos N bits paralelos en una sola secuencia de bits para la transmisión a través del medio (por ejemplo, Gigabit Ethernet definió GMII utilizando un bus ancho de 8 bits a 125 MHz).

    
respondido por el Jerry Coffin

Lea otras preguntas en las etiquetas