Hice una pregunta aquí llamada " Velocidad de la electricidad (¿propagación de la señal?) A través del cobre para el retraso de las comunicaciones ". Quería saber cuánto tiempo tarda una señal en viajar por un cable Cat5e (mi experiencia es telecomunicaciones y redes para esta pregunta).
En el párrafo de apertura de esta página de Wikipedia, se indica lo siguiente sobre el cable Cat5;
"The cable standard provides performance of up to 100 MHz"
En mi pregunta mencionada anteriormente, se me indicó una regla general para la propagación de las olas que estaba entre 4.9 ns / my 5.3 ns / m. La transferencia de datos a 100 Mbps a través del cable Cat5 significa que 1 bit de datos se codifica en el cable cada 1 segundo / 100,000,000 bits = 0.00000001 ns (eso es 1 bit cada 10 ns).
A partir de esto, asumo que el dispositivo receptor esperará y recibirá y decodificará bits a una velocidad de 1 cada 10 nanosegundos. Sin embargo, si el retardo del cable coper (entre 4.9 y 5.3) es menor que el retardo de codificación, seguramente los bits se recibirán demasiado rápido al final del destinatario, más rápido de lo que se pueden descodificar en un flujo digital que podría almacenarse en búfer.
También para vincular todo esto, asumí que cat5 está clasificado para 100 Mhz porque eso significa que en cada ciclo 1 bit de datos se codifica en el cable. ¿O este 100 Mhz representa algo más? Cat6 se utiliza para tasas de transferencia de gigabit (o cat5e) con una frecuencia de 250 Mhz. Es de suponer que esto se debe a que se utilizan métodos de codificación sofisticados para codificar más bits en un solo símbolo en el cable. Por lo tanto, la referencia de 100 Mhz anterior del artículo de wiki es la razón por la cual es una proporción de uno a uno para codificar datos en el cable, por lo que terminamos con una duración de codificación de 10 ns por bit. ¿Eso es correcto también?