En un canal corto, por ejemplo. un cable Ethernet de 1 "de largo, ¿qué efectos es más probable que reduzcan el rendimiento y por qué? ¿Cuál sería la naturaleza de la reducción del rendimiento? Específicamente, me pregunto por Ethernet a 100/1000 Mbps sobre cables estándar como CAT5 / 5e / 6 / etc Mi suposición es que la tasa de error saltará significativamente cuando la línea de transmisión cruce un umbral que podríamos llamar coloquialmente "demasiado corto", pero no puedo cuantificar eso de manera significativa.
He estado investigando esto y no encuentro mucha información relevante. Este papel tiene algo de información interesante, pero no es minúscula. El nivel de inmersión en señales y campos de EM está más allá del alcance del tema que parece.
Estoy pensando que hay algunos problemas potenciales:
- Problemas de longitud de onda fraccional debido a la longitud de la línea de transmisión
- Tiempo (infracciones de tiempo mínimo si tal cosa existe en este contexto)
- Potencia (saturando el receptor)
- ISI (reflexiones)
Estoy seguro de que hay otros y tal vez los problemas que he enumerado no son relevantes. Cualquier información sería muy apreciada.