Dada una velocidad de datos o una velocidad de reloj, ¿cómo calcular el tiempo de bits de cualquier señal / interfaz?
Según lo que sé, tiempo de bits = 1 / velocidad de datos. ¿Es correcto?
Me confundí un poco cuando no pude calcular los valores TBIT (y, finalmente, sesgar) en lo siguiente:
Esta diferencia de tiempo, también conocida como sesgo entre pares, se especifica mediante HDMI para un receptor con 0.4 · TBIT para una frecuencia de reloj TMDS de 225 MHz, Lo que se traduce en 178 ps máximo. Para un transmisor HDMI el la especificación requiere 0.15 · TBIT para una frecuencia de reloj TMDS de 225 MHz, que se traduce a 66 ps máximo.
Fuente: enlace
¿Me estoy perdiendo algo aquí?
Cualquier ayuda es apreciada.