Un transmisor envía 100 bits por segundo, pero el reloj del receptor funciona muy lentamente, lo que hace que se mida una vez cada 0.0107 segundos. ¿Cuántos bits se miden en una fila antes de que el receptor se pierda un poco?
He considerado r = 100bps y t_miss = 0.0107 y calculo el tiempo como 1-t_miss para determinar el número de bits antes de que un receptor pierda un bit. ¿Alguien puede aclararme sobre esto?