Determine la cantidad de bits antes de que el receptor pierda un bit

0

Un transmisor envía 100 bits por segundo, pero el reloj del receptor funciona muy lentamente, lo que hace que se mida una vez cada 0.0107 segundos. ¿Cuántos bits se miden en una fila antes de que el receptor se pierda un poco?

He considerado r = 100bps y t_miss = 0.0107 y calculo el tiempo como 1-t_miss para determinar el número de bits antes de que un receptor pierda un bit. ¿Alguien puede aclararme sobre esto?

    
pregunta Annonymous XYZ

1 respuesta

1

El tiempo mínimo de muestreo para recibir el mensaje completo es \ $ 1/100 \ $ o 10mS. Dado que el tiempo de muestreo es de 10,7 ms, se perderá un bit tan pronto como las muestras se alineen al final del bit 1 y al comienzo del bit 3. El mejor escenario es cuando una muestra se encuentra al principio de un bit. Cada muestra siguiente se desactiva en 0,7 ms hasta que la muestra se desvía un poco. Esto sucedería cuando la compensación acumulada exceda el tiempo de muestreo \ $ 10 / 0.7 \ $ o 14.28. Esto implica que el bit 15 se perderá.

    
respondido por el vini_i

Lea otras preguntas en las etiquetas