Esto es lo que leo de un texto:
El sistema T1 se utiliza para el servicio de larga distancia por cable en América del Norte y es un excelente ejemplo de TDM. La voz de una conversación telefónica se muestrea una vez cada 125 mseg y cada muestra se convierte en ocho bits de datos digitales. Usando esta técnica, se requiere una velocidad de transmisión de 64,000 bits / seg para transmitir el habla.
Si se muestrea una señal cada 125 ms y se convierte a 8 bits de datos, ¿no es igual a un total de 64 bits de datos muestreados por segundo? ¿De dónde viene el factor de 1000?