Calcular la distancia entre 2 estaciones en una transferencia [cerrado]

0

La estación A envía \ $ 1024 \ veces 10 ^ {6} \ $ bits de datos a la estación B a través de un enlace cableado de 1Gbps. La estación A envía los datos en paquetes de \ $ 8 \ por 10 ^ 6 \ $ bits. La transferencia completa tardó 100 segundos en completarse. Si la velocidad de la señal es \ $ 2 \ veces 10 ^ 8 m / s \ $, ¿cómo puedo encontrar la distancia entre las dos estaciones? También asumo que todos los tiempos de espera, cola y procesamiento son despreciables.

Dado que cada paquete es \ $ 8 \ por 10 ^ 6 \ $ bits, el número total de paquetes enviados es \ $ \ frac {1024} {8} = 128 \ $ paquetes.

Como el enlace alámbrico tiene una capacidad de 1 Gbps, se siente como si pudiera enviar todo el archivo de \ $ 1024 \ veces 10 ^ {6} \ $ bits de datos desde la estación A a la estación B en menos de 1 segundo, ¿no?

¿Cómo tarda 100 segundos la transferencia y cómo puedo calcular la distancia entre las 2 estaciones según la velocidad de la señal?

Actualizar:

La otra información proporcionada a este problema fue que el servidor y el cliente están conectados directamente, sin demora en el procesamiento y en la cola. Aunque la Estación A espera un paquete de confirmación desde la estación B después de enviar un paquete de datos y antes de enviar el siguiente paquete de datos, los tamaños de los paquetes de confirmación son pequeños y, por lo tanto, los tiempos de transmisión son insignificantes. Los bits de cabeza de los encabezados de paquetes son pequeños y también insignificantes.

Parece que todo es insignificante y no tengo otros números para considerar.

    
pregunta xenon

1 respuesta

2

Calcular la distancia es casi imposible. Tendría que enviar un bloque de datos y medir el tiempo entre el último bit enviado y la recepción de un acuse de recibo. Si dice que el tiempo de procesamiento es insignificante, también lo es el tiempo de transmisión. El retraso entre la recepción y el acuse de recibo en la computadora receptora es probablemente un orden de magnitud más largo que el tiempo que tarda la señal en ir y venir ( ¿no debería ser así? ). Si la distancia es de 10 km, una manera tomaría 50 \ $ \ mu \ $ s. ¿Cuánto tiempo tomaría volcar un megabyte de datos?

Los 100 segundos son inusualmente largos. La cantidad de datos probablemente sea la carga útil, y tendrá que agregar cierta sobrecarga para el encabezado y el CRC, pero si sus paquetes tienen una longitud de 1 MB (lo que es largo, para cualquier protocolo), la sobrecarga será mucho menor que el 1%. Y luego parece que tu suposición sobre tiempos insignificantes es falsa.

editar
OK, por el bien de los argumentos, supongamos que el tiempo de procesamiento es efectivamente cero. Tienes que enviar 128 paquetes, que tardan 1 segundo en transmitir. Digamos que la distancia entre las estaciones es \ $ D \ $, y el tiempo de ida \ $ T \ $. Luego la transmisión de 1 paquete toma \ $ 8ms + T \ $. La confirmación toma tiempo \ $ T \ $ para volver a la estación A. Por lo tanto, el tiempo de respuesta es \ $ 8ms + 2 \ cdot T \ $. Los 128 paquetes tardan 100 segundos, por lo que

  

\ $ 128 \ cdot (8ms + 2 \ cdot T) = 100s \ $

Resolver para \ $ T \ $ nos da

  

\ $ T = \ dfrac {1} {2} \ cdot \ left (\ dfrac {100s} {128} - 8ms \ right) = 0.39s \ $

entonces

  

\ $ D = v \ cdot T = 2 \ cdot 10 ^ 8 m / s \ cdot 0.39s = 77 \ cdot 10 ^ 6m = 77 000 km \ $

Espero que este sea un problema hipotético.

    
respondido por el stevenvh

Lea otras preguntas en las etiquetas