¿Existe una fórmula que describa la relación entre la tasa de error de bits, el tamaño de trama y el rendimiento efectivo normalizado?

0

¿Existe una fórmula que describa la relación entre la tasa de error de bits, el tamaño de trama y el rendimiento efectivo normalizado?

para aclarar, el rendimiento efectivo normalizado es lo mismo que la utilización del canal.

hasta ahora tengo "throughput = 1 / (1 + 2a)" donde "a = tprop * R / L" (tprop = tiempo de propagación o retardo, R = tasa de bits), sin embargo, no estoy seguro de cómo la tasa de error de bits encaja en esto: la tasa de error de bits tiene mucho que ver con la tasa de bits.

Cualquier ayuda / punteros / dónde obtener ayuda sería apreciada. ¿Hay otros foros en los que debería publicar esto?

EDITAR: Sólo para dar más información de fondo: básicamente, esto es para un proyecto (tema: análisis de la relación de tamaño de trama óptima y tasa de error de bits en enlaces con pérdida), donde tenemos que escribir una GUI de MATLAB (interfaz gráfica de usuario) y las entradas son de rango de error de bits (es decir, máximo y mínimo bit tasas de error) y rango de tamaño de trama (tamaño máximo y mínimo de trama / paquete). Tenemos que calcular el rendimiento efectivo normalizado del enlace a partir de esas entradas y hacer un gráfico 3D (x: BER, y: FSR, Z: rendimiento)

@clabacchio estaba hablando de parámetros generales - L representa el número de bits en un marco.

@kellenjb no se nos ha dado ninguna información sobre cómo se manejan los errores, así que supongo que simplemente hacemos una suposición. (y eliminé las otras publicaciones, sry acerca de eso)

    
pregunta user1393689

1 respuesta

0

Sí, podrá llegar a una fórmula que, en el mejor de los casos, será tan útil como la precisión de los supuestos que realice, y que tendrá un componente estadístico debido a los efectos de la variación estadística del ruido y la sincronización. .. en los resultados.

Tendrías que definir las cosas con mayor precisión antes de poder obtener una fórmula útil.
 Por ejemplo, la información que se recibe es D_sent x (1-BER)
 (Tasa fraccional de BER, por ejemplo, 1 en 10 ^ 6 = 0.000001).

PERO CUALQUIER error, o bien necesita un reenvío o tiene una sobrecarga de corrección hacia adelante.
 Si se produce algún error, entonces necesita un reenvío y
 el rendimiento se reduce a D_sent - (paquetes con errores en ellos por segundo = pweitps) x (longitud del contenido del paquete de datos)
 Y también tiene la sobrecarga del canal trasero que puede ser parte de su presupuesto de ancho de banda total o no.

Para convertir BER en pweitps, o bien asume que cada error destruye un paquete (como se muestra arriba), o necesita conocer la agrupación estadística de errores.

Si cada bit de error pierde un paquete y si la tasa de datos sin errores netos es D y si la longitud del paquete es P, perderá BER x P bits / segundo debido a los errores, por lo que la tasa se reduce de manera simplista a ~ = (D - BER x P ) / D de anteriormente.

Si pierde sincronización debido a errores y debe volver a sincronizar, se trata de una reducción de la velocidad y necesita saber cómo varía la sincronización con la tasa de errores y los tipos de errores.

Y mucho más.

Entonces, la respuesta es sí, se puede derivar una fórmula que es tan útil como las suposiciones que realiza y que tendrá un componente estadístico debido a los efectos de la variación estadística del ruido y la resincronización y ... sobre los resultados.

    
respondido por el Russell McMahon

Lea otras preguntas en las etiquetas