¿Cómo pueden los códigos de corrección de errores reducir la tasa de errores de bits, para la misma cantidad de energía?

3

Soy autodidacta de códigos de bloque de corrección de errores y tengo una confusión sobre su rendimiento.

Supongamos que tenemos \ $ r \ $ bits de información y hacemos \ $ k \ $ bits de codificación además. Tengo entendido que, para la misma cantidad de energía por bit de información, el sistema codificado funciona mejor en comparación con un sistema no codificado, donde el canal es ruido gaussiano blanco (AWGN) aditivo y la modulación es BPSK.

Esto se demuestra en una simulación, donde la tasa de error de bits (BER) se representa en función de la energía por bit de información.

Mi pregunta es, ¿cómo ha llegado a ser esto? Cuando codificamos los \ $ r \ $ bits, de hecho, distribuimos la energía sobre \ $ r + k \ $ bits. Donde, como en el caso no codificado, toda la energía se usa solo en \ $ r \ $ bits. Por otro lado, el flujo de bits codificado tiene \ $ r + k \ $ dimensiones mientras que el vapor sin codificar tiene \ $ r \ $ dimensiones.

¿Puede alguien explicar, matemáticamente, de dónde proviene la mejora de BER?

    
pregunta seek

2 respuestas

3

Piense acerca de la probabilidad de que ocurra un error incorregible en cada mensaje. Si acaba de enviar bits r , todos los errores no se pueden corregir, por lo que la probabilidad de que un mensaje se envíe con éxito es $$ (1-P (bitError)) ^ r $$ (en otras palabras, todos los bits deben pasar sin error). Ahora, digamos que distribuye la energía solo un poco para agregar los bits de corrección de errores k , de manera que pueda corregir un solo error de bit. Entonces, la probabilidad de un solo error de bit aumenta debido a la señal más débil, pero la probabilidad de que un mensaje se envíe con éxito se convierte en algo así como $$ (1-P (HigherBitError)) ^ {r + k} + (r + k) (P (higherBitError) (1-P (higherBitError)) ^ {r + k-1}) $$ (En otras palabras, es exitoso si todos los bits pasan sin ningún error como antes. Pero también es exitoso en las situaciones (r + k) posibles donde 1 bit tiene un error y los otros r + k-1 no. )

No estoy 100% seguro de que mi formulación de probabilidad sea exactamente correcta, pero puedes ver la idea: ahora hay más situaciones posibles donde ganas. Dependiendo de los valores de r, k y cuánto aumenta la probabilidad de error de bit, la corrección de error a menudo dará como resultado una mayor probabilidad de que un mensaje enviado con éxito.

    
respondido por el Luke
0

Cuando se transmite a través de un canal ruidoso, la información mutua entre la entrada y la salida dependen del conjunto de entrada elegido [1]. Uno puede elegir un conjunto de entrada para maximizar esta información mutua. Cuando uno lo ha hecho, la información mutua máxima resultante se conoce como la capacidad del canal. [2] La transformación que asigna datos de alta entropía a esa distribución de entrada óptima es el código de corrección de errores.

[1] Un conjunto es un "alfabeto" de posibles símbolos de entrada junto con las probabilidades asociadas (que no tienen que ser uniformes)

[2] En el caso de un canal de ruido blanco gaussiano aditivo, esta capacidad viene dada por el teorema de Shannon-Hartley.

    
respondido por el pericynthion

Lea otras preguntas en las etiquetas