Soy autodidacta de códigos de bloque de corrección de errores y tengo una confusión sobre su rendimiento.
Supongamos que tenemos \ $ r \ $ bits de información y hacemos \ $ k \ $ bits de codificación además. Tengo entendido que, para la misma cantidad de energía por bit de información, el sistema codificado funciona mejor en comparación con un sistema no codificado, donde el canal es ruido gaussiano blanco (AWGN) aditivo y la modulación es BPSK.
Esto se demuestra en una simulación, donde la tasa de error de bits (BER) se representa en función de la energía por bit de información.
Mi pregunta es, ¿cómo ha llegado a ser esto? Cuando codificamos los \ $ r \ $ bits, de hecho, distribuimos la energía sobre \ $ r + k \ $ bits. Donde, como en el caso no codificado, toda la energía se usa solo en \ $ r \ $ bits. Por otro lado, el flujo de bits codificado tiene \ $ r + k \ $ dimensiones mientras que el vapor sin codificar tiene \ $ r \ $ dimensiones.
¿Puede alguien explicar, matemáticamente, de dónde proviene la mejora de BER?