'FEC limit BER' en sistemas de comunicación

0

¿Cuál es la BER máxima que puede corregir una FEC?

En uno de los documentos IEEE, el valor mencionado era 10 ^ (- 3). Mi pregunta es cuando FEC puede corregir la BER hasta 10 ^ (- 3), entonces, ¿por qué muchos sistemas de comunicación especifican que los requisitos de BER son de 10 ^ (- 12) a 10 ^ (- 9)?

    
pregunta Abhilash A

4 respuestas

2
  

"¿Por qué muchos sistemas de comunicación especifican que los requisitos de BER son \ $ 10 ^ {- 12} \ $ a \ $ 10 ^ {- 9} ~~~? ~ \ $"

¿Por qué no peor o mejor?

No hay una respuesta absoluta, ya que la probabilidad de error nunca puede ser cero para siempre, pero puede ser cero en un tiempo finito. La respuesta se encuentra en la relación costo / beneficio de una mejora y depende del valor y la redundancia de dichos datos. No podemos poner un factor de costo universal en este exponente para todos los casos, solo asumimos por ahora, < em> se basa en límites históricos de tecnología con una sensibilidad al costo.

Sabemos que el ancho de banda tiene costos, así como la capacidad del canal y la redundancia tiene un costo adicional. Dependiendo del aislamiento del error en sistemas redundantes , la BER (o inversamente el MTBF) puede ser el doble del exponente o puede no ser una mejora si es común a ambos.

La BER especificada establece las necesidades de confiabilidad del canal o la integridad de los datos. A menudo se definen como errores de software que se pueden recuperar con reintentos o correcciones o errores graves que no se pueden corregir ni recuperar. La extensión de la cual puede ser de varios órdenes de magnitud. También se puede clasificar por el intervalo de tiempo de reintentos tolerables para un rendimiento aceptable.

Los reintentos en los sistemas de transmisión, pueden ser triviales e incluso transparentes para el usuario en los sistemas operativos {por ejemplo, Windows [win] + R > cmd > netstat -es} Mientras que evitar el error puede ser costoso reservar tiempo para evitar la contención o agregar más inmunidad contra el EMI de las infrecuentes perturbaciones del arco del interruptor de apagado.

Hay muchas relaciones estadísticas entre BER y otros factores que afectan el costo, la velocidad de bits y el ancho de banda. Los factores que reducen la BER incluyen el estrés ambiental, el envejecimiento, los tipos de ruido, la pérdida de margen de calidad, pero se pueden mejorar mediante métodos de codificación, tipo de modulación, método de detección, detección / corrección de errores directos y métodos de reintento.

Cada uno tiende a tener efectos logarítmicos en BER equivalentes a algún ruido además del ruido aleatorio gaussiano definido por la ecuación de Shannon-Hartley \ $ C = B ~ log_2 (1 + S / N) ~~~ \ $ y Shannon's Ley para la capacidad del canal, C y ancho de banda, B para la potencia en vatios de señal y ruido. Esto conduce a la forma general y la pendiente de la curva BER frente al número de bits con la inclusión de todos los demás factores que influyen en ella.

Las compensaciones de optimización BER incluyen;

MAXimize transmission bit rate
MAXimize system utilization
Minimize system complexity
Minimize transmission power
Minimize required system bandwidth, B
Optimize costs
Choose optimal modulation for  efficiency of B vs Tx Pwr
Choose optimal modulation due to disturbances, fading loss etc.

Minimice la probabilidad de error de bit

  

Todo depende del impacto en el costo de un error en comparación con el costo de la retransmisión, la sobrecarga de la corrección de errores o el costo de cada uno de los factores anteriores, pero las especificaciones se pueden justificar para muchas potencias exponenciales de 10.

Podría (probablemente) escribir un libro sobre todas mis experiencias con BER frente a "cualquier factor" medido por dB o ns jitter o por "margen de error", pero he tenido la suerte de tener mucha exposición a este tema . De los 10 años de experiencia en la prueba de unidades de disco de HDD durante los años 80-90, pero BER se definió a menudo como BER suave \ $ 10 ^ {- 10} \ $ y BER duro \ $ 10 ^ {- 14} \ $ y originalmente no incluía la corrección de errores por lo que la asignación analógica de defectos en la fábrica era crítica. Pero aún en un disco duro SATA BER \ $ 10 ^ {- 14} = \ $ 8% por terabyte. Por lo tanto, los métodos de corrección de errores con sobrecarga asociada y calidad de los medios tuvieron que ser mejorados con capacidad. El inconveniente es que la "transparencia" y la falta de conocimiento por parte del usuario de la corrección automática de errores significa que todos los umbrales parecen estar comprimidos y que el usuario nunca recibe ninguna advertencia de que el funcionamiento perfecto de un día a otro falla el día siguiente.

Por cierto, "puede corregir BER hasta 10 ^ (- 3)" significa que el método de corrección funciona desde 1 bit por mil en adelante.

En las redes WiFi, cuando la tasa de error supera un umbral codificado, la tasa de bits negocia a una tasa más baja. El nivel de potencia de Rx asociado con esto puede variar de -80dBm a -60dBm con velocidades de bits en aumento, pero también puede verse afectado adversamente por la pérdida de desvanecimiento de Rician debido a los ecos de cancelación de fase y eliminar las tasas de bits de forma abrupta.

    
respondido por el Tony EE rocketscientist
1

Depende del tipo de FEC y del tipo de BER, y de la tasa de error corregida deseada. Algunas técnicas de FEC funcionan bien en los errores aleatorios, pero fallan más rápidamente con (digamos) largas cadenas de errores secuenciales. En cualquier caso, no es una situación de muro de ladrillo duro, ya que la BER aumenta, el rendimiento de FEC se degrada antes de fallar por completo. Desea buenos márgenes para obtener un rendimiento de error razonable.

    
respondido por el Paul Elliott
1

En mi experiencia, los sistemas que especifican 10 -9 o mejor BER son sistemas que no usan FEC.

No usan FEC porque históricamente la implementación de FEC fue difícil a altas velocidades de datos, e incluso hoy en día requiere más poder para la lógica adicional, además de pagar por el chip (o parte de un chip) que realmente implementa La FEC.

El factor decisivo a la hora de crear nuevos estándares es probable si piensan que se necesitaría más potencia para ejecutar la lógica FEC, o simplemente para aumentar la potencia de la señal para aumentar la SNR y disminuir la BER sin formato. Esta compensación cambiará con el tiempo a medida que la nueva tecnología permita implementar FEC con menos energía requerida.

    
respondido por el The Photon
1

Creo que estás confundiendo 2 cosas diferentes. Un sistema de comunicación especifica la sensibilidad de recepción del receptor y la BER a la que se refiere la sensibilidad especificada, por lo que, por ejemplo, la hoja de datos de un transceptor normalmente dirá que la sensibilidad de recepción es de -100dbm a una BER de \ $ 10 ^ {- 9} \ $, lo que significa que si la señal de entrada tiene una SNR de -100, entonces el flujo de datos de salida tendrá una BER de salida de \ $ 10 ^ {- 9} \ $, obviamente, si la SNR de entrada es mayor que la sensibilidad de recepción, entonces la BER será menor y si la SNR baja la BER mayor. Esto no dice nada específico sobre las capacidades del código de corrección de errores que se ha utilizado, solo indica el rendimiento general del transceptor. Tal vez estoy malinterpretando tu pregunta.

    
respondido por el KillaKem

Lea otras preguntas en las etiquetas