Tengo un conjunto de mediciones de canal, un conjunto de datos sin procesar y archivos de procesamiento, que realizan las sincronizaciones y también eliminan el error de fase común. El efecto que observé cuando eliminé la corrección de error de fase común fue: Una fase lineal de desplazamiento en el tiempo. Por cierto, la corrección se realizó estimando el ángulo de rotación promedio φ durante un símbolo OFDM y eliminando las amplitudes demoduladas después de la ecualización.
Por lo que leí en la literatura, el efecto del error de fase común se puede modelar como un proceso de wiener. Sin embargo, el efecto que observé fue más una desviación lineal en una sola dirección. ¿Cuál es la explicación para este efecto?