Tiempo de retardo para el procesamiento de autocorrelación de una señal

1

Cuando se procesa una señal periódica para eliminar el ruido, mediante el uso de autocorrelación, se requiere un retardo de tiempo. ¿Hay un algoritmo que un circuito pueda "usar" para averiguar qué tan grande debe ser este retraso? ¿Existe un circuito de este tipo, uno que pueda determinar el retraso requerido de una señal para un procesamiento de autocorrelación preciso? ¿Hay un ejemplo canónico? ¿O es necesario que esta demora esté conectada al circuito y modificada por prueba y error?

    
pregunta farid99

1 respuesta

1

Hay más de una manera de hacer esto. Lo más simple sería simplemente detectar un cruce de flanco ascendente cero, algo así como la entrada de disparo en un osciloscopio. Use un filtro de paso bajo para evitar la activación de fallas. Podrías modificar el nivel si eso ayuda.

Si sabe que la señal se mantiene aproximadamente en el mismo período, puede crear un bucle de fase bloqueada para generar una señal no glitchy que se sintonice a la misma frecuencia que su señal. Tiene un oscilador de frecuencia variable cuya salida se compara con la señal de entrada (por ejemplo, XOR) para detectar qué tan lejos de la fase está. Esto se filtra y se devuelve a la entrada de control de frecuencia.

    
respondido por el Jeff Bell

Lea otras preguntas en las etiquetas