Estoy creando un sistema de procesamiento de audio basado en tiempo real que necesita muestrear 48KHz, 16 bits de audio, preferiblemente con < 0.5ms (cuanto más bajo, mejor) la latencia (medido a partir de una señal analógica - > datos muestreados y listos) para ser transferido al host) . No necesitaré hacer ningún procesamiento DSP.
La pregunta que tengo es esta: ¿Cómo hago para calcular la latencia introducida por un circuito ADC?
He revisado varias hojas de datos y no veo ninguna información que sugiera el retraso total del ADC (tiene sentido, porque depende de la frecuencia de muestreo). No estoy considerando la latencia del procesador host, eso se ha resuelto.
Este es el enfoque en el que estaba pensando ... Esto podría estar completamente equivocado.
- Retardo intrínseco del circuito (generalmente despreciable, generalmente en ns)
- Retardo de grupo del filtro de reducción utilizado para el muestreo
- 'Tamaño' total (en tiempo) del búfer donde se almacenan las muestras.
Por ejemplo:
- Retraso del circuito: (insignificante)
- Retraso del grupo de filtros de decimación: (200us)
- Tamaño del búfer: 30 muestras
- Frecuencia de muestra: 1/48000 (período de 20us)
Suponiendo que el retardo de grupo del filtro de reducción es 200us, ¿el retardo total sería 200us + (30 muestras * 20us) = 800us?
Aquí está la hoja de datos de un ADC que estaba viendo: TI TLV320ADC3101
Por favor, siéntase libre de compartir cualquier información adicional, consejo o corregirme en lo que me equivoque.