¿Por qué los equipos digitales tienen más latencia que los analógicos?

12

¿La explicación de que el equipo digital tarda más en propagarse? Por ejemplo, una síntesis de software es muy lenta en comparación con una síntesis de hardware.

    

3 respuestas

27

Supongo que no está aludiendo a una discusión filosófica más profunda sobre la información, el poder y la entropía, sino que está interesado en los aspectos prácticos.

En pocas palabras, los circuitos digitales necesitan medir la entrada, digitalizarla, ejecutarla a través de algún tipo de procesamiento y luego transformar la salida en una señal eléctrica nuevamente. Los circuitos digitales no pueden manipular directamente señales eléctricas analógicas. Usted tiene inherentemente una latencia adicional debido a la conversión de la señal.

Puedes dejar de leer aquí si esto responde a tu pregunta.

Desde un punto de vista más filosófico / físico, en casi todos los circuitos no intentas manipular la energía eléctrica (eso es lo que hace la electrónica de potencia), pero estás tratando de manipular la información. En este caso, técnicamente no es del todo cierto que lo analógico sea más rápido que lo digital. ¿Por qué? Bueno, las rutas de señales analógicas son procesadores de información no ortogonales: no existe un opamp perfecto o un búfer perfecto, todo tiene efectos parásitos que necesita filtrar o eliminar. Especialmente a velocidades muy altas, se convierte en un verdadero problema incluso para construir un cable que transfiera un voltaje de manera confiable. El procesamiento digital desacopla el aspecto eléctrico de la información: después de que haya digitalizado sus entradas, la señal existe como una forma muy pura de información. Luego puede manipular la información sin tener que pensar en la naturaleza eléctrica de la misma, y solo en las etapas finales necesita volver a convertirla en un estado analógico.

A pesar de que está penalizado con dos etapas de conversión, entre su ADC y DAC puede emplear muchos trucos de procesamiento para acelerar la velocidad de procesamiento y, por lo general, superar ampliamente el rendimiento de cualquier procesador de señales puramente analógico. Un gran ejemplo de esto es la revolución de los módems digitales en los teléfonos celulares, que ahora funcionan muy cerca del límite teórico del procesamiento de la información (decenas de requisitos de energía de pJ / bit), mientras que no hace mucho tiempo los módems GSM puramente analógicos requerían órdenes de magnitud Más área de silicio y creo que 5 o 6 órdenes de magnitud más energía de procesamiento.

    
respondido por el user36129
6

Los procesos digitales agregan inherentemente una cierta cantidad de latencia ya que un evento que ocurre entre dos ciclos de reloj no se puede procesar hasta el siguiente y, para evitar problemas con eventos que ocurren muy cerca de los límites del ciclo de reloj, las cosas a menudo son diseñado para que los eventos no tengan efecto hasta el segundo ciclo de reloj después de ellos (tratar de decidir rápidamente si un evento ocurrió antes o después de un límite de ciclo de reloj es a menudo sorprendentemente difícil, incluso si las llamadas cerradas pueden decidirse de manera segura; posponer la decisión de un ciclo de reloj adicional hace las cosas mucho más fáciles). Sin embargo, esto suele ser solo una pequeña parte de la latencia que se observa en muchos sistemas digitales.

Un factor más importante en la latencia del sistema digital se basa en el hecho de que, por diversos motivos, muchos sistemas pueden procesar grandes cantidades de datos de manera más eficiente que los pequeños. Por ejemplo, aunque sería posible grabar un flujo de datos de audio estéreo a 44 KHz interrumpiendo el procesador 88,200 veces / segundo, eso requeriría que el procesador detuviera lo que estaba haciendo 88,200 veces / segundo, guardar todos sus registros, cambiar a la interrupción contexto, tome la muestra, vuelva a cambiar, etc. Incluso la interrupción de la entrada y la salida toman solo un microsegundo cada una, el sistema pasaría el 22% de su tiempo entrando y saliendo de la interrupción en lugar de hacer algo útil. Si en su lugar el sistema utilizara hardware para almacenar grupos de 512 muestras (256 de cada canal) y notificara al procesador cuando cada grupo estaba listo, esa sobrecarga podría reducirse en más del 99,5%, lo que representa un gran ahorro.

Tenga en cuenta que tomar grupos de 256 muestras por canal puede que no suene como un gran retraso (se trata de 6 ms), si la señal pasa a través de múltiples dispositivos y cada uno induce dicho retraso, los retrasos pueden sumarse. Además, si cualquiera de las etapas por las que pasa la señal utiliza algún tipo de tiempo compartido variable, los retrasos pueden ser variables. La transmisión de datos de audio en tiempo real a través de un canal que a veces tenía un retardo más largo que otras veces causaría un "embrollo" o "confuso" notable cada vez que cambia el retardo. Para evitarlo, algunos sistemas etiquetan bloques de datos de audio con una marca de tiempo que indica cuándo se capturaron, y tienen el destinatario final de los datos digitales que los convertirán de nuevo en forma analógica hasta que transcurra cierto tiempo desde que se capturó . Si el destinatario final lo retrasa hasta un segundo después de su captura, las variaciones en el retraso en diferentes partes del viaje no afectarán la salida a menos que sumen más de un segundo. Si se considera que los retrasos cortos aleatorios en la transmisión serán frecuentes, pero los retardos más largos serán raros, aumentando el retraso antes de que el destinatario final salga, el audio reducirá la frecuencia de las interrupciones audibles, pero también significa que el sonido no saldrá tan pronto como de otro modo podría haber.

    
respondido por el supercat
1

Además, los sistemas digitales tienden a estar sincronizados, en efecto, cuantificando el tiempo, lo que significa que los eventos digitales no se propagan hasta la próxima hora del reloj.

    
respondido por el JRobert

Lea otras preguntas en las etiquetas