Estaba leyendo acerca de los moduladores delta sigma. Leí que para que los datos sean más precisos, se realiza un filtrado digital de paso bajo en los datos cuantificados. Entonces, si tenemos un cuantizador de un bit que está empujando los datos a cierta velocidad, supongamos que es una señal de CC, y tomamos el promedio después de cada cuatro muestras que incrementamos su precisión a 2 bits. Del mismo modo, si tomamos el promedio cada 16 muestras, lo aumentamos a 4 bits.
Para un cuantificador de un solo bit, tiene sentido ya que agregar 4 valores de un bit daría como resultado 4 resultados diferentes que podrían expresarse en 2 bits. En primer lugar, ¿es correcto este razonamiento?
Pero supongamos que, en cambio, tengo un cuantizador de 2 bits y promedio cada 4 muestras, ¿cuál debería ser la resolución de los datos de salida resultantes?
Aquí está el enlace desde el que estaba leyendo:
enlace