Cada vez que una señal continua se codifique en un número finito de bits, habrá algunos cuantizing noise . Este es el error introducido porque no todos los valores de entrada posibles pueden representarse con precisión mediante la señal digitalizada. Por ejemplo, suponga que una señal analógica que va de 0V a 5V se digitaliza utilizando un ADC de 2 bits. Utilizando tamaños de paso iguales, esto se puede hacer como se muestra en la siguiente tabla:
$$
\ begin {array} {cccc}
{\ bf voltaje} & {\ bf binary} & {\ bf código} & {\ bf salida} \\
0 \ le v < 1,25 & 00 & 0 & 0.0 \\
1.25 \ le v < 2.50 y amp; 01 & 1 & 1.25 \\
2.50 \ le v < 3.75 y amp; 10 & 2 & 2.50 \\
3.75 \ le v < 5,00 & 11 y amp; 3 & 3.75 \\
\ end {array}
$$
Si el voltaje de 2.0V está digitalizado, se codifica como 01
binary, pero también lo serían voltajes de 1.26V o 2.48V. Si volvemos a convertir a analógico, todos ellos darían como resultado un voltaje de salida de 1.25 V según el esquema anterior. La diferencia entre la tensión muestreada y la salida correspondiente es la cuantificación del ruido.
Es fácil ver que agregar bits agrega resolución y reduce el ruido de cuantificación.
En cuanto a la frecuencia de muestreo, existe una cosa llamada teorema de muestreo de Nyquist-Shannon que Para poder reproducir con éxito cualquier señal digitalizada, se debe muestrear al menos dos veces la frecuencia más alta que se desea reproducir desde la entrada. Esto es independiente de la cantidad de bits que uno utiliza para digitalizar.