La salida de un ADC de 10 bits es un número entre 0 y 1023.
Pero muy pocas aplicaciones requieren medir un voltaje entre 0 y 1023 V.
Afortunadamente (para las personas que no desean medir voltajes entre 0 y 1023 V), podemos hacer que la salida de ADC se amplíe para medir esencialmente cualquier rango que queramos. En general, medimos entre 0 y algún valor \ $ V_ {ref} \ $, pero son posibles otros rangos (por ejemplo, \ $ - V_ {ref} \ $ a \ $ V_ {ref} \ $). La hoja de datos de su ADC le indicará cuál es el rango de conversión para su dispositivo, y también le permitirá ajustar el rango, por ejemplo, proporcionando una tensión de referencia externa en una de las patas del dispositivo.
Para el caso de 0 a \ $ V_ {ref} \ $, suponiendo un ADC lineal ideal, el voltaje de entrada real se puede recuperar de la lectura de ADC mediante
$$ V_ {in} = V_ {ref} \ frac {d} {2 ^ n-1} $$
donde \ $ d \ $ es la lectura del ADC, y \ $ n \ $ es el número de bits producidos por el ADC.
En el manual, se dice que el resultado del ADC es más preciso si el valor de la señal analógica cubre todo el rango de voltaje de VRL a VRH.
Esto no está del todo bien. Debería decir que el ADC proporciona más resolución, o mejor precisión, si la señal analógica utiliza todo el rango de voltaje.
Por ejemplo, supongamos que su ADC está configurado para proporcionar 10 bits de resolución para voltajes de entrada entre 0 y 5 V, pero su señal de entrada en realidad solo varía entre 0 y 1 V. Entonces solo leerá los valores de salida entre 0 y 205. Entonces, solo tiene 8 bits de resolución efectivos en su rango de señal. Y la resolución de voltaje es de solo 4,89 mV por conteo.
Si redujera el voltaje de referencia del ADC a 1.023 V (un valor conveniente), entonces tendría casi la totalidad de los 10 bits de resolución en el rango de su señal, y la resolución en términos de voltaje sería de 1.0 mV por conteo .