Amplificar una señal en el dominio analógico para que coincida con el rango de escala completa de su convertidor analógico a digital le dará una medida con una mejor resolución . Un ADC de 10 bits puede (en principio, distinguir 2 ^ 10 = 1024 valores de entrada diferentes, separados aproximadamente 5 mV, por lo que si su señal oscila entre 0 y 1 V, solo podrá distinguir unos 200 niveles diferentes de su señal. Amplifique su señal para cubrir el rango completo de 0 - 5 V y podrá distinguir 1024 niveles diferentes con una separación de 1 mV aproximadamente.
El problema es que la amplificación de la señal analógica puede introducir errores en su medición:
- error en la ganancia puede significar que la señal no se amplifica exactamente en 5, sino en (digamos) 4.93 o 5.02
- se puede introducir un desplazamiento para que una entrada de 0 V no ofrezca exactamente 0 V out
- puede haber no linealidad , por lo que la ganancia no es exactamente la misma para todos los voltajes de entrada y salida
- puede haber un ruido adicional , ya sea intrínseco al amplificador o extraído del circuito vecino o del entorno general, lo que alterará lo que mida
- cualquiera de los factores anteriores puede variar con el tiempo o con la temperatura.
Por lo tanto, la elección de utilizar o no un amplificador externo depende de la confianza que tenga en que la mejora en la resolución valdrá la pena dado el posible error adicional. Como ejemplo obvio, si crea un amplificador de amplificador operacional simple cuya ganancia se establece mediante un par de resistencias con una tolerancia del 1%, solo sabrá cuál es su ganancia dentro del 1% (a menos que la calibre o la recorte). / p>
Como las notas de respuesta de awjlogan, con muchos ADC hay una opción alternativa que es alterar el rango de entrada del ADC seleccionando un voltaje de referencia diferente. Por supuesto, si suministra este voltaje de referencia, la precisión de su medición solo será tan buena como la referencia externa.