Estoy escribiendo una aplicación integrada para ATtiny88: una de sus tareas es medir los voltajes de dos baterías de automóvil de 12 V conectadas en serie.
El microcontrolador se alimenta desde aproximadamente 4,5-5 V (LM317), los voltajes medidos (~ 24 V y ~ 12 V) están conectados a dos canales ADC a través de los divisores de voltaje adecuados. En mi aplicación, tengo que usar una referencia de intervalo de banda interna teóricamente igual a 1.1 V.
Probablemente debería hacer algún tipo de procedimiento de calibración, así que ahora mismo me di cuenta de algo como esto:
- Aplique exactamente 24 V (12 V) desde una fuente de alimentación externa estabilizada al divisor de voltaje.
- Calcule el coeficiente de ganancia para cada canal utilizado (24 (12) / valor medio del canal ADC)
- Almacene estos coeficientes en EEPROM y utilícelos como un factor de escala para calcular los voltajes medidos.
Intenté medir la referencia de intervalo de banda interno, uno de los canales ADC está conectado internamente a él, pero siempre devuelve 1023, el valor máximo para un ADC de 10 bits.
Mi pregunta es, ¿cómo medir los voltajes con mayor precisión? El voltaje de referencia de intervalo de banda probablemente varía entre diferentes chips (la hoja de datos dice 1- 1.2 V). ¿Hay alguna forma mejor de hacer la calibración que la que estoy haciendo ahora? Por favor ayuda.