Tengo un dispositivo que tiene un convertidor D / A de 16 bits que a través de un circuito lineal analógico genera un voltaje de salida entre -1V y 1V. Tengo 32 de esos canales en mi dispositivo.
Necesito diseñar un circuito para usar en la calibración de fábrica. Necesito encontrar la ganancia a través de la parte analógica del circuito para saber qué valor digital valo escribir en el convertidor D / A para lograr una salida de voltaje de CC, por ejemplo, Vx = 800mV.
Necesito calibrarlo lo suficientemente bien para poder alcanzar un voltaje de salida de precisión mejor que 0.5mV, preferiblemente 0.25mV. La calibración no tiene que ser muy rápida. Cualquier cosa hasta dos minutos servirá.
He estado pensando solo en usar un convertidor D / A. Otra forma podría ser usar un comparador y una referencia de voltaje de precisión y usar la bisección para determinar la ganancia, pero parece ser difícil encontrar uno que tenga un voltaje de compensación de entrada lo suficientemente bajo.
¿Cómo harías para ir a esto?
Conclusion:
Voy a usar dos ADC de 16 canales y una referencia de voltaje LTC655BHMS8-1.25 que tiene una precisión de + -0.025% a 2 ppm / C. Los ADC serán LTC2439-1IGN, que son lentos pero precisos. Utilizando un pequeño microcontrolador controlaré los ADC y usaré el promedio para eliminar el ruido.
Creo que esto debería cumplir mis requisitos sin romper mi presupuesto.