Calibración del voltaje de salida

1

Tengo un dispositivo que tiene un convertidor D / A de 16 bits que a través de un circuito lineal analógico genera un voltaje de salida entre -1V y 1V. Tengo 32 de esos canales en mi dispositivo.

simular este circuito : esquema creado usando CircuitLab

Necesito diseñar un circuito para usar en la calibración de fábrica. Necesito encontrar la ganancia a través de la parte analógica del circuito para saber qué valor digital valo escribir en el convertidor D / A para lograr una salida de voltaje de CC, por ejemplo, Vx = 800mV.

Necesito calibrarlo lo suficientemente bien para poder alcanzar un voltaje de salida de precisión mejor que 0.5mV, preferiblemente 0.25mV. La calibración no tiene que ser muy rápida. Cualquier cosa hasta dos minutos servirá.

He estado pensando solo en usar un convertidor D / A. Otra forma podría ser usar un comparador y una referencia de voltaje de precisión y usar la bisección para determinar la ganancia, pero parece ser difícil encontrar uno que tenga un voltaje de compensación de entrada lo suficientemente bajo.

¿Cómo harías para ir a esto?

Conclusion:

Voy a usar dos ADC de 16 canales y una referencia de voltaje LTC655BHMS8-1.25 que tiene una precisión de + -0.025% a 2 ppm / C. Los ADC serán LTC2439-1IGN, que son lentos pero precisos. Utilizando un pequeño microcontrolador controlaré los ADC y usaré el promedio para eliminar el ruido.

Creo que esto debería cumplir mis requisitos sin romper mi presupuesto.

    
pregunta martinhans

3 respuestas

1

Creo que encontrará amplificadores con estabilizador de helicóptero con compensaciones suficientemente bajas.

Y si puede garantizar la linealidad en la etapa analógica mejor que 0.025% (1 parte en 4000), puede calibrar a 0, + 1V, -1V y el resto lo seguirá.

Creo que las partes difíciles serán:

  • abastecerse exactamente 1V dentro de 0.25mv y mantenerlo a través de la temperatura.
  • verificando que todas las fuentes de error combinadas no excedan su presupuesto de error.
respondido por el Brian Drummond
1

Esto es un poco fuera de la caja, y puede ser demasiado costoso, pero creo que podría ser más rápido de implementar. El concepto básico es que utiliza un multímetro como sensor de voltaje para obtener una lectura de voltaje precisa, y luego calibra cada canal individualmente o usa un multiplexor para cambiar entre las entradas.

Con un multiplexor, creo que podrías alcanzar tu límite de 2 minutos. También le ahorraría algo de dolor y sufrimiento al crear su propio medidor de "alta precisión" y problemas de calibración entre canales, y también (probablemente) eliminaría la necesidad de un diseño de PCB.

    
respondido por el W5VO
1

Depende de su presupuesto. Probablemente me gustaría ir personalmente a una caja de DAQ de Agilent. Si va a la producción, el costo de comprar o alquilar una unidad DAQ no es muy importante. Las unidades 34970A y 34972A tienen multímetros integrados y pueden tomar hasta 120 canales de tarjetas mux de relé. El 34970A es programable a través de GPIB y RS232, mientras que el 34972A es programable a través de LXI (Ethernet). No sería muy difícil escribir algunos scripts que puedan interactuar con la caja DAQ y su dispositivo y realizar la calibración. La unidad DAQ también es muy rápida en la exploración de sus entradas: la tarjeta mux de 16 canales se puede utilizar para adquirir a 250 canales / segundo. Las tarjetas 34970A y mux se pueden encontrar en eBay con un descuento muy significativo si tiene un presupuesto limitado.

    
respondido por el alex.forencich

Lea otras preguntas en las etiquetas