Calibración de dos puntos para la cadena de señal analógica

1

Soy nuevo en este foro, acepté las reglas, pero tengo una pregunta que no encontré respondida como sería necesario, considerando las muchas horas que pasé buscando otras similares aquí. A pesar de todo, debo confesar que aprendí mucho durante esa búsqueda porque soy un tipo digital y la electrónica analógica es algo que me encantaría aprender. Mi punto es acerca de la calibración de dos puntos para la cadena de señal analógica (Sensor- > OP amp - > ADC) utilizando métodos de software. He leído de otras preguntas y respuestas en este foro ( ¿Calibración ADC / DAC? ) y ( calibración ADC en ATTiny88 ) que nunca debe usar los 50 mv inferiores o Top 50 mv del rango de entrada ADC para realizar la calibración. También me refiero al segundo enlace que está relacionado con mis preguntas.

1- Pregunta: ¿Cómo contabiliza el error de compensación si no considera los 50 mv inferiores de FS?

2-Pregunta: Supongamos que necesita una resolución que pregunte a LSB de 31.2mv (ADC de 16 bits, Vref 2.048 v) cómo lidiar con eso si necesita seguir trabajando con 16 bits, Vref 2.048 v?

Gracias de antemano por un poco de ayuda

    
pregunta Saturn777

1 respuesta

2

Piense en lo que significa una calibración de dos puntos, mida algún parámetro y lea qué valor de ADC obtiene, luego haga lo mismo con otro valor de parámetro y dibuje una línea recta entre ellos (que luego extiende a 0 y escala completa en un arrebato de optimismo).

Esto implica una expectativa de linealidad, es decir, implica una expectativa de que la línea realmente es recta en todo momento.

Ahora, la electrónica real cerca de los rieles a menudo no es en realidad tan lineal, las cosas comienzan a saturarse, las ganancias disminuyen, la retroalimentación comienza a comportarse mal, tal vez haya un pequeño desplazamiento, tal vez incluso su sensor se vuelva ligeramente no lineal. Si toma sus puntos de calibración donde está ocurriendo todo eso, entonces su calibración completa está desactivada, incluso en el 90% aproximadamente del rango en el que esos efectos son mínimos, si califica en 10 y 90% (o lo que sea que tenga sentido) Entonces, aún puede leer (posiblemente de manera inexacta) en todo el rango, pero es menos probable que tenga un error en la mayor parte del rango.

Ejemplo concreto:

Digamos que hay un sensor de temperatura que controla un ADC de 10 bits, medimos una temperatura T1 = 24C con un instrumento de referencia calibrado y obtenemos una lectura de ADC V1 = 150, medimos la temperatura T2 = 100C y obtenemos un valor de, por ejemplo, 827 desde el ADC, esto constituye una entrada para nuestra cal de dos puntos. Un ADC de 10 bits tiene un rango de un solo extremo de 0- > 1023, por lo que 150 es un poco más grande que el 10% del rango, que es un punto de calibración razonable, 827 un poco más pequeño que el 90% de la escala completa, por lo que también es un valor razonable. punto cal.

Ahora, 24C = 150 y 100C = 827, por lo que podemos calcular de manera trivial la pendiente, (100C-24C) / (827 - 150) = 0.1123 grados Celsius por paso de ADC.

Calcule la temperatura que debería dar 0 en el ADC, que hago para que sea de aproximadamente 7 grados Celsius, y que el valor de escala total que hago sea de aproximadamente 122 grados.

Ahora, esos bits al final de las escalas asumen que las cosas son lineales, pero probablemente realmente no lo sean (por lo que tratamos de mantener los puntos de cal lejos de los extremos totales), así que tome con precaución.

Observe también que nuestros valores de ADC están cuantificados, por lo que están fuera de los puntos de calibración, la línea es realmente un área que toca las esquinas del paso de satisfacción en cada punto de calibración (una buena razón para mantener los puntos de separación muy alejados).

    
respondido por el Dan Mills

Lea otras preguntas en las etiquetas