Exactitud de un multímetro durante un período de 10 años

8

Las hojas de datos de multímetros contienen especificaciones de precisión.
Un parámetro suele ser la precisión en el período de 1 año. Entiendo que significa que el multímetro puede estar apagado por el valor especificado.

Por ejemplo, Keithley 2000 para un rango de 100 mV:
1 año de precisión = 0.005% (de lectura) + 0.0035% (de rango)

o Siglent SDM2055 para un rango de 200 mV:
1 año de precisión = 0.015% (de lectura) + 0.004% (de rango)

¿Pero la pregunta es qué precisión debo tener en cuenta en un período de 10 años?
¿Tengo que multiplicar "1 año de precisión" por 10? ¿O no es tan fácil (y no tan malo)?

Ningún aficionado va a hacer la calibración de su equipo cada año. Sería útil saber cómo cambia la precisión en un período de tiempo más largo.

    
pregunta Chupacabras

4 respuestas

18

En general, esa cifra se define porque se supone que debe calibrar su equipo anualmente.

Si no lo haces ... todas las apuestas están apagadas.

No puede extrapolar de una a otra, más el envejecimiento no será lineal.

    
respondido por el Trevor_G
6
  

¿Tengo que multiplicar "la precisión de 1 año" por 10?

Bueno, si pudiera usarlo sin que fuera necesaria una calibración, no es estrictamente el caso de multiplicar por diez porque es como un interés compuesto que un banco podría cobrar.

Entonces, si se desplaza + 1% por año, en diez años obtienes \ $ (1.01) ^ {10} - 1 \ $ = 10.46%.

No suena tan mal y para tolerancias más estrictas, ciertamente puedes aproximarte a multiplicar por diez.

Pero necesita calibraciones regulares para este tipo de equipo, de lo contrario, ¿para qué usarlo?

    
respondido por el Andy aka
3

La respuesta legal simple es que le deben esta precisión durante un año. Si el medidor falla esto dentro de un año, usted tiene un reclamo de garantía. Después de un año (a falta de otra especificación) estás por tu cuenta. El enfoque de ingeniería extremo sería que el fabricante requiera especificaciones de deriva de cada proveedor y realice un análisis de error que respalde la afirmación. Puedes adivinar tan bien como yo si lo han hecho. Después de un año no han hecho ninguna promesa. Tal vez haya una deriva proporcional al tiempo ^ 2 o una potencia más alta, por lo que las cosas se van al pozo poco después de un año. En una teoría extrema, incluso la calibración frecuente no resolverá este problema.

Prácticamente, unir los cables juntos detectará errores de compensación. No ayudará a ganar errores. Podríamos medir 1.456 voltios en un punto y 1.358 en otro. A veces lo que nos importa es que el primero es más alto que el segundo. En la práctica, en cualquier momento que obtuviera eso de un medidor, contaría con el pedido de ellos, pero no contaría con que la diferencia fuera de 0.098 voltios. Generalmente el primero es el hecho importante, no el segundo. Los valores relativos son mucho más fáciles que los absolutos. Si necesita absoluta, necesita calibrar a menudo y hacer un análisis cuidadoso de los errores. De lo contrario, necesitas desarrollar las habilidades para entender lo que sabes y lo que no. En la práctica, un medidor de 10 años es muy útil, pero no se puede justificar a partir de las especificaciones.

    
respondido por el Ross Millikan
2

Suponga que compró el medidor hace 10 años, o lo calibró hace 10 años, luego obtiene un año de mediciones dentro de las especificaciones, o el medidor está roto.

¿Después de 1 año y 1 día? El fabricante no hace ninguna reclamación. Si quiere reclamar una especificación y puede respaldarla, adelante. Pero es sobre ti.

SI mide lo mismo con el mismo medidor durante 10 años, sin volver a calibrar, y luego vuelve a calibrar y vuelve a medir, luego tienes un estudio de un punto de largo deriva del término. No olvide incluir la tendencia a largo plazo de lo que esté midiendo. Puede mirar los datos en el intervalo sin calibrar y sacar conclusiones al respecto. Pero esa es su calibración, en el intervalo, no la calibración del fabricante.

Vuelva a calibrar el medidor después de 10 años, las mediciones estarán dentro de las especificaciones. Por un año, otra vez. La deriva en el período de 10 años no es un problema. Si mide con un medidor calibrado hace 10 años y mide con un medidor calibrado, hoy, cada medición estará dentro de las especificaciones y es PROBABLE que cualquier diferencia en las mediciones sea menor que el máximo permitido, en direcciones opuestas. Pero el máximo permitido, en dirección opuesta, es el peor caso posible.

IF utiliza un medidor que se calibró una vez, durante 10 años, sin volver a calibrar, midiendo varios valores, luego obtuvo 9 años de datos de un medidor sin calibrar. Puede ser mejor que los números aleatorios. Para saber cuánto mejor, debe medir las referencias para establecer la precisión ahora, o volver a calibrar y repetir las mediciones anteriores para caracterizar la repetibilidad, lo que permite la deriva de la fuente. De cualquier manera, la precisión en el intervalo no calibrado en sus hombros.

Las especificaciones citadas son realmente buenas. Si espera realizar ese rendimiento, debe mantener la calibración. Si desea un chequeo rápido de aficionados, acorte las dos entradas juntas. Será mejor que sean 0.0000 voltios, 0.0000 amps y 0.0000 ohms. Más allá de eso, necesita una referencia de voltaje, una referencia de corriente y una referencia de resistencia. Una resistencia de baja deriva no es algo irrazonable para un laboratorio, pero ¿por qué no calibra el medidor o aprende a calibrarlo usted mismo en ese momento? Antes de comenzar a comprar normas de voltaje y corriente que son de 2 a 10 veces mejores que las especificaciones del medidor. ¡No son baratos, y ellos mismos tienen requisitos de calibración!

    
respondido por el Bill IV

Lea otras preguntas en las etiquetas