Solía trabajar para una empresa que fabricaba medidores de potencia pero solo trabajaba en el lado de la aplicación de escritorio (interfaz de usuario) y nunca aprendía realmente cómo se producen algunos procesos, como el proceso de calibración. Así que para aprender algo que siempre he sentido curiosidad, decidí hacer mi propio medidor de potencia
Lo que sé y lo que creo que sé
Sé que algunas regulaciones que definen el número de puntos por onda (por ejemplo, @ 60 hz debe tener 64 muestras) dada la precisión deseada. Conozco la ecuación de Vrms, Irms, potencia aparente, potencia activa, factor de potencia, potencia real y estas cosas que puedo medir en el hardware que hice (un TP y tres TC, planeo hacer un cambio de fase de software para los otros dos los voltajes, que supongo que no son suficientes para cualquier estándar, pero están bien, o bien puedo agregar un retardo de fase con los condensadores en la entrada del ADC (también los TC son muy caros).
Lo que pasa es que sé que los valores obtenidos se calculan utilizando una constante de calibración, por lo que ... Vrms = Kc * sqrt (1 / N * (v1 ^ 2 + v2 ^ 2 + .. + vn ^ 2) ) y lo mismo para la corriente, por lo que los otros cálculos que se derivan de esto están sujetos a las constantes de calibración. Por lo que he estado leyendo esta constante de calibraciones es Kc = (alto voltaje real - bajo voltaje de lectura) / (alto voltaje de lectura - bajo voltaje real) y también hay un desplazamiento, que se calcula de manera similar. encima de Vrms = Kc * sqrt (1 / N * (v1 ^ 2 + v2 ^ 2 + .. + vn ^ 2)) + Ko, donde Ko = offset ????
El problema que sé que estoy enfrentando
El problema al que me estoy enfrentando es cómo implementar el proceso de calibración. De acuerdo con un estándar nacional, sepa que un dispositivo debe calibrarse con otro dispositivo (calibrador) que sea al menos 3 veces más preciso. Entonces, si quiero lograr una precisión del 1%, necesitaría calibrarlo contra un dispositivo que sea al menos el 0,3%. Sé que necesitaría calibrarlo con PF = 0, PF = 1, PF = 0.5 POR LO MENOS pero todavía no estoy seguro de cómo lo calibraría. Mi antigua empresa usó un calibrador y luego tuvieron que escribir un programa para enviar comandos (cambiar de configuración delta a estrella por ejemplo, cambiar voltaje, corriente, PF, etc.) y luego leyeron ambos dispositivos, compararon y generaron una calibración constante. Por lo que recuerdo, no es un procedimiento muy rápido, requiere MUCHO de matemáticas y no estoy seguro de cómo aprendería sobre las matemáticas necesarias.
Lo que me han dicho
Algunas personas me han dicho que un proceso de calibración es un secreto bien guardado por las empresas, pero que realmente no se suma, debe haber una teoría detrás de él y un método básico que se puede usar y aprender de los libros / internet y luego, después de obtener el conocimiento, podré modificar el método base para lograr mis objetivos.
Lo que quiero saber
¿Alguien sabe sobre buenos libros / sitios web / artículos sobre el tema de calibración? He estado tratando de investigar esto pero no he tenido mucho éxito. ¿Y qué hay de los estándares internacionales para la calibración? Conozco ISO / IEC 17025: 2005, pero creo que solo se aplica a los laboratorios que desean certificarse y solo quiero saber cómo se puede realizar un proceso de calibración real para mi medidor. O si lo prefiere, puede contestarme en detalle en la respuesta, pero creo que eso sería mucho para la tarea
PS: Tengo una idea de lo que necesito saber, pero ciertamente hay más cosas que debería saber antes de seguir adelante. Soy un EE con algunos años de experiencia en aplicaciones de escritorio y luego renuncié a ese trabajo y he estado trabajando como desarrollador de firmware (más en mi área de conocimiento)