Por "normalizado", quiero decir +/- 1 ~ = el error máximo que el sistema puede esperar razonablemente experimentar, o dividido por el punto de ajuste.
Antecedentes: estoy trabajando en un controlador PID para un calentador SSR que es muy sensible (5 ° C / s, 0.5-1 ° C / s de enfriamiento). El punto de ajuste está en el rango de 100-400 ° C. En el código, esto se implementa como:
$$ u (t) = K_pe (t) + K_i \ sum_ {t} e (t) dt + K_d [e (t) -e (t _ {- 1})] dt ^ {- 1} + K_k $$
(La suma es solo un acumulador y Kk es una pequeña corrección de estado estable)
Este formulario es bastante común en muchos de los códigos PID de código abierto que hay. Sin embargo, se me ocurrió que si tuviera que cambiar a ° F, de repente, mis términos K se desactivarán en 1.8. Esto no me parece matemáticamente "puro". Además, cuando intenté hacer que Ziegler-Nichols lo sintonizara, mi oscilación crítica es de ~ 24s, pero cuando pongo esto como Ki, tengo fluctuaciones descontroladas. Después de algunas excavaciones, encontré la ecuación en la lista como
$$ u (t) = K_c \ left (e (t) + \ frac {1} {T_i} \ sum_ {t} e (t) dt + {T_d} \ Delta e (t) dt ^ { -1} + K_k \ derecha) $$
Y tuve un momento bombilla. ¿Es esta la forma más "pura" de usar? Esto tiene más sentido cuando se trata del análisis de la función de transferencia y similares.