Se sabe que la función de transferencia de un filtro de paso bajo viene dada por \ $ F (s) = \ frac {1} {1+ \ lambda s} \ $ . Fue mencionado en muchos lugares que
-
El aumento de \ $ \ lambda \ $ aumenta la constante de tiempo del sistema, lo que lo hace más lento. He entendido esta declaración y estoy completamente de acuerdo con ella
-
Cuanto más alto sea \ $ \ lambda \ $ , mejor es la robustez que con mayor \ $ \ lambda \ $ , el desajuste entre planta y modelo es menor. Para citar exactamente la declaración, se encuentra en [Saxena S y Hote Y: Avances en la técnica de control de modelos internos - Una revisión y perspectivas futuras ] que
"El filtro hace que el controlador sea robusto, y también ayuda a minimizar las discrepancias entre la planta y su modelo en alta frecuencia, donde generalmente existe una falta de coincidencia [25]. Es un hecho que cuanto mayor sea el valor de
¿Puede explicar cómo es cierta esta afirmación?