TL, WR: ¿Por qué usamos la energía de la señal como una medida del error de una aproximación y no algo "más simple" como el valor absoluto del error?
Antecedentes: Estoy leyendo mi libro de texto para mi introducción a la clase de señales, y acaban de llegar al punto en el que están discutiendo representaciones de señales de la serie de Fourier.
Específicamente, están hablando de la onda cuadrada y de cómo debe descomponerse en un número infinito de exponenciales complejas relacionadas armónicamente
$$ x (t) = \ sum_ {k = - \ infty} ^ {+ \ infty} a_k \ cdot e ^ {jk \ omega_0 t} $$ y cómo obtener un error de aproximación, quieren usar un número finito para representarlo
$$ e_N (t) = x (t) - x_ {N} (t) = x (t) - \ sum_ {k = -N} ^ {+ N} a_k \ cdot e ^ {jk \ omega_0 t} $$
Luego dicen,
Para determinar qué tan buena es cualquier aproximación en particular, necesitamos especificar una medida cuantitativa del tamaño del error de aproximación. El criterio que usaremos es la energía en el error durante un período. $$ E_N = \ int_ {T} | e_N (t) | ^ 2 dt $$
¿Por qué eligieron usar esto como la medida del error, en lugar de, digamos, el valor absoluto del error? Las integrales son matemáticas "difíciles" (con lo que quiero decir más tiempo) y me gustaría escuchar una justificación de cualquiera que trabaje estrechamente con estas cosas. Supongo que hacerlo de esta manera podría revelar lugares donde el error en la señal aumenta, lo que podría ser información útil, pero eso es lo único que me viene a la mente de inmediato.