Estoy empezando a aprender la teoría de la electrónica.
A partir de un fondo de probabilidad y estadísticas, tengo una idea muy arraigada del término promedio .
El promedio para mí es el Media aritmética . En otras palabras, si tuviera que tomar una muestra de los datos con los que calculé mi media, tengo muchas posibilidades de ver un valor cerca de mean .
Parece que esta definición no es la misma en ingeniería eléctrica. El promedio actual se define por el cambio en el cargo durante el cambio en el tiempo. Esto es similar a la velocidad física. Pero aquí no se hace ningún promedio, ¿verdad? No está sumando nada en el numerador, sino que está dividiendo el cambio en el cargo por el cambio en el tiempo. Esto le daría la cantidad de carga cambiada por unidad de tiempo.
Imagina que debo dibujar un valor de carga de una lista de valores de carga medidos desde un circuito. Si asumiera ingenuamente que promedio significaba lo anterior, esperaría que cualquier medición de carga dada se dispersara en algún lugar cerca del valor allí. Sin embargo, en realidad, la Carga promedio define la pendiente de una línea.
¿Cómo puedo reconciliar estas dos cosas para que pueda entender realmente qué significa promedio aquí?
EDIT :
Después de sentarme con el papel por un tiempo justificándolo, hay un solo caso que me confunde:
Usemos este conjunto de datos:
Q = [0, 1, 2, 3, 4]
t = [0, 1, 2, 3, 4]
y tenemos los siguientes puntos de datos
(0, 0), (1, 1), (2, 3), (3, 2), (4, 4)
Encontrar la corriente promedio entre t = 0 y t = 4 es:
4 - 0 / 4 - 0 = 1 C/s = 1A
Sin embargo, usando la media aritmética:
1/5 * (0 + 1 + 3 + 2 + 4) = 2A
.
El valor final en el tiempo t = 4
donde Q = 4
está descartando el cálculo.