En el curso que estoy leyendo, hay un ejemplo que muestra que un bajo factor de potencia hace que se dibuje más corriente y, por lo tanto, se pierda más poder en las líneas de transmisión.
Suponga que una cierta carga requiere 1 kW para funcionar correctamente.
Si el factor de potencia fuera 0.9 y la fuente de alimentación da 110 V, necesitaríamos 10A. Si el factor de potencia fuera 0.6 y la fuente de alimentación da 110V, necesitaríamos 15A.
Sin embargo, algo aquí simplemente no tiene sentido. Si consideramos la fuente de alimentación como una fuente de voltaje ideal, entonces la corriente no tiene nada que ver con la potencia dada.
Parece que simplemente asumió que la carga consumiría la potencia necesaria para funcionar correctamente sin importar qué.
Por otro lado, me parece que la corriente se mantendría igual, afectada por la impedancia de la carga, lo que lleva a una potencia real más baja y, por lo tanto, a una carga que funciona mal.
¿En qué me equivoqué?