"El consumo de energía disminuye cuando la resistencia de la línea aumenta" es verdadero cuando tiene una carga resistiva, pero no cuando tiene una carga activa (reguladora). Y no es interesante hacerlo.
Suponga que su refrigerador necesita un promedio de 100W para enfriarse hasta el nivel de temperatura establecido. También podría ser una computadora que tenga un adaptador que pueda regular el voltaje de línea al voltaje requerido por una computadora que necesitaría 100W.
Supongamos que su refrigerador o adaptador puede funcionar a 100 V y también a 10 V. Así que a 100 V, la corriente sería 1A, y a 10 V sería 10A.
Si mi voltaje de línea es de 100 V, entonces, a 0 Ohm de resistencia de línea, el aparato recibe 100 V y toda la potencia suministrada es utilizada por el aparato.
Si cambio mi resistencia de línea a 9 ohmios, habría una pérdida de 90V en las líneas a 10A y el aparato obtendría 10V y consumiría los 100W que necesita. Sin embargo, la pérdida en las líneas sería 900W - 9 veces la potencia útil.
En la práctica, no tendrás una gran diferencia, pero siempre funcionará de la misma manera.
Para una potencia "útil" constante, cuanto menor sea la resistencia de la línea, menor será el consumo y menor será la factura.
Si acepta el principio de obtener menos potencia útil, la factura será menor con una mayor resistencia de línea, pero también obtendrá una menor cantidad de luz de las bombillas y el costo por Wh útil será mayor.
Con cargas (parcialmente) inductivas y capacitivas, el cálculo es más complejo, pero la resistencia de la línea consumirá mucho con respecto a la potencia realmente consumida en la carga. Esta es la razón por la que hay un límite inferior en lo que se llama el "factor de potencia", pero esa es otra historia (relacionada).