De vuelta en la bruma del tiempo cuando comencé a codificar, al menos en la medida en que tengo conocimiento, todos los procesadores utilizaron una cantidad fija de energía. El procesador no estaba "inactivo".
En estos días hay todo tipo de tecnologías para reducir el uso de energía cuando el procesador no está muy ocupado, principalmente reduciendo dinámicamente la velocidad del reloj.
Mi pregunta es ¿por qué correr con una frecuencia de reloj más baja consume menos energía?
Mi imagen mental de un procesador es de un voltaje de referencia (por ejemplo, 5V) que representa un binario 1 y 0V que representa 0. Por lo tanto, tiendo a pensar en una constante de 5V aplicada en todo el chip, con varias puertas lógicas desconectar esta tensión cuando está "apagado", lo que significa que se está utilizando una cantidad constante de energía. La velocidad a la que se activan y desactivan estas compuertas parece no tener relación con la potencia utilizada.
No tengo ninguna duda de que esta es una imagen irremediablemente ingenua, pero no soy ingeniero eléctrico. ¿Alguien puede explicar qué está pasando realmente con la escala de frecuencia y cómo ahorra energía? ¿Hay otras formas en que un procesador utiliza más o menos energía dependiendo del estado? por ejemplo, ¿usa más energía si hay más puertas abiertas?
¿En qué se diferencian los procesadores móviles / de baja potencia de sus primos de escritorio? ¿Son simplemente más simples (menos transistores), o hay alguna otra diferencia de diseño fundamental?