Comencé a usar computadoras en la década de 1980. Por lo que recuerdo, las CPU de 8 bits de aquellos tiempos como Z80 a menudo funcionaban con 5 V y usaban el mismo voltaje para las señales de E / S. Las CPU posteriores se ejecutan a velocidades más altas y comenzaron a consumir más energía. Espero que para entregar más potencia a un chip, debemos utilizar un voltaje más alto o una corriente más alta. Y como las corrientes altas normalmente necesitan cables gruesos, yo esperaría que las CPU usaran voltajes más altos para mantener las corrientes bajas. Pero lo contrario es cierto. Por ejemplo, una CPU estándar Intel Pentium 4 o Core 2 Quad que uso en casa tiene un TDP de 95 W, lo que significa que consumen más de 100 W en los picos de potencia. Dado que funcionan con un voltaje muy bajo de alrededor de 1 V, en realidad necesitan entregar la energía usando aproximadamente 100 A. Entonces, mi pregunta es: ¿por qué se prefiere esto, por qué es eficiente?