En la computación física, el binario se utiliza para realizar cálculos. Normalmente, 1 corresponde a alto voltaje (3V-5V) y 0 corresponde a bajo voltaje (0V-2V).
Tal vez no sea factible debido a la cantidad de precisión involucrada, pero ¿por qué es que las personas no usan un sistema de base más alto, como decimal o hexadecimal, cuando interpretan voltajes?
La idea detrás de esto es que si un sistema computacional divide un rango de voltajes en 10 sub-rangos discretos, ¿no podría aumentarse la velocidad computacional?
En lugar de usar 0V-2V y 3V-5V, quizás se podría usar algo como lo siguiente:
Me doy cuenta de que los rangos de voltaje no pueden ser demasiado altos; Entonces, si el rango de voltaje de 0V-5V se dividiera en 10 intervalos, ¿habría algún problema?