Como aficionado a la ingeniería general, estoy aprendiendo más sobre el mundo de los microcontroladores todos los días. Una cosa que no entiendo bien es la importancia de la versión de bit de un microcontrolador.
He estado usando el ATmega8 durante varios meses, y parece funcionar muy bien para mis propósitos. Sé cómo cosas como la velocidad del reloj, la memoria, la cantidad de pines IO, los tipos de buses de comunicación, etc., diferencian un microcontrolador de otro. Pero no entiendo muy bien el significado de, digamos, 8 bits frente a 16 bits frente a 32 bits. Entiendo que una versión de bit más alta permite que el dispositivo almacene números más grandes, pero nuevamente, ¿cómo afecta esto mi decisión? Si estoy diseñando un producto, bajo qué hipotético escenario decidiría que un procesador de 8 bits simplemente no funcionará y que necesito algo más alto.
¿Hay alguna razón para creer que una variante teórica de 32 bits del ATmega8 (en igualdad de condiciones) sería superior a una versión de 8 bits (si ese dispositivo fuera posible)?
Puede que esté diciendo tonterías, pero supongo que es el resultado de mi confusión.