Los microcontroladores de 16 bits son más potentes que los de 8 bits y los de 32 bits están en un nivel completamente diferente. Dicho esto, si bien podemos decidir qué periféricos necesitamos para una aplicación e intentar encontrar la alternativa más barata (y fácil de usar, es decir, la cadena de herramientas), ¿cómo se sabe si se debe usar un microcontrolador de 8 bits para una aplicación? ¿O uno de 16 bits o uno de 32 bits?
Entiendo las diferencias entre ellos, por lo que haré la pregunta de una manera diferente.
Digamos que tengo una aplicación en la que tendré una pantalla LCD utilizada para mostrar una imagen de mapa de bits, un teclado de 16 teclas, un zumbador, un sensor de temperatura y humedad y una entrada del mouse. Un microcontrolador de 8 bits de gama alta puede hacer todas estas cosas fácilmente en tiempo real. Ahora, si me muevo a una pantalla LCD en color, es posible que necesite un microcontrolador de 32 bits que pueda actualizar la pantalla en color lo suficientemente rápido y tenga más memoria. Sin embargo, es posible que solo descubra que mi microcontrolador de 8 bits de gama alta es débil, después de haberlo probado en el proyecto.
Entonces, antes de comenzar a trabajar en el proyecto, ¿cómo sabemos qué tamaño y cuánto microcontrolador se necesita para el proyecto?